私はmysql/mariadbでこの正確な問題を抱えており、この質問から大きな手がかりを得ました
したがって、pysparkコマンドは次のようになります。
pyspark --conf spark.executor.extraClassPath=<jdbc.jar> --driver-class-path <jdbc.jar> --jars <jdbc.jar> --master <master-URL>
また、pysparkが「警告:ローカルjar ...が存在しません、スキップします」のように起動するときのエラーにも注意してください。および「ERRORSparkContext:Jar not found at ...」、これらはおそらくパスのスペルが間違っていることを意味します。