AWSGlueとPostgresでこれに遭遇しました。 Spark 2.1.0にはバグがあり、ほとんどの人が修正しましたが、誰かがcustomSchemaオプション 。
AWSGlueとSparkSQLでも同様の問題が発生しました。通貨額を計算していたため、結果は浮動小数点でした。接着剤がエラーをスローしましたDecimal precision 1 exceeds max precision -1
Glue Data Catalogが列を小数として定義していても、列をNUMERIC(10,2)として明示的にキャストすることにより、上記のcustomSchemaソリューションからページを取得し、Sparkが文句を言うのをやめました。