1
Scrivere più di 50 milioni da Pyspark df a PostgresSQL, il miglior approccio efficiente
Quale sarebbe il modo più efficiente per inserire milioni di record dire 50 milioni da un frame di dati Spark a Tabelle Postgres. In passato l' ho fatto da Spark a MSSQL facendo uso dell'opzione di copia bulk e dimensione batch che ha avuto successo. C'è qualcosa di simile che …