Sto usando il codice qui sotto per trovare un paese (e talvolta lo stato) per milioni di punti GPS. Il codice attualmente richiede circa un secondo per punto, che è incredibilmente lento. Lo shapefile è di 6 MB.
Ho letto che Geopandas usa le risorse per i join spaziali, rendendole incredibilmente efficienti, ma questo non sembra funzionare qui. Che cosa sto facendo di sbagliato? Speravo in circa mille punti al secondo o giù di lì.
Il file di forma e CSV possono essere scaricati qui (5 MB): https://www.dropbox.com/s/gdkxtpqupj0sidm/SpatialJoin.zip?dl=0
import pandas as pd
import geopandas as gpd
from geopandas import GeoDataFrame, read_file
from geopandas.tools import sjoin
from shapely.geometry import Point, mapping,shape
import time
#parameters
shapefile="K:/.../Shapefiles/Used/World.shp"
df=pd.read_csv("K:/.../output2.csv",index_col=None,nrows=20)# Limit to 20 rows for testing
if __name__=="__main__":
start=time.time()
df['geometry'] = df.apply(lambda z: Point(z.Longitude, z.Latitude), axis=1)
PointsGeodataframe = gpd.GeoDataFrame(df)
PolygonsGeodataframe = gpd.GeoDataFrame.from_file(shapefile)
PointsGeodataframe.crs = PolygonsGeodataframe.crs
print time.time()-start
merged=sjoin(PointsGeodataframe, PolygonsGeodataframe, how='left')
print time.time()-start
merged.to_csv("K:/01. Personal/04. Models/10. Location/output.csv",index=None)
print time.time()-start