Ho una domanda sul miglior approccio. Non sono sicuro quale sia l'approccio migliore quando i dati sono considerati di dimensioni variabili.
Considera i seguenti 3 TABELLE:
DIPENDENTE
EMPLOYEE_ID, EMP_NAME
PROGETTO
PROJECT_ID, PROJ_NAME
EMP_PROJ (da molte a molte delle due tabelle precedenti)
EMPLOYEE_ID, PROJECT_ID
Problema : dato un EmployeeID, trova TUTTI i dipendenti di TUTTI i progetti a cui questo dipendente è associato.
L'ho provato in due modi ... entrambi gli approcci differiscono solo di pochi millisecondi, indipendentemente dalla dimensione dei dati utilizzati.
SELECT EMP_NAME FROM EMPLOYEE
WHERE EMPLOYEE_ID IN (
SELECT EMPLOYEE_ID FROM EMP_PROJ
WHERE PROJECT_ID IN (
SELECT PROJECT_ID FROM EMP_PROJ p, EMPLOYEE e
WHERE p.EMPLOYEE_ID = E.EMPLOYEE_ID
AND E.EMPLOYEE_ID = 123)
partire
select c.EMP_NAME FROM
(SELECT PROJECT_ID FROM EMP_PROJ
WHERE EMPLOYEE_ID = 123) a
JOIN
EMP_PROJ b
ON a.PROJECT_ID = b.PROJECT_ID
JOIN
EMPLOYEE c
ON b.EMPLOYEE_ID = c.EMPLOYEE_ID
Per ora, mi aspetto circa 5000 dipendenti e progetti ciascuno .. ma non ho idea di che tipo di relazione esiste. Quale approccio consiglieresti? Grazie!
EDIT: piano di esecuzione dell'approccio 1
"Hash Join (cost=86.55..106.11 rows=200 width=98)"
" Hash Cond: (employee.employee_id = emp_proj.employee_id)"
" -> Seq Scan on employee (cost=0.00..16.10 rows=610 width=102)"
" -> Hash (cost=85.07..85.07 rows=118 width=4)"
" -> HashAggregate (cost=83.89..85.07 rows=118 width=4)"
" -> Hash Semi Join (cost=45.27..83.60 rows=118 width=4)"
" Hash Cond: (emp_proj.project_id = p.project_id)"
" -> Seq Scan on emp_proj (cost=0.00..31.40 rows=2140 width=8)"
" -> Hash (cost=45.13..45.13 rows=11 width=4)"
" -> Nested Loop (cost=0.00..45.13 rows=11 width=4)"
" -> Index Scan using employee_pkey on employee e (cost=0.00..8.27 rows=1 width=4)"
" Index Cond: (employee_id = 123)"
" -> Seq Scan on emp_proj p (cost=0.00..36.75 rows=11 width=8)"
" Filter: (p.employee_id = 123)"
Piano di esecuzione dell'approccio 2:
"Nested Loop (cost=60.61..112.29 rows=118 width=98)"
" -> Index Scan using employee_pkey on employee e (cost=0.00..8.27 rows=1 width=4)"
" Index Cond: (employee_id = 123)"
" -> Hash Join (cost=60.61..102.84 rows=118 width=102)"
" Hash Cond: (b.employee_id = c.employee_id)"
" -> Hash Join (cost=36.89..77.49 rows=118 width=8)"
" Hash Cond: (b.project_id = p.project_id)"
" -> Seq Scan on emp_proj b (cost=0.00..31.40 rows=2140 width=8)"
" -> Hash (cost=36.75..36.75 rows=11 width=8)"
" -> Seq Scan on emp_proj p (cost=0.00..36.75 rows=11 width=8)"
" Filter: (employee_id = 123)"
" -> Hash (cost=16.10..16.10 rows=610 width=102)"
" -> Seq Scan on employee c (cost=0.00..16.10 rows=610 width=102)"
Sembra quindi che il piano di esecuzione dell'approccio 2 sia leggermente migliore, perché il "costo" è 60 rispetto a 85 dell'approccio 1. È il modo giusto di analizzarlo?
Come si fa a sapere che sarà vero anche per tutti i tipi di molte-molte combinazioni?
explain analyze
potrebbe rivelare più differenze tra i piani