Oggi ho avuto un incontro con un fornitore di software sulla loro infrastruttura consigliata per la distribuzione di una particolare applicazione. L'applicazione richiede due server: un server app per le pagine Web del server (.NET, Windows) e un database (SQL Server). Il fornitore ha affermato che questi due server dovevano avere "bit parità". Ciò significava che se l'app server era a 32 bit, SQL Server dovrebbe essere a 32 bit o se l'app è a 64 bit, SQL Server a 64 bit. In caso contrario, le prestazioni saranno influenzate negativamente.
Mi sembra ridicolo. I server sono indipendenti e comunicano solo su una rete. I protocolli di rete non hanno nulla a che fare con il "bit-ness" del processore su entrambi i server.
Ho sbagliato? C'è un motivo per cui una mancata corrispondenza potrebbe effettivamente influire negativamente sulle prestazioni?
NOTA: so che alcune app potrebbero funzionare più velocemente o più lentamente a 32 bit contro 64 bit. Ma il fornitore stava dicendo che la mancata corrispondenza tra il server Web e il server DB causa un problema. Questa è la frase che sto interrogando.