Dzisiaj spotkałem się z dostawcą oprogramowania na temat ich zalecanej infrastruktury do wdrażania konkretnej aplikacji. Aplikacja potrzebuje dwóch serwerów: serwera aplikacji dla stron internetowych serwera (.NET, Windows) oraz bazy danych (SQL Server). Sprzedawca twierdził, że te dwa serwery musiały mieć „bit parzystości”. Rozumieli przez to, że jeśli serwer aplikacji był 32-bitowy, SQL Server powinien być 32-bitowy lub jeśli aplikacja ma 64-bitowy, to SQL Server jest 64-bitowy. W przeciwnym razie pogorszy się wydajność.
To wydaje mi się śmieszne. Serwery są niezależne i komunikują się tylko przez sieć. Protokoły sieciowe nie mają nic wspólnego z „bitowością” procesora na obu serwerach.
Czy się mylę? Czy istnieje powód, dla którego niedopasowanie może negatywnie wpłynąć na wydajność?
UWAGA: Wiem, że niektóre aplikacje mogą działać szybciej lub wolniej w wersji 32-bitowej w porównaniu do 64-bitowej. Ale sprzedawca powiedział, że niedopasowanie między serwerem WWW a serwerem DB powoduje problem. To stwierdzenie, które kwestionuję.