Wydajność przetwarzania pod Linuxem w porównaniu do Windows i Mac

Zaczęty przez Ufol, 04 Czerwiec 2011, 15:54

Ufol

W niektórych projektach występują wyraźne różnice w prędkości dokonywanych obliczeń na korzyść danego systemu. Czym jest to spowodowane?
Czy są projekty wyraźnie preferujące Linuxa ponad pozostałe systemy? Do tego typu przemyśleń skłonił mnie wątek poświęcony Wcg i różnicy pomiędzy czasem przeliczania próbek pod Linuxem i Windowsem. W tamtym przypadku Linux bije Windowsa na łeb. Czy to wyjątek, czy tak dzieje się zazwyczaj?

krzyszp

Przyczyn jest kilka:

1. Kolejność systemów, na które tworzona jest aplikacja - Wielokrotnie pierwotna aplikacja najlepiej jest zoptymalizowana na pierwotny system operacyjny.
2. Różnice w systemach operacyjnych - Wydaje mi się, że ma to mniejszy wpływ przy obecnych kompilatorach, ale jednak występuje.
3. Umiejętności programistów i ich znajomość systemu - To chyba powoduje największe różnice...

Zwłaszcza punkt trzeci wydaje mi się mieć największy wpływ...

Fajne zegarki :)
Należę do drużyny BOINC@Poland
 Moja wizytówka

phobos

Wydaje mi się że drugi punkt też może mieć jendak spore znaczenie, razem z użytym kompilatorem. Niedawno pisałem program sprawdzający pierwszość liczby i mogłem takie różnice zaobserować. Identyczny kod źródłowy skompilowany w visualu i odpalony na windowsie był ponad połowę wolniejszy niz skompilowany w gcc i puszczony na ubuntu. Na tym samym komputerze rzecz jasna.