BOINC@Poland

Inne => Archiwum => Wątek zaczęty przez: Ufol w 04 Czerwiec 2011, 15:54

Tytuł: Wydajność przetwarzania pod Linuxem w porównaniu do Windows i Mac
Wiadomość wysłana przez: Ufol w 04 Czerwiec 2011, 15:54
W niektórych projektach występują wyraźne różnice w prędkości dokonywanych obliczeń na korzyść danego systemu. Czym jest to spowodowane?
Czy są projekty wyraźnie preferujące Linuxa ponad pozostałe systemy? Do tego typu przemyśleń skłonił mnie wątek poświęcony Wcg i różnicy pomiędzy czasem przeliczania próbek pod Linuxem i Windowsem. W tamtym przypadku Linux bije Windowsa na łeb. Czy to wyjątek, czy tak dzieje się zazwyczaj?
Tytuł: Wydajność przetwarzania pod Linuxem w porównaniu do Windows i Mac
Wiadomość wysłana przez: krzyszp w 04 Czerwiec 2011, 16:00
Przyczyn jest kilka:

1. Kolejność systemów, na które tworzona jest aplikacja - Wielokrotnie pierwotna aplikacja najlepiej jest zoptymalizowana na pierwotny system operacyjny.
2. Różnice w systemach operacyjnych - Wydaje mi się, że ma to mniejszy wpływ przy obecnych kompilatorach, ale jednak występuje.
3. Umiejętności programistów i ich znajomość systemu - To chyba powoduje największe różnice...

Zwłaszcza punkt trzeci wydaje mi się mieć największy wpływ...
Tytuł: Wydajność przetwarzania pod Linuxem w porównaniu do Windows i Mac
Wiadomość wysłana przez: phobos w 07 Czerwiec 2011, 23:59
Wydaje mi się że drugi punkt też może mieć jendak spore znaczenie, razem z użytym kompilatorem. Niedawno pisałem program sprawdzający pierwszość liczby i mogłem takie różnice zaobserować. Identyczny kod źródłowy skompilowany w visualu i odpalony na windowsie był ponad połowę wolniejszy niz skompilowany w gcc i puszczony na ubuntu. Na tym samym komputerze rzecz jasna.