Двоен процесор Intel Xeon

Някога мултипроцесирането е било популярно не само в сървърите, но и в по-старите модели работни станции и дори в самосглобяемите компютри. Особено широко използване на тази технология се дължи на факта, че Intel предоставя SMP поддръжка в системи, базирани на процесори Pentium (до два процесора без специални архитектурни настройки) и я укрепва в Pentium Pro (могат да се използват до четири процесора). Настолните Pentium II се върнаха на по-ниско ниво (до два процесора), но бяха евтини (и дори доста бюджетни Celerons можеха да работят в двойка след лека модификация), което бързо направи съответните дънни платки, макар и не масивни в пълния смисъл на думата, но широко разпространена стока. Тогава AMD се включи в надпреварата, предлагайки на потребителите своите двупроцесорни решения за работни станции. И тук историята отново се повтори - Athlon MP, необходим за SMP конфигурации, не можеше да бъде закупен, а самостоятелно „направен“ от масовия Athlon XP, който бързо привлече вниманието на много потребители към дънните платки с два цокъла, базирани на AMD 760MP и 760MPX чипсети.

По-късно производителите стигнаха до заключението, че простотата на получаване на SMP системи от евтини компоненти силно влияе върху собствените им приходи, така че те постепенно започнаха да разделят масовите (един сокет, един процесор) и високопроизводителните указания до степен, че има понякога моменти, когато се оказват напълно несъвместими. Това обаче беше направено до голяма степен с цел допълнителна печалба, но изобщо не с цел да се "удуши" посоката. Така че някои от ентусиастите за двугроздови системи се охладиха, но само тези, които се интересуваха от „преработване за преработка“ - потребители с реална нужда от висока производителност продължиха активно да купуват работни станции с два процесора. Първите Xeon и Opteron достигнаха своя връх. И тогава - как отсечено.

Причината за това беше пускането на двуядрени, а след това и четириядрени настолни процесори. По същество за повечето задачи CMP и SMP не са много различни, но възможността за използване на „нормални“ компоненти на работния плот беше запазена. Отново - и цената се оказа по-ниска. Разбира се, по всяко време два гнезда могат да осигурят два пъти повече ядра от едно, но не много се нуждаят от това. Потребителите бързо се убедиха, че две ядра са почти винаги по-добри от едно - дори ако използвате еднонишкови приложения, системата поне става много по-„отзивчива“ на потребителските действия, тъй като второто ядро ​​просто осигурява необходимия ресурс. Но ползата от наличието на четири ядра на десктоп за дълго време може да бъде получена само с помощта на много специфичен софтуер и дори сега ситуацията не се е променила много. Но дори ако четири ядра не са ви достатъчни, не е нужно да бягате след система с два гнезда - скоро и Intel, и AMD ще пуснат шест-ядрени настолни процесори. Е, ще бъде възможно (или, в случай на AMD, вече е възможно) да поставите такава двойка, така че какво? Какво ще правиш с дванадесет ядра?:) Като цяло, за да обобщим, увеличаването на броя на ядрата беше изключително важно при преместване от едно на повече от едно, но колкото по-нататък, толкова по-малко интересно. Съответно, SMP конфигурациите бяха крайно необходими, когато нямаше други начини да се получи повече от едно ядро, но те бързо загубиха своята привлекателност, тъй като CMP се подобри. От днешните успешни SMP системи на работния плот единственото, което ми идва на ум, е Apple Mac Pro и дори тогава - преди половин година, компанията настъпи гърлото на собствената си песен, пускайки модификация само с един „сингъл -гнездо "Xeon 3500 серия.

Всички обаче знаят за съществуването на приложения, които значително се ускоряват с всяко увеличаване на броя на ядрата - просто защото някои задачи са перфектно паралелизирани (някои - обикновено на ниво алгоритми, за някои положителният ефект се постига поради едновременното стартиране на същите и независими парчета код). Вярно е, че процентът на подобни задачи сред обичайния софтуер за "настолни компютри" е много малък. Или, въпреки това, не малък? Въпросът е интересен и все още не е напълно разследван. Затова решихме да го направим. За щастие, настоящият ни метод за тестване на процесорите в момента е съсредоточен по същество върху настолните приложения. И в рамките на същите тези настолни системи, той демонстрира добро увеличение на производителността с увеличаване на броя на изчислителните нишки (както чрез използването на CMP, така и в по-малка степен поради SMT в процесорите на Intel). И какво ще се случи, ако се опитаме да използваме всички съществуващи в момента технологии за увеличаване на производителността: както SMT (т.е. способността да се извършват повече от една нишка изчисления на едно ядро ​​- това е, което прави Hyper-Threading), така и CMP ( "мултипроцесинг" поради увеличаване на броя на ядрата в едно устройство) и SMP (инсталиране на множество процесори)? Да видим.