Elke werkdag behandelt Computable een onderwerp waarover lezers kunnen discussiëren. Vandaag over Intels andere processorlijn: de Itanium. Officieel leeft die 64-bit chip voort, maar de ontwikkeling gaat in gletsjertempo.
Servers met de krachtige Itanium-processor van Intel bestaan nog en krijgen ergens dit jaar een nieuwe, socket-compatibele generatie van die 64-bit cpu. Alleen is officieel niet bekend hoe en wat die Kittson-generatie gaat brengen. HP is de enige overgebleven grote Itanium-serverleverancier, maar is druk doende zijn topservers te voorzien van Intels Xeon-processors. Een kwestie van tijd voordat de Itanium overkomt wat toenmalige cpu-concurrenten als Alpha, PA-Risc en Ultrasparc is overkomen? Marginalisering en mogelijk migratie? De Xeon heeft de Itanium de das om gedaan. Wat vind jij?
Gegeven het feit dat de integratie van de hoeveelheid componenten op processoren de fysieke grenzen van de quantum mechanica aan het naderen is, lijkt de meest logische weg in de toekomst meer cores. Dit lijkt dus de XEON-route te zijn.
Applicaties moeten dan ook meer gebruik (gaan) maken van deze multi-core architectuur.
Voorbeelden hiervan zijn te vinden op wuala.com/QuantumRandomnessApplications/Finance/Examples
Deze applicaties hebben een variabel instelbare hoeveelheid threads.
Wanneer de hoeveelheid threads gelijk of meer dan 2x de hoeveelheid cores is dan gebruik je de processor capaciteit optimaal.
@Q
Wat volgens mij de Itanium (en andere processor architecturen) vooral de das om heeft gedaan is kennis aangaande de technologie, vuistregels aangaande optimale instellingen blijven glad ijs als ik kijk naar de wachtrij theorie binnen parallisatie. Zo zijn er nog wat vertragende factoren zoals het aanspreken van geheugen en de South bridge welke voor de nodige vertragingen kan zorgen.
@Q: Die opmerking over de fysieke grenzen van de kwantummechanica lijkt erg intelligent omdat niemand het snapt, maar het slaat natuurlijk nergens op. Wanneer je X keer zoveel cores hebt, heb je ook X keer zoveel componenten op je chip zitten.
Intel zat “vast” met zijn x86 Pentium ontwerp. Om deze sneller te krijgen, werd de klok telkens verder opgeschroefd. Het resultaat was een computer waarvan de ventilator harder draaide dan de processor, die in een keuken niet zou misstaan: je kon er goed eieren op bakken.
Intel had Itanium nodig om tot een beter processorontwerp te komen. Geen gigahertzen maar slimmer ontwerpen, efficiëntere instructies, meerdere cores hebben geleid tot de Intel Core en Xeon processors.
Met meer cores haal je alleen hogere prestaties als je code er ook mee overweg kan. Steeds meer code is multithreaded, waardoor je een sneller systeem krijgt als je het aantal cores verhoogt.
Het lijkt er dus op dat Intel met de 60-core Xeon Phi op de goede weg zit:
https://tweakers.net/nieuws/102141/intels-knights-landing-xeon-phi-cpu-krijgt-60-cores.html
Ik denk dat de Itanium al is opgevolgd door de Xeon, het duurt niet lang meer voordat de Itanium zal verdwijnen.
@Frank Heikens, 03-04-2015 09:08: ‘@Q: Die opmerking over de fysieke grenzen van de kwantummechanica lijkt erg intelligent omdat niemand het snapt, maar het slaat natuurlijk nergens op. Wanneer je X keer zoveel cores hebt, heb je ook X keer zoveel componenten op je chip zitten.’
Quote uit de presentatie ‘Quantum Limits in the semiconductor industry’ gegeven door Peter Steeneken, NXP Semiconductors op Fysica 2013: ‘During the last 4 decades, the size of transistors has decreased tremendously. According to roadmap predictions, transistor gate lengths will continue to downscale towards 6 nm in 2026. It is anticipated that beyond this size, quantum mechanical tunneling of electrons will limit further downscaling of transistors.’
Het gaat om de integratie dichtheid van de componenten. Bij een toenemende hoeveelheid cores kun je de integratie dichtheid gelijk laten door de oppervlakte per core gelijk te laten en dus de gehele processor groter te maken.
Q heeft altijd van die wazige opmerkingen en links naar Wuala. Wordt tijd dat die meneer gewoon eens geblocked wordt.
Er zit een levensgroot verschil tussen X86_64 en Itanium. Toen de Itanium werd ontwikkeld, was het 32-Bit model aan het einde van zijn levensduur. Met name de 4GB memory beperking was daar de drijvende factor achter, maar ook de afhankelijkheid van slechts 15 hardware interrupts, een beperkt aantal software interrupt vectors, zeer weinig in hardware ingebouwde veiligheidsmechanismen (bijv. memory protection en Virtualisatie) en ga zo maar door. Een compleet nieuwe 64-Bit architectuur was de logische stap op dat moment. Echter, dit vereiste ook een volledig nieuwe software architectuur. Daar had Intel even geen rekening mee gehouden. En toen AMD met 64-Bit extensies voor X86 kwam als reactie op Itanium, waarbij de 32-Bit software prima op de 64-Bit CPU draaide, heeft dit uiteindelijk de Itanium de das om gedaan. Samen met de Wet van Moore, de steeds kleiner wordende transistorpaden, en de hoeveelheid geld die er beschikbaar is voor nieuwe ontwikkeling
Itanium zal er over 5 jaar niet meer zijn, simpelweg om dat er geen softwareplatform meer voor zal zijn.
@Erwin, 04-04-2015 15:47: ‘Q heeft altijd van die wazige opmerkingen en links naar Wuala. Wordt tijd dat die meneer gewoon eens geblocked wordt.’
Wil je er diep induiken, dan moet je even kijken naar vergelijking (5) in ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=4567410
Dit is het optimum wanneer electronen geimplementeerd worden als kleinste transistoren. Dit theoretische optimum is echter in de praktijk niet haalbaar.
Dus wanneer je als strategie hebt om steeds meer componenten per oppervlakte eenheid te integreren dan loopt dit een keer op z’n einde.
Heb je als strategie om meer cores te gebruiken met dezelfde integratie dichtheid, dan kun je weer vooruit.
Dit is welliswaar een andere invalshoek dan de analyse van jou. Echter in een discussiestuk zoals dit moet deze vrijheid aanwezig zijn.
@Q, 04-04-2015 15:00
Jouw quote klopt helemaal! Alleen jouw conclusie niet, en jouw eerste post (02-04-2015 11:04) slaat helemaal nergens op.
De hele chip laten groeien is bijna een garantie voor falen. Bij het bakken van chips zijn niet alle individuele processoren op zo’n plak goed, er mislukken altijd wel een paar.
Hoe groter de chip, hoe groter de kans dat er een fout in de chip zit. Om die reden heeft Intel in z’n 60 core model (zie mijn eerdere link) ook de mogelijkheid om de totale werking niet van alle cores afhankelijk te laten zijn. Een mislukte chip kan dan bv nog als 40 core CPU worden ingezet.
@ Frank Heikens, 07-04-2015 08:47: ‘Om die reden heeft Intel in z’n 60 core model (zie mijn eerdere link) ook de mogelijkheid om de totale werking niet van alle cores afhankelijk te laten zijn. Een mislukte chip kan dan bv nog als 40 core CPU worden ingezet.’
Je bewijst met dit antwoord juist dat m’n eerste reactie correct is, in plaats van dat deze helemaal nergens op slaat zoals je zegt.
@Frank Heikens, 07-04-2015 08:47:
Wanneer we de processor steeds groter maken zoals Q op 02-04-2015 11:04 voorsteld dan kunnen we ook de volgende berekening maken.
Stel de laptop heeft 1 liter en weegt 1 kg.
Wat is de maximaal mogelijke rekencapaciteit volgens de quantumtheorie ?
Een quantumsysteem met energie E heeft minimaal t=h/4E sec nodig om tussen 2 toestanden te schakelen (h = 6.6e-34 Js = constante van planck). Dus kan deze computer 4E/h logische operaties/sec uitvoeren.
Deze computer heeft ene maximale energieinhoud van E=mc^2=9e16 J om deze berekeningen uit te voeren.
Dus kan deze computer 4.9e16/6.6e-34 = 5.4e50 operaties/sec uitvoeren.
Uitgaande van deze computer kan kan de wet van moore theoretisch tot 2205 blijven gelden.
@Willem Gravesande, 11-04-2015 10:44
Dank voor deze waardevolle aanvulling.