Southfork is een bekende naam bij velen die ooit de reeds veertig(!) jaar geleden gestarte serie Dallas hebben gezien, met de familie Ewing, rijk van de olie en het spelen op de randen van de wet. Het maakte ook de stad Dallas wereldberoemd en onlosmakelijk verbonden met olie, rijkdom en alles wat over the top is. Op Dealey Plaza vond de eveneens tot de verbeelding sprekende moord op Kennedy plaats (1963). Het gebouw van waaruit geschoten werd, is nu een museum. Overal zit geld in tenslotte.

Dallas was van 9-16 november 2018 even het centrum voor de top van de ICT-wereld. Supercomputing & Communications (SC’18) vierde er zijn dertigjarig bestaan. SC’xx brengt ieder jaar de toonaangevende ICT-leveranciers, met hun topproducten, alsmede alle grote Amerikaanse en niet-Amerikaanse researchlaboratoria en wetenschappelijke onderzoeksinstituten die iets doen op het gebied van supercomputing in de meest brede zin, samen op – dit jaar – meer dan 51.000 m2 (8 voetbalvelden) vloeroppervlak. Nu met meer dan 13.000 deelnemers en meer nieuw gevestigde records.

Het dertigjarig jubileum

Toen de beurs dertig jaar geleden nog gewoon Supercomputing ’88 heette, ging het over de toenmalige supercomputers. De bekende merken van toen: Cray, CDC, IBM, HP, Compaq, NEC, Fujitsu, Hitachi. Het internet, zoals we dat nu kennen, bestond nog niet of nauwelijks. Toen interprocessor-communicatie zijn intrede deed in verband met de komst van multi-processorsystemen en de eerste distributed memory parallelle systemen, werd ‘Supercomputing’ aan het begin van de jaren negentig omgebouwd tot ‘Supercomputing and Communications’ en kon de afkorting SC gewoon verder in gebruik blijven.

Maar dit markeerde wel een belangrijke verbreding van het speelveld. Gaande richting massaal parallel rekenen, werden netwerken steeds belangrijker en kwamen netwerktopologie en computerarchitectuur om de hoek kijken. Tegenwoordig zijn natuurlijk alle supercomputers massaal parallelle computers, die zich van andere multi-processoromgevingen onderscheiden door de keuze van het interne netwerk en de architectuur. Het kenmerk: low-latency interconnects.

En waar ging SC’18 dan over?

Er zijn jaren waarin deze vraag zich makkelijker liet beantwoorden. Typische accenten uit het verleden waren de komst van mini-supercomputers (Convex, Alliant, SCS), massaal parallelle computers (thinking machines, zelfgemaakte clusters van PC-borden met ethernet), de overgang van vector naar scalair (SGI Origin), visualisatie (CAVES). Maar dit jaar was er een keur aan nieuwe dingen die om aandacht vroegen, zonder dat één er uit sprong. Of het moeten quantum computing en 400 (800) Gbit/s netwerkverbindingen zijn. Of de toenemende aanwezigheid van de grote cloudproviders. Hieronder een paar highlights dus.

Networking

In 1988 was 10 Mbit/s het summum van transportsnelheid. In 1991, toen SCinet zijn intrede deed op de beurs, werd de eerste 1 Gb/s link gedemonstreerd. In 2011 was daar de eerste demonstratie van 100Gbit/s door Nortel, notabene als gast op de Nederlandse booth. In 2018 werden twee gekoppelde 400 Gigabit/sec ethernet verbindingen (dus 800 Gb/s totaal) getoond in een operationele omgeving. 400 Gb/s ethernet is officieel nog experimenteel.

“Het hart van de beurs wordt gevormd door SCinet. Een ad hoc, geheel geïntegreerd netwerk van 4 Terabit/s.”

Sinds netwerken een integraal onderdeel zijn geworden van de SC-conferenties en beurs, wordt het hart van de beurs gevormd door SCinet. Een ad hoc, geheel geïntegreerd netwerk waaraan alle toonaangevende leveranciers hun nieuwste spullen leveren. Er wordt een klein jaar van tevoren al aan gewerkt. Dit jaar leverde SCinet meer dan 4 Terabit/s wide area bandbreedte, vergelijkbaar met de Amsterdam Internet Exchange(!). Het hele netwerk op de beurs werd in een jaar ontworpen, in een maand gebouwd, een week gebruikt en in een dag afgebroken. Aan SCInet voor SC’19 wordt nu alweer gewerkt, ook door een aantal Nederlanders.

Quantum

Quantum computing dringt zich in toenemende mate op als de ultimate solution voor als chips de harde ‘silicon limit’ bereiken: de grens waarbij de componenten-dichtheid op een chip is bereikt. Meer kan er dan niet bij, omdat de afstand tussen componenten dan minder dan 50 atomen bedraagt en dan laten de elektronen zich niet meer temmen (en gaan ze ‘lekken’). (Bedenk dat de eerste de beste menselijke cel al veel groter is dan 50 atoomafstanden, dus misschien doen we ergens wel iets fout). Maar kan quantumcomputing die uitdaging wel aan?

IBM, Microsoft en Google werken er hard aan. Er zitten twee kanten aan: kun je een quantum computer bouwen? En kun je een quantum computer ergens nuttig voor gebruiken?

Het antwoord op de eerste vraag is positief. Ja, het bewijs is geleverd. Een systeem met 18 qubits bestaat en grotere aantallen worden gerapporteerd, een beetje afhankelijk van het fysieke systeem dat is gekozen voor de qubits. Electron-spins, of Majorana-deeltjes (‘quasi-deeltjes’ die zich collectief gedagen alsof het één deeltje is) of andere systemen. Het zijn nog niet de 256 die het echte verschil zullen maken, maar als proof-of-concept is het ruim voldoende. Jammer van de 4K (Kelvin, ofwel -269 °C) die nodig is om de deeltjes in hun toestand te houden (vloeibaar stikstof kookt bij -196 °C).

Gelukkig zijn we in Nederland goed in koeling: Kamerling Onnes had vroeger lange tijd het koudste punt op aarde in zijn laboratorium in Leiden. In 1908 slaagde hij er in vloeibaar Helium te maken en de laagste temperatuur van 0,9K (-272,25°C) te bereiken.

IBM had een bijzonder fancy model van een quantumcomputer hangen

Het probleem zit in de vraag: wat kun je er dan mee? Laat iets duidelijk zijn, een quantumcomputer is niet de ultieme oplossing voor de bovengenoemde silicon limit. Het aantal algoritmes waarvan bewezen is dat ze met een quantumcomputer beter zijn aan te pakken dan met een traditionele is op één hand te tellen. Dat kan wel groeien, maar dan blijft de Wet van Amdahl je nog lang achtervolgen: die zegt dat de totale doorlooptijd wordt bepaald door de langzaamste stap. Maar toevallig valt de huidige aanpak van databeveiliging door cryptografie juist wel onder de bewezen oplosbare algoritmen en dus zal de queeste naar quantum nog wel even doorgaan.

Visualisatie

Een ander hoogtepunt was de demonstratie van Sony van een megagroot scherm dat er onmiskenbaar als één geheel uitzag, ook al bestond het aan de achterzijde uit tientallen kleinere schermen. Het canvas is meer dan 99% zwart, met LED’s van minder dan een halve mensenhaar en een contrast van 1.000.000:1. Het scherm heeft een 10-bit kleuren diepte, een gamma van 140% van sRGB en 120 frames per seconde. Tenslotte een helderheid van 1000 cd/m2, zodat het zowel in licht als donker een stralend beeld biedt. Vanuit alle richtingen even helder en scherp versloeg met gemak alle tiled displays die tot voor kort het summum waren voor hoge-resolutieweergaven van big data.

Machoijzer

Maar natuurlijk ging SC’18 ook over ‘machoijzer’. De systemen die eind jaren negentig nog als dinosaurs werden bestempeld, maar zich vandaag nog tonen alsof ze het eeuwige leven hebben. De systemen die de volgende horde moeten gaan nemen, die van de exascale. De 10^18 berekeningen per seconde op 64-bits operanden.

De top-500 lijst van november 2018, traditioneel gepresenteerd op deze beurs, wordt opnieuw aangevoerd door de VS, na een tijdelijke hegemonie van de Chinezen, en wel met twee systemen, waarvan de snelste een theoretische piek heeft van 200 Pflop/s, waarvan 143 gemeten in de zogenaamde Linpack Benchmark, die de top-500 bepaalt. 0,2 Exaflop/s dus, voor een systeem van IBM, met meer dan 2 miljoen cores, en 9,7 Mwatt invoer. Maar dan heb je ook wat.

Ook de nummer twee is van IBM. Dan volgen twee Chinese systemen (de eerste ook met Chinese processoren). Het eerste Europese systeem staat in Zwitserland (een Cray met 27 Pflop/s) en het tweede in Duitsland, bij LRZ (München) (van Lenovo met 26 Pflop/s). De Linpack Benchmark mag dan wel niet meer, zoals eerder, erg representatief zijn voor wat een computer allemaal kan in het dagelijks leven, maar het is nog steeds de enige geaccepteerde lijst die enige ordening brengt in de veelheid van systemen en architecturen. En hij gaat nog steeds over echte berekeningen op echte drijvende-komma-getallen en in 64 bits precisie.

De route naar een exascale-machine werd helder gepresenteerd door China en wordt waarschijnlijk gemaakt door Sugon. Dat laatste bedrijf, Tianhe en Sunway ontwikkelen prototypes. Natuurlijk doen Japan en de VS, elk apart, ook mee. Maar om een indruk te geven: bij een peak performance van 1 Exaflop (dus 10^18 berekeningen per seconde), verwachten ze 10 PByte geheugen, een exabyte storage, 30 Gflop/s per watt(!) en een 500 Gbps low-latency interconnect.

Een homogeen systeem heeft de voorkeur boven een heterogeen systeem (met GPU-type versnellers bijvoorbeeld), maar een coprocessor-benadering kan een compromis zijn tussen goede programmeerbaarheid en energie-efficiëntie. Optische interconnects kunnen helpen bij de energieconsumptie van het netwerk.

“Een homogeen systeem heeft de voorkeur boven een heterogeen systeem , maar een coprocessor-benadering kan een compromis zijn tussen goede programmeerbaarheid en energie-efficiëntie”

Speciaal vanwege het zesde lustrum was de oorspronkelijke Cray-1 met serienummer 1 uit het museum gehaald en tentoongesteld in het Convention Center. Deze supercomputer uit 1976, die op het Los Alamos National Laboratory werd ingezet, had een snelheid van 160 Mflop/s, 90 MHz, 8 Mbyte geheugen en 300 MByte disk. Met een Apple Watch series 2 heb je een 780 MHz processor met 512 Mbyte geheugen en 8000 MByte flash disk om je pols. En dat is niet eens de laatste.

SC voor AI

Artificial Intelligence is hyping up, naast de inmiddels bekende big data-golf. AI bestaat al heel lang, met wisselend succes, maar lijkt nu door te breken als manier om systemen te leren dingen te kunnen die we als mens al lang konden, maar waar we eigenlijk geen zin in hebben. En het is de discipline waarin we proberen computers zich direct met het menselijk brein en intellect te laten meten.

Denk aan de machine die wereldkampioen schaken Kasparov versloeg en Watson, ook van IBM, die, na eerst Jeopardy te hebben gewonnen nu als metafoor voor de intelligente computer wordt gebruikt. AI kan groeien, omdat er nu op tal van gebieden data genoeg voor handen zijn om de systemen op te trainen. Met de meest eenvoudige beloningsalgoritmen, maar een overvloed aan data, kunnen systemen redelijk snel meer dan de mens.

Met de inzet van supercomputers kunnen die leerprocessen on-the-fly, dus instantaan, en naar behoefte, op allerlei gebied ingezet worden. Ook het leren aan robots om quasi-menselijk gedrag te vertonen gaat men steeds makkelijker af. Alleen al door eerst maar eens alles te leren wat de mens zelf op den duur als reflex doet. Zoals “goed” antwoorden als iemand vraagt hoe het met je gaat: je hebt dat al gezegd voordat je er ook maar een seconde over nagedacht hebt en je zegt het eigenlijk ongeacht hoe je je werkelijk voelt. Ga maar eens na hoeveel van dat soort reflexen je eigenlijk hebt. Kan het zijn dat dat 80 procent van je dagelijks gedrag uit maakt?

De doorbraak van AI voor supercomputers die verwacht wordt (d.w.z. er zijn mensen die dat verwachten) is dat, in plaats van grootschalige simulaties uit te voeren waarbij fysische modelvergelijkingen de basis vormen (zoals de theoretische chemie – eigenschappen van atomen, moleculen en biologische systemen – weer en klimaat, akoestiek/seismiek – voor olie-exploratie en dergelijke, nu op basis van de combinatie input-gegevens en de uitkomsten (de big data) met behulp van AI een quasi-model in de computer ontstaat, dat dan vervolgens met nieuwe invoergegevens betrouwbare resultaatgegevens moet produceren.

Dat zou – als de computer zijn lesje geleerd heeft – sneller antwoorden op vragen moeten kunnen produceren. Nadeel blijft natuurlijk dat je de bestaande implementaties nodig blijft houden om nieuwe gegevens te produceren omdat de big data wel ergens vandaan moeten komen, én dat je misschien wel sneller een goed antwoord krijgt, maar zonder dat je weet waarom. AI voor supercomputers dus. Daar komt binnenkort beslist nog meer uit.

SC’19 in Denver

De volgende bijeenkomst van Supercomputing and Communications zal in Denver, Colorado zijn. SC’xx blijft de smaakmaker onder de ICT-conferenties en beurzen. Groter, diverser, gemengder en inspirerender.

Een kritische noot: er mag wat meer ‘groen’ bij. Het meest groene op de beurs waren de diverse pogingen om met nieuwe koelvloeistoffen, al dan niet submerged, efficiënter te koelen. En er bestaat wel een Green 500, waarop een Japans systeem de leiding heeft met 17.6 Gflop/s/watt (vergelijk met de Chinese plannen om naar 30 Gflop/s per watt te komen voor hun exascale machine), maar heel veel aandacht krijgt die niet. Een aandachtspuntje voor Denver.

“Een kritische noot: er mag wat meer groen bij. Het meest groene op de beurs waren de diverse pogingen om met nieuwe koelvloeistoffen, al dan niet submerged, efficiënter te koelen.”

Met 30 Gflop/s per watt zou de Nederlandse nationale supercomputer die in 2000 geïnstalleerd werd – door toen nog de Prins van Oranje – 33 watt aan energie hebben gekost. In werkelijkheid was dat zo’n 500 KW!

Nederland

Ten slotte Nederland. Traditioneel (sinds 2004) wordt er – nu op initiatief van SURF – een Nederlandavond georganiseerd. Daaraan mogen alle mensen meedoen die in SC’18 participeren, ongeacht hun rol: verkoper, leverancier, onderzoeker, of geïnteresseerd bezoeker, mits ze maar een link met Nederland hebben. Daaraan deden dit jaar 50 mensen mee.

Nederland is ook aanwezig met een eigen behoorlijke stand op de beurs, nu onder de titel SURF (in Nederland onder meer verantwoordelijk voor het academische netwerk SURFnet en de academische reken- en datavoorzieningen van SURFsara), vroeger onder de titel Dutch Research. Nederlandse universiteiten, SURF (SURFnet en SURFsara), alsmede het Netherlands eScience Center, demonstreerden er weer hun nieuwste projecten en verstevigden hun internationale contacten.

En verder is het hoofd van de Computational Science groep van Oak Ridge National Laboratory (ORNL), met de snelste super ter wereld, een Nederlander (Tjerk Straatsma) en levert SURFnet dé expert op het gebied van netwerken uit aan SCinet, voor het ontwerp en de aanleg van het netwerkhart van de beurs (Pieter de Boer). Indrukwekkend!

Met dank aan Prof. dr. Cees de Laat, Dr. Peter Michielse en Dr. Carlos Martinez-Ortiz voor hun commentaar.

REAGEREN

Plaats je reactie
Je naam