Fókuszban a workload-alapú megközelítés

A nagy számítási kapacitást igénylő adatok feldolgozása, az ehhez kapcsolódó igények megváltoztak az elmúlt időben. A témáról Rab Gergely, a Dell Technologies termékspecialistája, tanácsadója osztotta meg gondolatait.

A világban számos olyan trend van, amely módosította a számítógépek, új szerverek tervezését. A tervezés megváltozása azonban nem feltétlenül csak e trendeknek köszönhető, hanem annak is, hogy átalakultak az ügyféligények, magasabb szintre léptek. Az új technológiák másféle adatfeldolgozást vagy adatbefogadást tesznek lehetővé és erre a korábbiaktól eltérő architektúrákkal kell válaszolni. De mindenekelőtt lássuk, milyen trendekről van szó!

rabgergely-dell

Rab Gergely, Dell Technologies termékspecialista

Azonnali adatfeldolgozás az 5G korszakában
Az egyik ilyen trend az IoT-hez (Internet of Things) kapcsolódik. Az 5G előretörésével egyre nagyobb területen lehet olyan élményünk, mintha egy helyi hálózaton belül kommunikálnánk (mintha az adott szenzorunk az IoT-világban, a helyi hálózaton ülne, csak a helyhez kötöttség nincs meg). Ezek az akár nagykiterjedésű szenzoros hálózatok pedig olyan adatgyűjtést engednek meg, amelyekre eddig nem volt példa. És ha már összegyűjtjük az adatokat, akkor érdemes feldolgozni azokat. Ebben a feldolgozásban történik egy nagy változás. Mégpedig az, hogy a hagyományos badge-feldolgozást (vagyis hó végi, hétvégi vagy nap végi feldolgozást) felváltja az azonnali feldolgozás. Ebben egyrészt az a nehézség, hogy számos adatot kell egyszerre kell összeérkeztetnünk, összehasonlítanunk, korrelálnunk, másrészt nem biztos, hogy mindig tudjuk, mit keresünk. Csupán azt tudjuk, hogy nagyjából milyen elvárásaink vannak, a géptől pedig azt várjuk, hogy erre vonatkozóan adjon egy iránymutatást. Összességében tehát az IoT, az 5G és az azonnali analitika kapcsán rengeteg olyan változás történt és történik, amely új típusú architektúrákat kíván meg.

Ugrás a számítási kapacitásban
Egy másik fontos trend a világban a HPC (High Performance Computing – Nagy Teljesítményű Számítástechnika) előretörése. A hagyományos HPC-környezetek világa ma már az egyetemi kutatói hálózatoktól egészen a vállalkozásokig terjed. Immár a vállalkozások is egyre szélesebb körben használják a HPC-megoldásokat, amikor is jelentős szerver-előforrásokat rendelünk ahhoz, hogy egy bizonyos előre jól definiált problémára, megtaláljuk a választ. Például egy adott molekulához hasonló molekulát keresünk, esetleg egy autónak vagy bármilyen más formának az alakját szeretnénk tökéletesíteni, áramvonalasítani, megerősíteni, de szükséges lehet akár egy olyan analízis, vagy felfedezés, ami alapján megállapíthatjuk, hogy egy adott forgó gép, mondjuk egy kompresszor mitől kopog és melyik lehet az az alkatrész, amit majd ki kell cserélni, amikor 2 vagy 3 hónap múlva leállást tervez a gyár. Ezek mind olyan problémák, amelyeket hagyományos táblázatos módszerrel nem lehet megoldani, csak nagy számításkapacitású szerverek bevonásával. Jó hír azonban, hogy a processzorok mellett az általános célú grafikus kártyákat (GPU-kat) is be lehet vonni a feladatba, így egy vagy inkább két nagyságrenddel lehet megnövelni a számítási kapacitást. Tehát, azáltal, hogy ezeket a speciális kártyákat bevonjuk az adatfeldolgozásba, nagy ugrás érhető el be a számítási kapacitásban.

dell-poweredge-family

Mesterséges intelligencia mindenütt
A harmadik trend a mesterséges intelligencia egyre szélesebb körű alkalmazásához kötődik. Mesterséges intelligencia alatt egy belépőszintű mesterséges intelligenciát vagy egy gépi tanulást, de akár egy neurális hálózatot, vagy deep-learninget értünk. Mindegyik esetben adott a lehetőség arra, hogy olyan meglévő üzleti folyamatokban alkalmazzunk, ahol eddig nem volt lehetőségünk a gépre bízni a döntéselőkészítést.
Fontos megemlíteni, hogy az esetek 99 százalékában nem a gép dönt, a gép csupán egy valószínűséget tár elénk, arról, hogy így vagy úgy érdemes dönteni. A mesterséges intelligencia nagy előnye az, hogy nem csupán egy vagy két nagyságrenddel gyorsítjuk fel az információk feldolgozását, hanem teljesen új dolgokat tudunk megcsinálni. Például a KRESZ-t nem tudjuk leprogramozni. Ha 100x, 1000x annyi erőforrásunk lenne, akkor sem tudnánk leprogramozni a közlekedők egymáshoz való viszonyát. Teljesen más hozzáállásra van szükség, ha ezt a feladatot szeretnénk megoldani. Vagy, a gépi látás is jó példa: ebben az esetben sem tudunk mindent leprogramozni. Hasonlóan nagy kihívást jelent egy alkatrész ellenőrzése is: ha például egy csavar egy adott helyzetben áll, akkor az még jó, de ha másként, az már nem jó. Mindezeket nem lehet leprogramozni, csupán egy fekete dobozban tudunk gondolkodni és a fekete doboznak meg tudjuk adni a bemenő paramétereket, amelyek alapján a doboz határozza meg, hogy valami jó vagy nem jó. Mindehhez rendel a doboz egy valószínűséget, ami azt jelenti, hogy az adott valószínűségi szinttel a döntésem helyes. A mesterséges intelligencia tehát újféle megoldási módot jelent olyan feladatokra, amelyeket egyébként nem lehetne leprogramozni.

Megoldás: a workload-alapú tervezés
A trendek alapján az látható, hogy az új típusú feldolgozású feladatok nem feltétlenül erősebb szervereket vagy architektúrákat igényelnek, hanem új, másféle hozzáállást. Ennek eredményeként született meg a workload-alapú (munkaterhelés-alapú) tervezés a Dellnél, ami azt jelenti, hogy a partnereink és ügyfeleink munkáját támogatandó, a munkaterhelésnek megfelelő szervert vagy architektúrát biztosítjuk az adott feladathoz. Ezt a munkát támogatják a vertikumokra osztott workload-alapú tervezőcsapataink. Az újfajta igények, újfajta terhelések a hagyományos típusú modellekben azonban már nem foghatók meg, speciális infrastrukturális válaszokra van szükség, amelyek a Dell Technologies 15. generációs PowerEdge szervereiben megtalálhatók.

A téma boncolgatását folytatjuk jövő héten, akkor az újfajta igényekhez kapcsolódó újfajta megoldásokról beszélgetünk.

Addig is, ha kérdés merül fel a témában, forduljon hozzánk üzenetben!