A magyar Grid projektek
áttekintése
Kacsuk Péter
MTA SZTAKI
kacsuk@sztaki.hu
www.lpds.sztaki.hu
Absztrakt
2000 szeptembere óta hat Grid projekt (VISSZKI, DemoGrid, SzuperGrid,
KlaszterGrid, JiniGrid, KémikusGrid) futott ill. fut hazánkban, melyek szoros
kölcsönhatásban voltak és vannak egymással. Az előadás röviden áttekinti
ezeknek a projekteknek a céljait és a bennük elért legfontosabb eredményeket.
1. Bevezetés
Újabban jelentősen terjednek az ún. Grid
rendszerek, ahol nagyszámú, vagy nagyteljesítményű erőforrásokat
kapcsolnak össze komplex feladatok megoldása érdekében. A Web sikere
mindannyiunk által jól ismert. Nemcsak személyes életünket teszi
jelentősen kényelmesebbé, de az egész társadalom felépítésére és az üzleti
életre is óriási hatással van. Sokak szerint a Webhez hasonló forradalmi
változás előtt állunk, amit az információs rendszerek egy új ágának a
kifejlődése, a Grid rendszerek
megjelenése fog elindítani. A Web sikerét az okozta, hogy forradalmasította és
társadalmasította az információ elérését az Internet segítségével, azaz bárki
bármilyen információt bárki számára könnyen és gyorsan elérhetővé képes
tenni és ez az információáramlás soha nem látott mértékű felgyorsításához
vezetett.
A Webhez
képest a továbblépést az jelenti, hogy a Grid rendszerekben nemcsak az információt tehetjük nyilvánossá,
hanem bármilyen más erőforrásunkat, szolgáltatásunkat (pl. pillanatnyilag
szabad processzor és diszk kapacitásunkat, speciális programjainkat,
számítógéphez csatlakoztatott műszereinket, stb.) és azt mindenki elérheti
(bizonyos konvenciók és megállapodások alapján) az Interneten keresztül.
Cserében mi is elérhetjük mások erőforrásait és szolgáltatásait, amikor
arra éppen szükségünk van. Ily módon a rendelkezésre álló erőforrások kihasználtsága
és a szolgáltatások elérhetősége jelentősen javul, ami az
információfeldolgozás hatékonyságának és gyorsaságának ugrásszerű
növekedéséhez fog vezetni a tudományos kutatásokban, az üzleti életben és
össztársadalmi szinten is.
Az
elmúlt években világszerte felerősödött az érdeklődés a Grid
rendszerek iránt, amely várhatóan öt fő területen fog jelentős
változásokat hozni:
1. Elosztott szuperszámítógép technológia: ennek célja, hogy a
világ számítási erőforrásait összekapcsolva eddig még nem látott, a jelenlegi
szuperszámítógépeket messze meghaladó számítási teljesítményt biztosítson
számos nagy számításigényű tudományos ill. üzleti számítási feladat
végrehajtására.
2. Nagy áteresztőképességű rendszerek: Ezek célja, hogy
a világ számítási erőforrásait összekapcsolva, azokat egyre jobb
hatásfokkal tudjuk működtetni, azaz egységnyi idő alatt minél nagyobb
számú feladatot (jobot) lehessen velük lefuttatni.
3. Szakma-specifikus Grid rendszerek: Ezek valamilyen
tudományterület speciális igényeinek kiszolgálására szolgálnak. Pl. speciális
adatbázisok létrehozása, speciális portálok és programcsomagok alkalmazása
miatt lehet célszerű egy-egy szakma-specifikus Grid rendszert létrehozni.
4. Kollaboratív rendszerek: Ezek célja, hogy olyan nagy
komplexitású feladatok megoldását támogassa, amelyeket csak különböző
tudományok és intézetek képviselői együttműködve tudnak megoldani.
5. Általánosított web szolgáltatások: Ezek célja, hogy az
információs webhez hasonlóan egy általános szolgáltatási webet hozzanak létre,
amelyben már nemcsak az információ tárolása és elérése, hanem feldolgozása is
lehetővé válik.
Természetesen
nagyszámú, földrajzilag elosztott erőforrás közös felhasználása és
menedzselése nem triviális szoftvertechnikai feladat. Több projekt is
foglalkozik emiatt Grid szoftver futtató környezetek (middleware)
fejlesztésével. Legismertebb ezek közül a Globus projekt, amely de facto
szabványnak számít a Grid számítási rendszerek területén, nem véletlen, hogy
szinte valamennyi nagy Grid alkalmazási projekt (CERN DataGrid, UK e-Science
programok) ezt a rendszert használja. A Globus rendszer [1,2] alkalmazása során
gyűjtött eddigi tapasztalatok (lásd hazai Grid projektek) azonban azt is
megmutatták, hogy ez a rendszer sem tökéletes, vannak hiányosságai és nagy szakértelem
kell használatához, üzemeltetéséhez. Mindezek mellett meg kell említeni, hogy a
Grid a hagyományos számítási rendszer koncepciótól kezd eltávolodni egy
általánosabb, szolgáltatás-elosztó infrastruktúra irányába (ld. általánosított
web szolgáltatások). Ezt tükrözi a Globus új irányzata, az OGSA (Open Grid
System Architecture) [3] is, amely igyekszik ötvözni a Globus szolgáltatásokat
a web szolgáltatásokkal [4]. A web szolgáltatások és a Grid fontosságát a
legtöbb nagy IT cég (IBM, HP, Microsoft, Sun) is felismerte és ennek
megfelelően intenzív fejlesztésbe kezdtek ezen a területen.
2. A magyar Grid projektek 2003-ig
A hazai Grid kutatás és infrastruktúra
fejlesztés 3 fő forrásból táplálkozott 2003-ig:
A fenti forrásokból támogatva 4 Grid projekt futott ill. fut hazánkban,
melyek szoros kölcsönhatásban vannak egymással, amint az 1. ábra mutatja. Az 1.
táblázat ezeknek a Grid projekteknek összetételét és költségvetését mutatja.
1. ábra A 2003-ig indított magyar
Grid projektek és kapcsolatuk
1. Táblázat: magyar Grid projektek 2003-ig
Projekt neve |
Típusa |
Koordinátor személy |
Koordinátor intézmény |
Konzorciumi tagok |
Időtartam |
VISSZKI |
IKTA-3 |
Kacsuk Péter |
SZTAKI |
BME INNOTECH Kft |
2000. 09. 01. – 2002. 02. 28. |
DemoGrid |
IKTA-3 |
Benczúr András |
ELTE |
SZTAKI KFKI SZIF |
2001. 07. 01. – 2002. 12. 31. |
SzuperGrid |
IKTA-4 |
Kacsuk Péter |
NIIFI |
SZTAKI BME ELTE Compaq |
2002. 01.01. – 2003. 12. 31. |
KlaszterGrid |
Infra-struktúra |
Stefán Péter |
NIIFI |
SZTAKI BME ELTE |
2002. május – határozatlan |
2.1 VISSZKI projekt
A VISSZKI projekt keretében tanulmányoztuk a de facto standardnak
tekinthető Globus middleware rendszert és a Condor job-kezelő rendszert
[5]. Értékeltük ezeket a rendszereket és megvizsgáltuk, hogy hogyan
használhatók fel egy magyarországi Grid rendszer kiépítéséhez. A projekt
keretében megvizsgált és tesztelt rendszer ábráját mutatja a 2. ábra. A Condort mind lokális, mind grid-szintű
job-kezelőként megvizsgáltuk mind a PVM, mind az MPI programok
használatához. Eközben néhány olyan hibáját is feltártuk a Condor rendszernek,
amiket a Condor csoport sem ismert, és amik feltárását igen nagyra értékelték.
Ezen hibákat azóta a Condor csoport kijavította és a projekt kapcsán igen jó
partneri kapcsolatot alakítottunk ki a Condor csoporttal, melynek különösen a
SzuperGrid és KlaszterGrid projektekben vettük ill. vesszük hasznát.
A Globus tesztelését is elvégeztük a projekt keretében. A Globus
rendszerrel kevésbé voltunk megelégedve, mint a Condorral. Sokkal több hibát
találtunk benne és a Globus csoport nem reagált a felvetett hibákra.
Nehézkesnek találtuk mind a Globus installálását, mind alkalmazását. Az
előbbi probléma megszüntetése érdekében létrehoztunk a Globus 2.0
verzióhoz egy olyan installálási csomagot, melynek segítségével a Globus 2.0
lényegesen egyszerűbben installálható. Ez a csomag szabadon
letölthető a www.lpds.sztaki.hu web oldalról.
Jól látható, hogy ebben a projektben heterogén klaszterek összekapcsolásán
volt a hangsúly. A SZTAKI klasztere egy homogén Linux klaszter, míg a BME két
klasztere egymástól is különböző heterogén klaszter volt. A projektben
sikeresen teszteltük a Condor flocking és glide-in technológiákat. A projekt
eredményeképpen a SZTAKI és BME klaszterei azóta is össze vannak kapcsolva.
Jelenleg a SzuperGrid projekt keretében dolgoznak együtt.
A projektben elért eredmények nagy mértékben hasznosultak mind a KlaszterGrid,
mind a DemoGrid és SzuperGrid projektekben. A KlaszterGrid projekt a Condor
tapasztalatokat használja fel, míg a DemoGrid projekt a Globus tapasztalatokra
épít. A SzuperGrid projektben mind a Condor, mind a Globus alkalmazási
lehetőségeinek tanulmányozása és kiterjesztése folyik.
2. ábra A VISSZKI projektben
tanulmányozott Grid rétegek
2.2 DemoGrid projekt
A DemoGrid projektben a fő hangsúly a Grid használatának demonstrálásán volt négy olyan alkalmazási területen keresztül (agykutatás, asztrofizika, aerodinamika, részecskefizika)
3. ábra A DemoGrid projekt
feladatai és kapcsolódásaik
2.3 Magyar Szuperszámítógép
Grid (SzuperGrid) projekt
A magyar szuperszámítógép kapacitás
örvendetesen megnőtt 2000 óta. Átadásra került egy 96-processzoros Sun HPC
10000 szuperszámítógép (átadáskor 462. helyezett a top500-ás listán), amely
azóta tovább lett bővítve 128 processzorra, továbbá két 16-processzoros
Compaq Alpha Server szuperszámítógép, egy 58-processzoros PC klaszter és több kisebb
PC klaszter. Mindezek különböző intézmények tulajdonában vannak és
felhasználói körük folyamatosan bővül. Ugyanakkor már az eddigi
tapasztalatok is mutatják, hogy számos olyan alkalmazás létezik, melyek
számításigénye túlmutat az egyedi szuperszámítógépek kapacitásán is.
A projekt fő célja egyrészt az ilyen
kiemelkedően nagy számításigényű feladatok megoldásának biztosítása,
másrészt a fenti nagysebességű rendszerek minél hatékonyabb kihasználása
oly módon, hogy az egyedi szuperszámítógépeket és klasztereket Gridbe
kapcsoljuk a magyar akadémiai hálózat segítségével és ezzel az elérhető
számítási kapacitást megsokszorozzuk, ill. terheltségüket kiegyenlítjük. A
fenti cél érdekében a Condort és Globust kívánjuk használni, épp úgy, mint a
WISSZKI projektben, de itt már jelentős kiterjesztéseket és
továbbfejlesztéseket is tervezünk.
4. ábra A SzuperGrid
projektben kifejlesztendő Grid rétegek
A kialakítandó SzuperGrid rendszer réteges
felépítésű lesz, amint a 4. ábra illusztrálja. A legfelső szinten a
felhasználói programok jelennek meg. A projektben a kialakítandó Grid
tesztelésére az MCNP (Monte Carlo N-Particle) nevű programot kívánjuk
felhasználni, amelyet neutron-, gamma- és elektrontranszport feladatok
megoldására fejlesztettek ki a neutronfizika, reaktorfizika, sugárvédelem és
nukleáris méréstechnika területén. A felhasználó egy Grid portálon keresztül
éri el a Grid szolgáltatásait. Így bárki, akinek jogosultsága van a SzuperGrid
erőforrásait elérni, ezt bármilyen web böngésző segítségével megteheti.
A Grid portál segít az erőforrások kiválasztásában, az erőforrások
terheltségének vizsgálatában, a jobok elküldésében és felügyeletében. A Grid
portálok összehasonlító elemzését és értékelését a NIIFI munkatársai végezték a
projektben [10].
A következő szinten a P-GRADE
programfejlesztő rendszer található, amit ennek a projektnek a keretében
integrálunk a Condor lokális job-kezelővel és valamely Grid-szintű
job-kezelővel. Ennek eredményeképpen a felhasználók hasonló módon
programozhatják a Grid rendszert, mint az egyedi szuperszámítógépeket és
klasztereket. Míg a VISSZKI projektben a felhasználóknak csak az
alacsonyszintű PVM, MPI vagy Condor M/W rendszer állt rendelkezésre a Grid
alkalmazások fejlesztésére, addig a SzuperGrid eredményeképpen egy magas
szintű, grafikus Grid alkalmazásfejlesztő és futtató rendszer, a
P-GRADE fogja segíteni a felhasználók munkáját. A projekt eredményeképpen a
P-GRADE rendszer számos lehetőséget fog kínálni a SzuperGrid használatára.
Ha a P-GRADE rendszer PVM programot generál, akkor a következő
lehetőség állnak rendelkezésre:
Ha a P-GRADE rendszer MPI kódot generál,
akkor a Globus segítségével lehet az így kifejlesztett MPI programot egyszerre
több SzuperGrid erőforráson futtatni. A P-GRADE alkalmazásáról a Gridben
és job-módjáról részletes leírás található [11]-ben. A SzuperGrid projekt
keretében a SZTAKI munkatársai kiterjesztik a P-GRADE rendszert egy új grafikus
réteggel, a workflow réteggel, amely lehetővé teszi a Gridben párhuzamosan
működő és egymással együttműködő job-rendszerek
definiálását és azok Gridben történő futtatását [12].
A SzuperGrid projekt keretében a SZTAKI
kifejlesztett egy olyan Grid rendszert (TotalGrid), melynek segítségével egy
intézményen belül a heterogén informatikai erőforrások összefogása és
igény szerinti allokálása megvalósítható. A TotalGrid felső szintjei
(P-GRADE, PERL-GRID, GRM) a SZTAKI fejlesztési eredményei, alsóbb szintjei
pedig bárki által elérhető standard rétegek (Condor, PVM). A TotalGrid
működését az 5. EU DataGrid konferencián a SZTAKI és az OMSZ munkatársai
demonstrálták az OMSZ ultra-rövidtávú előrejelzést biztosító MEANDER programcsomagjának
Grid végrehajtásával.
A SzuperGridben használható lesz a Condor-G,
mint Grid-szintű job-kezelő is, amely az alatta lévő Globus
réteg segítségével osztja ki a párhuzamos programot a Grid erőforrásai
között, amelyek a Grid legalsó rétegét képezik. Itt végül lokális ütemezők
(LSF, PBS, Condor, Sun Grid Engine) gondoskodnak a tényleges párhuzamos
futtatásról. A projekt keretében a NIIFI és a BME EISZKI munkatársai
összehasonlító tanulmányt készítettek a fenti lokális ütemezőkről,
melyben több szempont alapján értékelték ezek használhatóságát a Gridben [13],
[14].
A fenti szintek kialakítása mellett a projekt
feladata a Grid biztonságtechnikájának és gépidő elszámolásának a
megoldása is. A SzuperGrid biztonságos használata érdekében egy IPsec alapú
VPN-t alakítunk ki a Grid erőforrásai között [15]. Ennek előnye, hogy
a tűzfalakon nem igényelnek bonyolult port szintű konfigurációt, a
belső adatcsomag IPsec tunnel módban teljes egészében titkosítva van, így
port szintű konfigurációval nem kell foglalkozni. További előny, hogy
az IPsec alapú tunnelek nem tételeznek fel a köztes hálózatról semmit, azaz
nincs speciális hálózati hardver vagy szoftver igényük, így a kialakított
rendszer továbbfejleszthetősége biztosított minden olyan rendszer
esetében, amely IPsec alapú tunnelt képes fogadni.
A SzuperGrid projektben létrehozunk egy
erőforrás felhasználás (EFH) nyilvántartó és elszámoló rendszert [16].
Erre azért van szükség, hogy a különböző szuperszámítógép központok egymás
felé és felhasználóik felé el tudják számolni a SzuperGridből érkező
jobok gépidő fogyasztását. Ez egy rendkívül fontos és viszonylag új
terület a Grid kutatásokban. Jelentőségét mutatja, hogy az európai Grid
infrastruktúra kialakítására szervezett új EGEE 6. Keretprogram projekt egyik
kiemelt feladatának tekinti EFH nyilvántartó és elszámoló rendszer
megvalósítását. Ugyancsak ez az alapja annak, hogy az üzleti életben is
lehessen Grid rendszereket alkalmazni. Az EHF nyilvántartó és elszámoló
rendszer 3 fő részből áll:
Noha a SzuperGrid projekt az OM által
támogatott IKTA-4 projekt, alapvetően a Műszaki Tanács által
beindított Szuperszámítógépes projekthez kapcsolódóan jött létre, annak a
célkitűzéseit viszi tovább a Grid szintjére. A projekt végső célja a
magyarországi szuperszámítógépek és nagyméretű klaszterek összekapcsolása
egy nagyteljesítményű Grid rendszerbe, ill. azon szoftver eszközök
(portál, számlázó rendszer, biztonsági rendszer, magas szintű Grid
programfejlesztő rendszer) kidolgozása, melyekkel ez a cél megvalósítható.
Az 5. ábrán látható a projektben megoldandó feladatok és azok kapcsolódása.
2.4 KlaszterGrid projekt
Ezt a projektet a NIIFI kezdeményezte a
Műszaki Tanács által beindított Szuperszámítógépes projekt céljainak megvalósítása
érdekében, az OM által a felsőoktatási intézmények számára kiírt
laboratóriumfejlesztési pályázathoz kapcsolódóan. A projekt célja, hogy a
pályázatban elnyert 99 számítógép laboratóriumot (mindegyik 20 PC-t és egy
szerver gépet tartalmaz) éjszakánként (este 6-tól reggel 8-ig), ill. a
hétvégeken egymáshoz kapcsolva, mint egy nagy Grid rendszert lehessen
alkalmazni, melyen nagy mennyiségű és nagy számításigényű jobok
futtathatók. Az így létrejött Grid rendszert használhatják a felsőoktatási
intézmények oktatói és diákjai a nagy számításigényű kutatási feladatok
megoldására.
5.ábra A SzuperGrid projekt
feladatai és kapcsolódásaik
Műszaki felépítését tekintve a
KlaszterGrid egy kétszintű Grid rendszer [17]. Az első szinten
találhatók a klaszterek, melyeken belül a Condor lokális job-kezelő
gondoskodik a jobok futtatásáról. A második szinten ezek a klaszterek egymással
is össze vannak kötve és közöttük a Condor flocking mechanizmus osztja el a
jobokat. A Condor flocking technika azonban gyakorlatilag a tűzfalak
kinyitását igényli az un. barátságos Condor klaszterek között. Ez biztonság
technikailag nyilván megengedhetetlen, és ezért a KlaszterGrid klaszterei egy
VPN segítségével kapcsolódnak egymáshoz a Grid műszak idején. A
biztonságot tovább fokozza, hogy a KlaszterGridnek csak egy belépési pontja
van, így elég ezt körültekintően megvédeni a külső támadásoktól.
A KlaszterGrid prototípusa 2002 novemberére
készült el 3 egyetem (ELTE, BME, Gödöllői Egyetem) 276 PC-jét Gridbe
kapcsolva. Azóta folyik a KlaszterGrid kísérleti üzemeltetése. A bekötött
klaszterek és intézmények számának gyors növekedése várható a közel
jövőben. Hasonlóan hamarosan várható a KlaszterGrid nyilvános megnyitása a
felhasználók számára.
Ebben a programban egyszerűsítő
tényező, hogy ez egy homogén rendszer, tehát inkább hasonlít egy
szuperklaszterre, mint egy igazi heterogén Grid rendszerre. Méretét tekintve
már Európában is jelentős programnak mondható és sikeres végrehajtása
Európai léptékkel mérve is kiemelkedő eredménynek fog számítani.
Ugyanakkor probléma, hogy ez egy zárt Grid és illesztése az európai Grid
infrastruktúrába további kutatást és fejlesztést igényel.
3. A 2003-ban indult Grid projektek
2003-ban két új Grid projektet finanszírozott
meg az OM az IKTA-5 pályázatok keretében. Ezek egyike, a JiniGrid,
infrastruktúra jellegű, a másik a KémikusGrid projekt inkább
alkalmazás-orientált.
3.1 JiniGrid projekt
A Veszprémi Egyetemen Juhász Zoltán
vezetésével folyik egy Jini alapú Grid rendszer kutatása [18]. A kutatócsoport
kiterjesztette a Jinit egy távolsági hálózaton is alkalmazható Grid bróker
rendszerrel. Az így létrejött rendszert tesztelték a Veszprémi Egyetem és a
SZTAKI gépeiből kialakított Jini Grid rendszeren. Az eddigi eredmények
alapján a Veszprémi Egyetem, a SZTAKI, az ELTE és a Sun Microsystems
Magyarország Kft. egy közös IKTA-5 projekt kezdett 2003 januárjában, melynek
céljai a következők:
A JiniGrid rendszer kialakítása várhatóan a
következő előnyökkel fog járni:
A Jini alapú Grid rendszer kidolgozása egy
egyedülálló magyar kísérlet, amelynek mind tudományos, mind gyakorlati
jelentősége igen nagy.
3.2 KémikusGrid projekt
A KémikusGrid
projekt célkitűzése, hogy a Grid rendszerek három fontos aspektusát
kutassa, ill. azokhoz kapcsolódó konkrét eredményeket érjen el. Ezek az
aspektusok a következők:
1.
Kémikus Grid létrehozása: a Grid, mint egy tudományterület támogatására
létrejött elosztott rendszer megvalósítása
2.
Grid, mint elosztott szuperszámítási rendszer
3.
Grid, mint a komplex, kollaboratív munkát támogató elosztott
informatikai rendszer megvalósítása és alkalmazása levegőszennyezés
előrejelzésére (szmog-riadó szakmai előkészítése)
A KémikusGrid projekt
egyedülálló a többi magyar Grid projekt között abban az értelemben, hogy ez az
első olyan magyar projekt, amely célul tűzte ki szakma-specifikus
Grid kiépítését (ld. 1. cél), ill. kollaboratív munkát támogató Grid
kialakítását. A szakma-specifikus Grid kiépítésében erősen kíván
támaszkodni az EU D23-as COST alprogramhoz tartozó SIMBEX projektre, melyben a KémikusGrid projekt két partnere is részt vesz. A SIMBEX
projekt célja integrált nemzetközi metalaboratórium kialakítása, közös
erőforrások hatékony kihasználására, közös kémikus szoftverrendszerek
kidolgozása és ezeken belül azon közös szoftverek párhuzamosítása, melyek
számítási igénye ezt megkívánja
A Grid rendszerek egyik
legjelentősebb tulajdonsága, hogy az erőforrások megosztása mellett a
különböző szakterületen dolgozó kutatók és felhasználók kollaborációját is
intenzíven támogatják. A projekt másik egyedi célkitűzése a Grid,
mint a komplex, kollaboratív munkát támogató elosztott informatikai rendszer
vizsgálata. A Gridnek ezt a tulajdonságát egy országos jelentőségű
komplex alkalmazás kidolgozásával és Griden való implementálásával demonstrálja
a KémikusGrid projekt. Ez az alkalmazás a
levegőszennyező anyagok koncentrációjának előrejelzése
Magyarország területén, amihez szükség van a meteorológiai adatok
előrejelzésére ill. a szennyezett légkör modellezésére. A projekt célja a szmog
riadók elkerüléséhez alkalmazandó intézkedések hatásmechanizmusának modellezése
a Grid segítségével.
4. Összefoglalás és jövőkép
A fent bemutatott hat Grid projekt a Grid
rendszerek különböző aspektusát vizsgálja, ill. fejleszti tovább. A
végső cél, hogy egy olyan magyarországi Grid rendszer jöjjön létre, ami
A fenti követelmények mutatják, hogy a
feladat rendkívül komplex és ezért csak fokozatosan közelíthetjük meg a
végső megoldást. Az eddigi projektek ennek megfelelően nem teljes
komplexitásukban próbálták megoldani a feladatot, hanem bizonyos
egyszerűsítések mellett és csak a fenti céloknak egy részét tűzték ki
maguk elé. Ez a világ más országaiban sincs másképp. A Global Grid Forum
például egy olyan dokumentumon dolgozik, amely a minimális Grid funkciók
definícióját adja meg és kidolgozta az új OGSA (Open Grid System Architecture)
standardot, ami szabályozza a különböző Grid rendszerek közötti
protokollokat és azokat az alapfunkciókat, amiket ezeknek a Grid rendszereknek
el kell látnia.
Magyarországon eddig is példamutató
együttműködés alakult ki a Grid területén dolgozó intézmények és kutatók
között. Ezt az együttműködést fogja tovább erősíteni és
megszilárdítani a március 14-én megalakult Magyar Grid Kompetencia Központ
(MGKK), melynek alapítói a legaktívabb Grid fejlesztő intézmények (BME,
ELTE, NIIFI és SZTAKI). Ugyanakkor ez a központ nyílt, akárcsak a Grid és bárki
csatlakozhat, aki a fenti célkitűzések megvalósításán szeretne csapatban,
koordináltan együttműködni. Az MGKK célja, hogy az eddigi Grid
projektekben elkezdett három különböző típusú Grid infrastruktúrát
(Condor-alapú Grid, Globus-alapú Grid, Jini-alapú Grid) egymással
összekapcsolja egységes magyar Grid rendszerré és biztosítsa ennek
összekapcsolhatóságát az OGSA szabvány ajánlásai alapján az európai Grid
infrastruktúrába, amint azt a 6. ábra mutatja. Az MGKK másik fontos
célkitűzése, hogy továbbfolytassa a DemoGrid és KémikusGrid projektekben
megkezdett munkát a Grid alkalmazások kidolgozására és bevonja a különböző
tudományterületek képviselőit a Grid aktív alkalmazásába.
Az MGKK-hoz hasonló szellemben hozták létre a
Közép-Európai országok a CEG (Central European Grid) konzorciumot, melynek hat
ország az alapítója (Ausztria, Csehország, Magyaro., Lengyelo., Szlovákia,
Szlovénia) és célja a Közép-Európai országok Grid aktivitásának koordinálása,
ill. közös fellépés nemzetközi projektekben.
6. ábra A magyar Grid rendszerek
és az európai Grid rendszer összekapcsolása
Az egységes európai Grid infrastruktúra
kialakítására az EU 6. Keretprogramban fog sor kerülni. Ennek a feladatnak a
megoldását célozta meg a CERN vezetésével most alakuló EGEE (ENABLING GRIDS FOR E-SCIENCE IN EUROPE)
konzorcium, melynek célja, hogy a nemzeti Grid infrastruktúrákat egységes
európai Grid rendszerré alakítsa. Mind az EGEE, mind a CEG konzorcium
munkájában hazánk képviselői aktívan részt vesznek. Az MGKK harmadik
fő célkitűzése, hogy segítse a magyar Grid aktivitások
beintegrálódását a regionális és európai szintű nemzetközi Grid
aktivitásokba. Ezek az együttműködések jelentik annak a biztosítékát, hogy
a fent leírt célkitűzések hamarosan megvalósuljanak és egy hatékony, kényelmesen
használható Grid rendszer jöjjön létre, mind országos, mind nemzetközi
méretekben.
Hivatkozások
[1] I. Foster, C. Kesselman, “Globus: A Metacomputing
Infrastructure Toolkit”, Int. J. Supercomputer Applications, 11(2):115-128,
1997
[2] Globus, http://www.globus.org/
[3] OGSA, http://www.globus.org/research/papers.html#OGSA
[4] Web Services, http://java.sun.com/webservices/
[5] Condor, http://www.cs.wisc.edu/condor/
[6] Gombás G. és Balaton Z.: A Flexible
Multi-level Grid Monitoring Architecture, Across Grids konferencia, Santiago de
Compostella, 2003
[7] Kacsuk P.: Visual Parallel Programming on
SGI Machines, Meghívott előadás, SGI Users’ Conference kiadványa, Krakow,
Poland, pp. 37-56, 2000
[8] P-GRADE User's Manual: www.lpds.sztaki.hu
[9] VOMS, http://edms.cern.ch/document/344562
[10] NIIFI: Grid
Portál Specifikáció, SzuperGrid IKTA-5 projekt 2.sz. jelentés, 1.sz. Melléklet,
2003
[11] Kacsuk P.: P-GRADE:
Párhuzamos programok fejlesztése és futtatása szuperszámítógépeken,
klasztereken és Grid rendszereken, Networkshop'2003, Pécs
[12] Dózsa G.: A P-GRADE grafikus
programozási környezet kibővítése adatfolyam-gráf leíró réteggel Grid
programok létrehozásának és végrehajtásának támogatásához, SzuperGrid IKTA-5 projekt 2.sz. jelentés, 2.sz. Melléklet, 2003
[13] NIIFI: Helyi
ütemezők összehasonlítása, SzuperGrid IKTA-5 projekt
1.sz. jelentés, 1.sz. Melléklet, 2002
[14] Simon K.: Lokális ütemezők a BME HP (COMPAQ) ALPHA SMP HPC cluster –
szuperszámítógépen, SzuperGrid IKTA-5 projekt 2.sz. jelentés,
5.sz. Melléklet, 2003
[15] ELTE ITK: IPsec alapú VPN
rendszer kialakítása, SzuperGrid IKTA-5 projekt 2.sz. jelentés,
4.sz. Melléklet, 2003
[16] BME IIT: Erőforrás
felhasználás nyilvántartó és elszámoló rendszer specifikációja, SzuperGrid IKTA-5 projekt 2.sz. jelentés, 3.sz. Melléklet, 2003
[17] Stefán P. A magyar
ClusterGRID projekt, Networkshop'2003, Pécs
[18] Juhász Z.,
Andics Á. és Póta Sz.: Towards a Robust and Fault-Tolerant Multicast Discovery
Architecture for Global Computing Grids, DAPSYS'2002 workshop kiadványa, Linz, pp.
74-81, 2002