|
|
Projekt adatai |
|
|
azonosító |
125547 |
típus |
K |
Vezető kutató |
Végh János |
magyar cím |
Együttműködő számítógép processzorok modellezése és megvalósíthatóságának vizsgálata |
Angol cím |
Modeling and scrutinizing feasibility of cooperating processors |
magyar kulcsszavak |
új számítógép működési elv; együttműködő processzorok; modellezés és megvalósíthatóság |
angol kulcsszavak |
new computing principle; cooperating processors; modeling and validating; feasibility |
megadott besorolás |
Számítástudomány (Műszaki és Természettudományok Kollégiuma) | 100 % |
|
zsűri |
Informatikai–Villamosmérnöki |
Kutatóhely |
Automatizálási és Infokommunikációs Intézet (Miskolci Egyetem) |
résztvevők |
Drótos Dániel Vásárhelyi József
|
projekt kezdete |
2017-09-01 |
projekt vége |
2018-08-31 |
aktuális összeg (MFt) |
7.106 |
FTE (kutatóév egyenérték) |
1.20 |
állapot |
lezárult projekt |
magyar összefoglaló A kutatás összefoglalója, célkitűzései szakemberek számára Itt írja le a kutatás fő célkitűzéseit a témában jártas szakember számára. A kutatás egy új számítási elv működési részleteinek vizsgálatát, paramétereinek pontosítását, további rész-megoldások megtalálását tűzi ki célul. A jelenlegi sokmagos processzorok sok független processzorként működnek, ami gyakorlatilag lehetetlenné teszi a bennük elrejtett számítási kapacitás teljes kihasználását. A projekt egy olyan számítási modellt javasol és tökéletesít, amelyikben a processzorok együttműködnek. Ez olyan új tulajdonságokat eredményez, mint 10-100 szoros számítási teljesítőképesség (az ismert veszteségek részbeni felszámolásával), determinisztikus és nagyon jó paraméterű valós idejű működés. Az új számítási elv a teljes számítási infrastruktúrában változásokat követel, a rész-megoldások csak a teljes számítási vertikumban értékelhetők. Bár a funkcionalitás egy része digitális szimulátorban már megvalósult, és egy kis részének elektronikus modellje is van, számos, a működést (és a megvalósíthatóságot) befolyásoló paramétere csak becslésen alapszik. A kutatás célja az eddigi előzetes eredmények pontosítása, a megvalósítás egyes részleteihez elektronikus modell készítése és tanulmányozása, valamint az elképzelés újabb részleteinek kidolgozása. Nyilván nem lehet cél a jelenleg létező processzorokkal összevethető elektronikusan megvalósított processzor létrehozása, de bizonyítani tudjuk, hogy a kifejlesztett alapelvek alapján létrehozható újfajta processzor.
Mi a kutatás alapkérdése? Ebben a részben írja le röviden, hogy mi a kutatás segítségével megválaszolni kívánt probléma, mi a kutatás kiinduló hipotézise, milyen kérdéseket válaszolnak meg a kísérletek. A megválaszolandó alapkérdés, hogy a jelenleg egyeduralkodó egyprocesszoros szemlélettel szemben milyen előnyökkel rendelkezik az a megközelítés, amely figyelembe veszi, hogy a jelenlegi technológia által tömegével biztosított processzorok sokasága áll rendelkezésre egy feladat megoldásához. A jelenlegi sok-processzoros (sokmagos) rendszerek sok egy-processzoros rendszert tartalmaznak, amelyek egymással legfeljebb belső hálózaton tudnak kommunikálni, de nem tudnak együttműködni. Bár Amdahl 1968-as javaslata óta ismert, hogy a továbblépés útja együttműködő processzorok készítése, a szükséges elméleti háttér nélkül ez nem valósult meg, és a technológia eddig biztosított más utat a számítási teljesítőképesség növelésére. A projekt egy olyan lehetséges megvalósítást kíván részletesen vizsgálni, amely a processzorok kialakult terminológiáját és eszközeit használja a processzorok együttműködésének megvalósítására (látszólag regiszterként kezelt, de valójában szomszédos processzorok kezelését lehetővé tevő objektumok) így biztosítva a kompatibilitást a hagyományos számításokkal és a hagyományos vezérlő egység mellett egy új, a magok szintje fölött álló vezérlőt is használ. A megközelítés a processzorokat néhány új funkcionalitással egészíti ki, amelyek használatával a processzor az operációs rendszer időzítési és szervezési feladatainak nagy részét át tudja venni, és bevezet egy olyan új programozási egységet, amelyik méretében a gépi utasítás és a folyamat közé esik, tulajdonságait tekintve pedig mindkettő előnyeit használja. A javasolt funkcionalitás egy része szoftveres szimulálással és elektronikus modellezéssel megvalósítva létezik, de paraméterei csak becsült értékek.
Mi a kutatás jelentősége? Röviden írja le, milyen új perspektívát nyitnak az alapkutatásban az elért eredmények, milyen társadalmi hasznosíthatóságnak teremtik meg a tudományos alapját. Mutassa be, hogy a megpályázott kutatási területen lévő hazai és a nemzetközi versenytársaihoz képest melyek az egyediségei és erősségei a pályázatának! A számítógépek fejlődése kritikus ponthoz érkezett. Az elektronikus technológia elérte korlátait, az ún. egy-processzoros (vagy egy-szálú) teljesítmény már nem növelhető tovább. A processzorok bonyolultsága önmaga korlátjává vált: az órajel növelésnek részben a bonyolult funkcionalitás, részben a nagy számú tranzisztor szab határt. A hardveres lehetőségek mellett a kezdetben megoldásnak gondolt párhuzamosítás sem vált be: egyrészt tovább rontja a feladat megoldásban használt eszközök hatásfokát, másrészt aránytalanul nagy emberi munka ráfordítást igényel és jelentősen növeli a hibázás lehetőségét is. Áttételesen a teljes gazdaságot befolyásolja a megtorpanás: a többi gazdasági terület hiányolja a Moore törvény alapján elvárt teljesítőképességet, az igényelt számítási teljesítőképesség rossz hatásfokú előállítása már energetikai problémát is jelent. A szakemberek lázasan keresik a megoldási lehetőségeket: sorra jelennek meg a Moore-törvény utáni korszakra, vagy speciális hardveres gyorsítókra vonatkozó folyóirat különszámok,az IEEE külön oldalt nyitott a számítási elv újbóli kitalálására, stb. Az egy-processzoros szemlélethez kifejlesztett hardveres gyorsítók jelentősen megnehezítik, hogy más elvű számítást használjunk, a kompatibilitás a régi rendszerrel pedig gyakorlati szükséglet.
Funkcionalitásának bővítésével a processzor át tudja venni (és sokkal gyorsabban végezni) az operációs rendszer feladatainak jelentős részét, az intelligens magok meg tudják osztani a a feladatot egymás között, az aktuális hardver rendelkezésre állásnak megfelelően, és új vezérlő jelzésekkel lehet pótolni a nem-számítási utasítások nagy részét. Mindezek eredményeként kevesebb utasítást végrehajtó, feladatait jobb szervezéssel végrehajtó számítógépes rendszereket építhetünk, amelyek a hagyományos számítási rendszert al-esetként tartalmazzák. Hasonló új elvű számítás nem szerepel az irodalomban. Az elv alkalmazásával a processzorok kevesebb alkatrészből állhatnak, csökkenhet energia igényük, egyszerűbbé válik komplex feladatok programozása. A Moore-törvény érvényességét ez a megoldás meghosszabbíthatja, időt adva a még nem eléggé fejlett, a szilícium-alapú technológiát felváltó technológiák fejlesztésének.
A kutatás összefoglalója, célkitűzései laikusok számára Ebben a fejezetben írja le a kutatás fő célkitűzéseit alapműveltséggel rendelkező laikusok számára. Ez az összefoglaló a döntéshozók, a média, illetve az érdeklődők tájékoztatása szempontjából különösen fontos az NKFI Hivatal számára. A projekt célja a számítógépes technológia megújítása, az alapelvektől a technológiai kivitelig. A látszólag ma is sikeres számítógépipar kb. 2000 óta komoly válságot él át. A számítógép létrehozására használt elektronikus technológia elérte korlátait. A processzor már nem tud további tranzisztorokat értelmesen felhasználni. Ennek következtében jelentek meg a sokmagos processzorok, amelyek egymás közelében levő, de egymástól függetlenül működő processzorok sokaságát jelenti. Ezek számítási képessége párhuzamos programozási módszerekkel lenne kihasználható, azonban ennek komoly elvi és gyakorlati korlátai vannak. A válságból kiutat jelenthet, ha a sokmagos processzorok helyett együttműködő, egymást segítő magokból álló processzorokat készítünk. Ez az ötlet először 1968-ban jelent meg, de mindeddig a folyamatosan megújuló technológia sokkal könnyebben megvalósítható számítási teljesítmény növekedést tett lehetővé. A Neumann paradigmák egyszerűen általánosíthatók több processzor figyelembe vételére, a magok pedig alkalmassá tehetők arra, hogy különböző technikai megoldásokkal csökkentsék a számítási teljesítmény veszteséget, azaz látszólag növeljék a processzor számítási teljesítményét. Az előzetes kísérletekben részben szimulációval, részben elektronikus modellezéssel bizonyítottuk, hogy ilyen teljesítmény növelés lehetséges. A projektben a javasolt részmegoldások működőképességét kívánjuk bizonyítani, a működés paramétereit meghatározni és újabb részmegoldásokat keresni. A projekt eredménye olyan számítógép működési elvek kimunkálása lehet, amelyek 10-100 szorosan gyorsabban működő processzorok, nagyobb megbízhatóság, kiszámítható működés formájában jelenik meg.
| angol összefoglaló Summary of the research and its aims for experts Describe the major aims of the research for experts. The research targets scrutinizing details of operation of a new computing principle, pinpointing its parameters and developing further part-solutions. The present many-core processors are working as several segregated processors, practically disabling the full computing capacity hidden in the chips. The present project proposes and enhances a computing model in which the processors cooperate. This results in new features, like 10-100 times higher computing performance (due to partly elimininating the known losses of performance), deterministic operation and real time operation with excellent parameters. The new computing principle requires changes in the complete computing stack, the part-solutions can only be interpreted in the complete infrastructure of computing. Although part of the functionality is already implented in a digital simulator and a small part has even electronic model, several of its parameters affecting its operations (and also the feasibility) are based on estimations, rather than experiences. The goal of the research is to pinpoint our preliminary results, to implement and scrutinize electronic models for some part-solutions, furthermore elaborating new details of the implementation of the idea. The goal obviously cannot be implementing an electronically implemented processor based on the suggested new principle, which can compete with the existing highly optimized single-processors, but it could be proved, that implementing a new kind of processor based on the suggested principles is feasible.
What is the major research question? Describe here briefly the problem to be solved by the research, the starting hypothesis, and the questions addressed by the experiments. The question to reply in the frame of the project is, what advantages provides the approach considering that a lot of processors is available for solving a task, contrasted to the presently exclusively used single-processor approach. The present many-core systems comprise segregated processors, which may communicate among others using a kind of internal network, but cannot cooperate. Although Amdahl suggested in 1968 as the next step of processor development to implement cooperating processors, is was not realized partly because of the lack of the theoretical background, partly because the continuously renewing technology provided other (more easy) paths to increase computing performance. The project want to scrutinize a possible implementation, which utilizes the conventional terminology and devices when implementing cooperating processors (the so called pseudo registers are handled as registers, but actually they are objects enabling to handle neighbouring cores), and it utilizes also a second level control unit, above the core level. This solution assures the needed compatibility with the conventional computing. The present approach adds some new features to the processors, which enables them to overtake a considerable part of the timing and organizing functionality of the operating system. Furthermore, it also introduces a new programming unit, which in size is between machine instruction and process, and it inherits best features of both. The initial version of part of the suggested functionality exists in form implemented in digital simulator and a small part even in electronic implementation, but its parameters are estimated, rather than experimented.
What is the significance of the research? Describe the new perspectives opened by the results achieved, including the scientific basics of potential societal applications. Please describe the unique strengths of your proposal in comparison to your domestic and international competitors in the given field. The development of computing arrived to a turning point. The electronic technology reached its bounds, the single-processor (or single threaded) performance cannot be increased any more. The complexity of processors became its own bound: increasing clock frequency is not possible partly because of the complex functionality, partly because of the huge number of transistors. In addition to the hardware issues the software parallelization cannot provide a proper solution. On one side it make worse the efficacy of the devices utilized in solving the task, on the other side it requires dis- proportionally more human programming efforts and increases the possibility to make errors. The stalling influences all fields of economy: the con-computing fields are missing the performance expected on the base of Moore’s law. Producing the required computing performance with poor efficacy started to raise energetic problems. Experts are desperately looking for solutions: there appear special issues about the post-Moore era or specialized hardware accelerators; the IEEE opened a site for rebooting computing, etc. The hardware accelerators and other components developed for the single-processor approach make hard to use a different computing principle, and the backward compatibility is a practical need. With extending its functionality the processor can take over (and perform them in much shorter time) a considerable part of the task of operating system, the intelligent cores can distribute the job among others as the actual hardware availability allows, and new control signals enable to omit some non-computing instructions. As the result all of this, one can build computing systems executing less instructions, having more clever architectural and programming organization, which contain the conventional computing as one of their subsets. No similar computing principle is known in the literature. Using this principle can lead to using less components in the processors, consuming less energy for their operation and making their programming less complex. This solution may extend the validity of the Moore’s law, thus leaving time for developing new, but not yet mature technologies for replacing the Si-based one.
Summary and aims of the research for the public Describe here the major aims of the research for an audience with average background information. This summary is especially important for NRDI Office in order to inform decision-makers, media, and others. The project targets renewing computing technology, from basic principles to electronic implementation. The apparently highly successful computing has stalled around 2000. The technology used to produce computers reached its limits. The processors cannot use more transistors in a reasonable way. As a consequence, many-core processors appeared, with segregated processors in close proximity to each other. Their computing ability could be utilized by parallel programming, but this has theoretical an practical bounds. One way out could be to prepare processors comprising cooperating rather than segregated cores. The idea appeared in 1968, but till now the continuously renewing technology provided more easy alternative paths. The von Neumann paradigms can be easily generalized for the case of multiple processors, and the cores can be enable to reduce the loss of computing performance, i. e. apparently increase the performance. In the preliminary work we proved by digital simulation and/or electronic modeling that such performance increase is possible. In the projekt we want to verify and validate the feasibility of those part-solutions, to determine parameters of operation and to look for more mart-solutions. The result of the project can be working out principles of computing, which result in 10-100 times quicker operation, higher reliability, deterministic operation.
|
|
|
|
|