-
nasspolya: @Sándorné Szatmári: Miért pont ez a két nyelv? Az illírből főleg csak tulajdonnevek és pár...2024. 10. 10, 07:37 Ál- és Tudomány
-
Sándorné Szatmári: @szigetva: A szer szó sokoldalú jelentése a MAI magyar nyelvben amire gondoltam és amiről ...2024. 10. 06, 20:07 Ál- és Tudomány
-
szigetva: @Sándorné Szatmári: Azért inkább a tudományos forrásokat ajánlanám: uesz.nytud.hu/index.ht...2024. 10. 06, 14:26 Ál- és Tudomány
-
Sándorné Szatmári: @Sándorné Szatmári: 18 Kiegészítés:" Szerintem pontos magyarázatot kaphatunk a "szer" szó ...2024. 10. 06, 14:20 Ál- és Tudomány
-
Sándorné Szatmári: Ezt a Wikipédia oldalt hu.wikipedia.org/wiki/Eraviszkuszok úgy vélem érdemes megtekinteni....2024. 10. 04, 08:19 Ál- és Tudomány
Kálmán László nyelvész, a nyest szerkesztőségének alapembere, a hazai nyelvtudomány és nyelvi ismeretterjesztés legendás alakjának rovata volt ez.
- Elhunyt Kálmán László, a Nyelvész, aki megmondja
- Így műveld a nyelvedet
- Utoljára a bicigliről
- Start nyelvstratégia!
- Változás és „igénytelenség”
Kálmán László korábbi cikkeit itt találja.
Ha legutóbb kimaradt, most itt az új lehetőség!
Ha ma csak egyetlen nyelvészeti kísérletben vesz részt, mindenképp ez legyen az!
Finnugor nyelvrokonság: hazugság
A határozott névelő, ami azt jelenti, hogy ‘te’
Az oroszok már a fejünkön vannak!
új technológiára tér át az EU
„Megoldások a soknyelvű Európának” alcímmel tartották Budapesten a második META-Forum konferenciát, melyen az európai nyelvtechnológia élvonalába tartozó kutatók és az EU döntéshozói találkoztak. Beszámoló a konferenciáról.
Korábbi ígéretünknek megfelelően beszámolunk a június 27-28-án rendezett META-Forum konferenciáról, melynek központi témáját a soknyelvű Európa kihívásaira megoldást nyújtó nyelvtechnológiai alkalmazások szolgáltatták. A konferencia szervezője a META-NET (Multilingual Europe Technology Alliance) volt, amely az európai nyelvtechnológiával foglalkozó intézmények szövetsége. Az első META-Forum konferenciára tavaly novemberben került sor, amikor Brüsszelben találkoztak az európai nyelvtechnológia élvonalába tartozó kutatók és az Európai Bizottság döntéshozói. Annak az eseménynek az alcíme Challenges for Multilingual Europe (Kihívások a soknyelvű Európában) volt, melyre tulajdonképpen választ ad a mostani rendezvény alcíme: Solutions for Multilingual Europe (Megoldások a soknyelvű Európának). Brüsszel után most Budapest adott otthont a konferenciának, az – akkor még – magyar EU-elnökség alatt. A helyi szervezők az MTA Nyelvtudományi Intézetének munkatársai voltak.
(Forrás: Niksz Gyula (Weblafoto))
A megnyitó beszédet magyar részről Nyitrai Zsolt infokommunikációs államtitkár tartotta volna, de sajnos végül nem jelent meg. Beszélt viszont Váradi Tamás, az MTA Nyelvtudományi Intézetének igazgatóhelyettese, Zoran Stančič, az Európai Bizottság Információs Társadalom és Média szervezetének vezetője, valamint Hans Uszkoreit, a META-NET koordinátora.
Google és IBM
Az első napon két meghívott előadót is hallhattunk: az első előadásban Thomas Hofmann, a Google munkatársa beszélt arról, hogy milyen nyelvtechnológiai eszközöket alkalmaznak a Google-nál az internetes szolgáltatások fejlesztéséhez.
Főleg a Google Translate-ről beszélt, mint a cég leginkább ismert és alkalmazott nyelvtechnológiai alkalmazásáról, de az is egyértelműen kiderült, hogy az ilyen nagy keresőcégeknek, mint a Google sem nagyon van más választása, mint az interneten található nyelvi információ intelligens feldolgozása és prezentálása. Ehhez pedig olyan eszközöket használnak, mint a morfológiai elemző, a tulajdonnév-felismerő, az anaforafeloldó vagy a jelentésegyértelműsítő.
Az oldal az ajánló után folytatódik...
A másik nagy előadást Bran Boguraev tartotta, aki úgy lett felkonferálva, mint az ember Watson mögött, mivel ő az IBM nyelvtechnológiai kutatócsoportjának a vezetője, akik idén év elején durrantottak nagyot az intelligens géppel, amely megverte az embereket egy amerikai kvízműsorban. A Jeopardy! hasonló a Mindent vagy semmit! műsorhoz, vagyis a játékosoknak nagy lexikális tudást igénylő, a témakörök széles spektrumát lefedő kérdésekre kell választ adniuk. A meghatározások már önmagukban becsapósak, általában valami kis vicc, ironikus fordulat található bennük, aminek a dekódolása a gép számára még nehezebb feladat, mint magukra a kérdésekre jól válaszolni. Felmerülhet a laikus olvasóban, hogy Watsonnak előre megadott kérdésekre kellett esetleg válaszolni, vagy valamilyen módon meg volt könnyítve a helyzete: nos, nem. Sőt még internetet sem használhatott, vagyis mindent a gép memóriájában kellett tárolni, ami viszont 15 terabájtos volt, szóval elég sok adat elfért benne. Watson kulcsszavakkal dolgozik, vagyis a műsorvezető által megadott információból kiemel pár kulcsszót, és azok mentén halad tovább, így próbálja meg kitalálni a megfejtést. Mindehhez a természetesnyelv-feldolgozás minden szintjét mozgósítja: a szavakra bontástól a mondat szerkezetének feltárásán át a szemantikai elemzésig.
Természetesen konkrétumokat nem hallottunk, kicsit olyan volt az előadás, mint amit a bíró lánya mondott Mátyás királynak abban a bizonyos mesében: hoztam is, meg nem is, mondtam is valamit, meg nem is. Nyilván ezek az információk üzleti titkot képeznek, nem mintha bárki rendelkezne odahaza egy 15 terabájtos memóriás és 2880 processzormagos géppel...
(Forrás: Niksz Gyula (Weblafoto))
Egyébként Bran Boguraev rendkívül szimpatikus kutató: első dolga volt, hogy pontosítsa a konferálást: ő csak az egyik ember Watson mögött, természetesen egy egész csapat dolgozott az intelligens gépen.
MT@EC
A két nagy előadáson kívül a két nap alatt további 9 szekcióban ismerkedhettünk meg a soknyelvű Európa kihívásaira megoldást nyújtó nyelvtechnológiai fejlesztésekkel és projektekkel. Ha soknyelvűség, akkor értelemszerűen a gépi fordítás jut rögtön az ember eszébe mint megoldás a nyelvi korlátok ledöntésére. Több nagyvállalat (Vodafone, Daimler) képviselője is beszámolt arról, hogy hozzájuk már elért az innováció szele, és lelkesen alkalmazzák a nyelvtechnológia fejlesztéseit, de legfőképpen a gépi fordítást. Egy nemzetközi vállalatnál rengeteg szöveges információ termelődik nap mint nap, melyek egyrészt strukturálatlanok, másrészt több nyelven íródtak. Ezekben a dokumentumokban nagyon sok értékes információ bújik meg, melyek lefordítása, rendszerezése és feldolgozása nagy előnyhöz juttathatja a céget.
A soknyelvűség természetesen nem csak a multinacionális cégeket érinti, hanem az Európai Unió mindennapi ügymenetében is nagy szerepet játszik. Gondoljunk csak arra, hogy minden európai intézmény által alkotott jogszabályt le kell fordítani az EU mind a 23 hivatalos nyelvére. Az Európai Bizottság fordítással foglalkozó részlegétől érkezett Spyridon Pilos, aki arról tartott előadást, hogy hogy áll a gépi fordítás ügye az EB-ben.
Jelenleg 1750 nyelvészből és 600 további kiszolgáló személyből áll az EB fordítási osztálya, ami elég jelentős bérkiadással jár, ráadásul az emberi fordítás több időbe is telik. Ezért az EB már viszonylag korán, a hetvenes években elkezdett a gépi fordítás lehetőségével foglalkozni, akkor, amikor ez a terület Európában a nyelvtechnológia húzóágazatának számított. 2010-ig azt a szabályalapú rendszert használták, amit 1975 és 1998 között a Systran fejlesztett nekik. Tavaly viszont úgy döntött az EB, hogy új irányba kell terelni a gépi fordító alkalmazások fejlesztését, és statisztikai alapú (data-driven) rendszert kell inkább építeni, ami rugalmasabb és technológiailag függetlenebb, mint a régi szabályalapú volt. A projektnek frappáns nevet is adtak: MT@EC (Machine Translation at European Commission).
Nemcsak az EU-s intézmények, hanem más multinacionális szervezetek és vállalatok számára is nagyon fontos lenne egy megbízható teljesítménnyel, hatékonyan használható gépi fordítási alkalmazás. Mint általában a nyelvtechnológia majd minden ágában, itt sem úgy kell elképzelni, hogy van egy termék, amit készre csomagolva, a mi igényeinkre hangolva leemelünk a polcról, és már használunk is. A feladat bonyolultságától függően, a speciális elvárásokhoz igazítva egy ilyen eszköz kifejlesztése több éves kutatómunkát igényel. Kérdés, hogy akár az EB-nek, akár az egyes cégeknek megéri-e a befektetés. Hogyan lehet mérni a hasznát ezeknek az alkalmazásoknak? És itt persze gazdasági haszonról van szó. De ugyanilyen hangsúlyos kérdés volt az is, hogy mi a szerepük az emberi fordítóknak az új szisztémában.
Fehér könyvek
A konferencia mottója egy kérdés volt: „Valóban veszélyben Európa nyelvei?” A kérdésfeltevés első ránézésre pesszimista huhogásnak tűnik. Viszont: az EU területén a 23 hivatalos nyelven kívül még kb. 60 kisebbségi nyelvet beszélnek, és ha ehhez még hozzávesszük a nagyszámú bevándorló közösségek által használt egyéb nyelveket is, Európában több száz nyelvet használnak. Az EU egy nagy olvasztótégely, amelyben azért elég erősen dominál az angol, a francia és a német mint lingua franca. Ha innen szemléljük a helyzetet, már nem is tűnik olyan hihetetlennek, hogy bizonyos nyelvek veszélyben lennének.
A konferencián mutatták be 29 európai nyelv ún. fehér könyvét, amelyek mindegyike az adott európai nyelv helyzetét ismerteti a digitális korban. A kiadványokban találunk általános leírást az adott nyelvről, annak európai helyzetéről (hányan beszélik, milyen országokban, milyen szintű az adott nyelven az oktatás stb.), továbbá kitekintést az adott nyelven működő nyelv- és beszédtechnológiai alkalmazásokról, a kutatás-fejlesztés helyzetéről. A fehér könyvek közös bevezetője arra helyezi a hangsúlyt, hogy annak ellenére, hogy vannak olyan nyelvek, amelyeket többen beszélnek, és persze olyanok is, amelyeket kevesebben, a nyelvtechnológia fejlesztései le tudják dönteni ezeket a nyelvi korlátokat, és garantálni tudják az információs szabadságot és az esélyegyenlőséget minden európai polgár számára.