-
Sándorné Szatmári: @nasspolya: (Hátha ennyi idő után még elolvasod..) -29-ben ezt írtad: ".... mi a pontos kü...2024. 11. 23, 12:47 A nyitás tárgya
-
szigetva: @Sándorné Szatmári: Kétségtelen, hogy majd ha tudunk valamit a jelenleg ismertnél korábbi ...2024. 11. 22, 14:33 Szótekerészeti agybukfenc
-
Sándorné Szatmári: @szigetva: 14 "..az állítólagos "ősnyelvről" azért könnyű bármit (és annak az ellenkezőjét...2024. 11. 22, 14:17 Szótekerészeti agybukfenc
-
szigetva: @Sándorné Szatmári: Kérlek, fejezd be a hülyeséget. Egyszer-kétszer talán vicces, de most ...2024. 11. 13, 12:05 Szótekerészeti agybukfenc
-
Sándorné Szatmári: @Sándorné Szatmári: 12 kiegészítés: -A mai angolban a "kulcs" szó időben csak oda helyezhe...2024. 11. 13, 11:33 Szótekerészeti agybukfenc
Kálmán László nyelvész, a nyest szerkesztőségének alapembere, a hazai nyelvtudomány és nyelvi ismeretterjesztés legendás alakjának rovata volt ez.
- Elhunyt Kálmán László, a Nyelvész, aki megmondja
- Így műveld a nyelvedet
- Utoljára a bicigliről
- Start nyelvstratégia!
- Változás és „igénytelenség”
Kálmán László korábbi cikkeit itt találja.
Ha legutóbb kimaradt, most itt az új lehetőség!
Ha ma csak egyetlen nyelvészeti kísérletben vesz részt, mindenképp ez legyen az!
Finnugor nyelvrokonság: hazugság
A határozott névelő, ami azt jelenti, hogy ‘te’
Az oroszok már a fejünkön vannak!
Az Alpha Go legyőzte Lee Sedol-t, a balesetek ellenére a Tesla autói már autopilot üzemben közlekednek. Sőt! Immár évek óta képesek a neurális hálók az emberiség legnagyobb kérdésének eldöntésére: cuki cicás videót látunk-e a képernyőn, vagy valami mást? De mégis miért működnek ilyen jól a mesterséges neurális hálók? Sokáig a matematikusoktól vártuk a választ, most két fizikus szolgáltatott nekünk magyarázatot erre – méghozzá macskás példával.
A neurális hálók egyidősek a számítógépekkel. Arról, hogy milyen számítási feladatokat lehet megoldani velük, élénk vitákat tudnak folytatni a kutatók. A viták lényege, hogy ha egy jelenség tanulható, akkor formalizálható, azaz leírható egy függvénnyel. Ezen most elég annyit értenünk, hogy adott bemeneti (input) értékekhez adott kimeneti (output) értéket rendel egy függvény. Ezeket gyakran nagyon nehéz leírni, a neurális hálók ellenben a tanulás során ezeket közelítik.
A legelterjedtebb módszer szerint a háló mesterséges neuronjai között véletlenszerűek a kapcsolatok erősségei. Amikor elkezdjük tanítani a hálózatot, folyamatosan bemutatjuk neki a tanító halmazt, ami cserébe minden körben a hibái tükrében igazít a neuronok közötti kapcsolatokon. Így anélkül hogy ismernénk a bemenetek és kimenetek közötti függvényt, annak egyre jobb közelítését kapjuk.
Minsky és Papert 1969-ben megjelent Perceptrons című könyve rendesen odavágott a neurális hálók világának, hiszen bebizonyította, hogy az egyszerű hálózatok nagyon sok függvényt képtelenek közelíteni. Annyira népszerű volt bizonyításuk, hogy a nyolcvanas években a könyv leporolt változata újra megjelent, de ekkor már többen is dolgoztak a problémán és 1989-ben majd 1991-ben Cybenko és Hornik kutatásainak hála megszületett az úgynevezett univerzális közelítés tétele, mely szerint a megfelelő architektúrával rendelkező neurális hálók a legtöbb függvényt képesek jól közelíteni. De továbbra is égető kérdés, hogy hogyan is lehetséges ez!
Lin és Tegmark az arXiv preprint szerveren megjelent tanulmánya szerint a neurális hálók szerencsések, mert a legtöbb természeti jelenséget viszonylag egyszerű szabályok (függvények!) működtetik. Ezért a neurális hálóknak nem végtelen sok lehetséges függvényt kell közelíteniük, hanem csupán pár darab jöhet szóba minden megoldandó probléma esetén. Ha például egy egy megabájtos fekete-fehér képről kellene megmondanunk, hogy egy macskát ábrázol-e, akkor azzal szembesülhetünk, hogy a kép minden pixele 256 különböző értéket vehet fel, azaz összesen kb. 256 az egymilliomodik hatványon különböző kép lehetséges, amiről döntenünk kell.
Ezt elvileg leírhatjuk egy függvényben, ami minden lehetséges pixel kombinációhoz hozzárendeli a „macska” ill. a „nem macska” címkét. A neurális hálók azonban sokkal egyszerűbben – az összes lehetséges adat csupán töredékét használva! – közelítik egészen jól ezt a függvényt. Ennek oka az, hogy nem is kell végigmenni a pixelek összes lehetséges kombinációján, hiszen a fizika törvényeinek hála a cicának és minden másnak is csupán ezek kis százaléka látszhat.
Az oldal az ajánló után folytatódik...
Mivel a fizikai világot viszonylag pár egyszerű alapvető törvény írja le, a neurális hálóknak nem kell végigtalálgatniuk az összes lehetséges állapotot, az inputok és a hozzájuk rendelhető outputok erősen behatároltak. Például, ha egy cicát elforgatunk 90 fokkal, akkor a cica ugyanaz a cica marad, ha távolabbról nézzük (vagy fotózzuk), akkor pedig méretarányosan kisebb lesz, de alapvető tulajdonságai nem változnak. Azaz a cicákban van valami invariáns, nem változó dolog, ami a különféle átalakulások, transzformációk során is állandó marad.
Jó tudni, hogy a cicás képek osztályozásában lehet számítani a neurális hálók segítségére. Azt azonban továbbra sem tudjuk, hogy a nem természeti jelenségekre, azaz az ember alkotta társadalmi jelenségekre is alkalmazhatóak-e a neurális hálók. De ez már egy másik történet.