A New York-i Egyetem (USA) szakértői ismertették a mesterséges intelligencia (AI) modellek ellenőrizetlen adatokon való képzésének lehetséges veszélyeit. A kutatás a Nature folyóiratban jelent meg.

A tudósok szerint a mesterséges intelligencia nagynyelvi modelljei (LLM) hibákat követnek el, ha hamis információkra oktatják őket, vagy szándékosan töltik be tudománytalan adatokkal. Szakértők azt találták, hogy amikor az oktatási anyagokban található félretájékoztatás mértéke már csak 0,001%-ot ér el, a neurális hálózatok máris elkezdhetnek nagyszámú hibás választ generálni.
A kutatók két LLM-t próbáltak kiképezni a The Pile orvosi adatbázisán, és 20 témát választottak három orvosi területről: általános orvostudomány, idegsebészet és orvostudomány. A félretájékoztatás tanulásra gyakorolt hatásának tesztelésére a tanulmány szerzői a GPT 3.5 modellt használták. Kiderült, hogy a neurális hálózat nem csak direkt kérések alapján kezdett el hibás információkat sugározni, hanem a kapcsolódó témákban is hibázni kezdett. A tudósok szerint ez lehetőségeket nyit meg az AI-manipuláció előtt.
Tehát 0,01%-os félretájékoztatási arány mellett az LLM 10%-ban kezd rossz válaszokat kapni. Ha nagy mértékben – 0,001 százalékra – csökkenti a hamis képzési dokumentumok számát, akkor a modell az esetek 7%-ában hibázni kezd.
A tudósok azt találták, hogy az emberek hajlamosak információkat kapni a chatbotoktól, és nem szakértők segítségével ellenőrzik azokat. Ezért fontosnak tartják a modellek betanításához felhasznált adatok validálását.
Január elején a Bloomberg Intelligence szakértői arról számoltak be, hogy a következő 3-5 évben a legnagyobb bankok akár 200 ezer alkalmazottjukat is levágják az AI terjedése miatt. A válaszadók negyede a teljes munkaerő 5-10 százalékos csökkenését jósolta.