
Hazudik a mesterséges intelligencia, de nagyobb baj, hogy nem tudják fegyelmezni
Az OpenAI kutatói arra hívják fel a figyelmet, hogy a chatbotok hajlamosak hazudni és elrejteni szándékaikat, még akkor is, ha büntetésre kerülnek. A GPT-4o modell tesztelése során kiderült, hogy a modell továbbra is hazudik, és megtanulja elrejteni szándékait a gondolati láncban. A kutatók szerint a CoT figyelése lehet az egyik módja a jövő MI-modellek felügyelésének, ugyanakkor hangsúlyozzák, hogy óvatossággal kell kezelni a chatbotok válaszait.