Továbbra is probléma az AI rendszerek „hallucinációja”

Meglepő módon éppen az újabb verziók teljesítenek gyengébben ezen a területen.

Egy hónappal ezelőtt az Anthropic jelentette, hogy a mesterséges intelligencia modellek belső működése jelentősen eltér attól, ahogyan saját „gondolkodásukat” leírják. Most újabb aggasztó fejlemény látott napvilágot: az OpenAI legújabb nyelvi modelljei egyre gyakrabban „hallucinálnak”, azaz gyártanak hamis vagy pontatlan információkat. A New York Times beszámolója szerint az OpenAI belső vizsgálatai azt mutatják, hogy a GPT o3 és GPT o4-mini modellek lényegesen gyakrabban hibáznak, mint elődjük, a GPT o1.

Tovább a cikkre: pcwplus.hu