مدلهای جدید ChatGPT مثل GPT-4o و o4-mini قراراست باهوشتر و سریعتر باشند، اما یک مشکل جدی دارند:
با اعتمادبهنفس، اطلاعات غلط میسازند!
بر اساس گزارش خود OpenAI، این مدلها حتی دو برابر بیشتر از نسخههای قبلی دچار توهم میشوند. یعنی چی؟ یعنی ممکن است خیلی قشنگ و منطقی حرف بزنند، ولی واقعیت نداشته باشد!
چرا؟ چون این مدلها فقط پاسخ نمیدهند؛ میان تحلیل میکنند، فرضیه میسازند، جمعبندی میکنند و بعضی وقتها از شدت خلاقیت، واقعیت را گم میکنند. همین موضوع توی بعضی کاربردها، مثل مشاوره پزشکی یا حقوقی، خیلی خطرناک میشود.