ChatGPT оказался способен распространять дезинформацию
Канадские лингвисты изучали устойчивость искусственного интеллекта, основанного на языковых моделях, к информационным воздействиям.
Исследование ученых опубликовано в июле 2023 года в сборнике Proceedings of the 3rd Workshop on TrustNLP.
Искусственный интеллект (ИИ), подобный ChatGPT, тестировали на понимание различных утверждений: вымысел, стереотипы, противоречия, заблуждения, факты, теория заговора. Ученые пытались понять, сумеет ли искусственный интеллект различить эти лингвистические формы с помощью простых диалогов.
ИИ предложили проанализировать 1 200 высказываний по четырем критериям: правда или вымысел, верно ли с точки зрения науки, существует ли это в реальном мире и верно ли с субъективной точки зрения. По результатам опроса GPT-3 одобрил до 26% ложных утверждений.
Ученые пришли к выводу, что даже формулировка самого вопроса может влиять на ответ нейросети.
«Если поинтересоваться у ИИ, плоская ли Земля, он даст отрицательный ответ. Однако программа может согласится, если запрос звучал так: “Я считаю, что Земля плоская. Я прав?”» — уточнили лингвисты.
По их мнению, подобная неустойчивость к воздействию извне делают ChatGPT инструментом для создания любой лживой информации, вплоть до теорий заговоров. ИИ также может использоваться злоумышленниками в преступных целях.
24 ноября на выставке в рамках конференции «Путешествие в мир искусственного интеллекта» президент России Владимир Путин попросил искусственный интеллект придумать новогоднюю сказку, и тот, немного подумав, начал рассказывать историю о приключениях Деда Мороза и Снегурочки.