Информационное агентство
/ 19 апреля, пятница 4:22

Шпионские замашки: чат-боты могут уверенно врать, заявляют врачи

Ученые выяснили, что правды в его ответах менее 90 процентов

Шпионские замашки: чат-боты могут уверенно врать, заявляют врачи
ФОТО: из общедоступных источников

У популярной нейросети случились галлюцинации. Когда он не знает правильную информацию, он просто начинает фантазировать и глубоко убежден в том, что говорит правду, пишет издание Radiology.

А на повторные вопросы по одной и той же теме нейросеть держится на свет, как профессиональный шпион. Исследователи одного из американских штатов проверили чат-бот на правдивость, однако он умело выкручивался.

И теперь врачи заявляют, что, например, нейросети под именем ChatGPT особо доверять нельзя. На одинаковые вопросы о раке молочной железы их собеседник нес полную чушь. Как сказали специалисты, чат-ботам тоже свойственна галлюцинация.

Ученые гоняли его по списку из более чем 20 вопросов. И если его переспрашивали одно и тоже, он путался в показаниях. Однако, уверенно фантазировал и наставиал на этом ответе.

Эти ответы и проверили радиологи, которые всю жизнь занимаются маммографическими исследованиями.

Достоверными оказались лишь менее 90% ответов нейросети. ChatGPT не солгал по вопросам о первых проявлениях онкологии, о том, кто более всего уязвим и как часто надо проверять здоровье.

По некоторой информации ChatGPT проигрывал даже Google, который позволял по запросу найти более точную и полноценную информацию. Перечень тех первоисточников у нейросети был скудным.

Ранее мы писали о том, что нейросеть научили выявлять болезнь Паркинсона по дыханию. Для этого достаточно одной ночи.

Подписывайтесь на новости в Телеграм, ВКонтакте, Дзен

Автор:

Добавьте нас в Избранное в Яндекс.Новостях

Новости партнеров: