А на повторные вопросы по одной и той же теме нейросеть держится на свет, как профессиональный шпион. Исследователи одного из американских штатов проверили чат-бот на правдивость, однако он умело выкручивался.
И теперь врачи заявляют, что, например, нейросети под именем ChatGPT особо доверять нельзя. На одинаковые вопросы о раке молочной железы их собеседник нес полную чушь. Как сказали специалисты, чат-ботам тоже свойственна галлюцинация.
Ученые гоняли его по списку из более чем 20 вопросов. И если его переспрашивали одно и тоже, он путался в показаниях. Однако, уверенно фантазировал и наставиал на этом ответе.
Эти ответы и проверили радиологи, которые всю жизнь занимаются маммографическими исследованиями.
Достоверными оказались лишь менее 90% ответов нейросети. ChatGPT не солгал по вопросам о первых проявлениях онкологии, о том, кто более всего уязвим и как часто надо проверять здоровье.
По некоторой информации ChatGPT проигрывал даже Google, который позволял по запросу найти более точную и полноценную информацию. Перечень тех первоисточников у нейросети был скудным.
Ранее мы писали о том, что нейросеть научили выявлять болезнь Паркинсона по дыханию. Для этого достаточно одной ночи.