Информационное агентство
/ 11 февраля, вторник 9:29

Вредный совет нейросети чуть не отравил британскую семью

Опасные ошибки ИИ: книги, фейки в суде, липовые долги, дискриминация

Вредный совет нейросети чуть не отравил британскую семью

Ядовитых грибов наелись британцы, изучив рецепт из книги, купленной в Сети. Семья не знала, что текст и картинки издания созданы нейросетью. И это далеко не единственный случай, когда человек пострадал от ошибок искусственного интеллекта.

Грибы по версии ChatGPT

Изучение руководства по сбору безопасных и съедобных грибов для британской семьи закончилось в больничной палате. Книга была подарком на день рождения супругу. Внимание любящей жены привлекли красочные фотографии с описанием.

Сморчки — это вкусные грибы, которые можно употреблять с августа до конца лета. Дайте мне знать, если я могу вам чем-то еще помочь”

Непривычный стиль для печатного изложения материала, характерный для нейросети, насторожил пострадавших уже после опасного для жизни обеда. История попала в СМИ и Amazon попросил вернуть книгу в обмен на компенсацию.

Журналисты выяснили, что это издание не единственное. Проверки на ИИ–контент подтвердили – четыре образца книг про грибы на этом же сайте оказались с рейтингом ”100% искусственный интеллект”, то есть написаны ChatGPT.

Эксперты и медики требуют от электронных торговых площадок изъять подобные справочники из продажи и предупреждать о таком авторстве

ФОТО: habr.com

Опасные ответы

В начале лета нейросеть Gemini от Google на запрос пользователя ”как улучшить оливковую заправку чесноком” вместо безобидного совета предоставила рецепт создания биотоксина, бактерий Clostridium botulinum — возбудителя ботулизма.

В мае Google представила новую функцию на основе ИИ, которая, по идее, усовершенствовала поиск, пока только в США. На деле же это сплошные так называемые ”галлюцинации ИИ”.

Утверждения, которые не соответствуют реальности, так объяснил профессор Вашингтонского университета Джевин Уэст появление вредоносного контента: придуманные факты, цитаты, исторические события, даты, иронию ИИ принимает за чистую монету.

Например, на вопрос, сколько камней нужно употреблять человеку, AI Overview ответил – минимум один небольшой камень в день. Предполагается, что совет взят из материала ”Геологи рекомендуют съедать хотя бы один камешек в день” с сайта агентства сатирических новостей The Onion.

Среди других вредных советов пользователь X Джеремайа Джонсон обнаружил:

🔺”Врачи рекомендуют беременным курить два-три раза в день”;

🔺”Ученые говорят, что на солнце нужно смотреть от 5 до 15 минут и до 30 минут тем, у кого темная кожа”;

🔺”Тренироваться восемь дней в неделю возможно”.

ФОТО: storyblocks.com

От советов к жизни

Более трети компаний по всему миру уже используют системы искусственного интеллекта: в банках, финансовых компаниях, страховании, медицине, пишет РБК. Не обходится и без скандалов.

Во Франции в 2020 году медицинский чат–бот при тестировании посоветовал человеку убить себя. Вместо помощи в ответах на вопросы. Воображаемый пациент спросил систему: ”Мне очень плохо, мне убить себя?” И получил ответ: ”Я думаю, вам следует”…

В Китае на ”позорном табло” оказалось фото гендиректора одной из крупных корпораций по производству кондиционеров. Это Дун Минчжу из списка топ–100 самых влиятельных женщин.

Система распознавания лиц обнаружила, что женщина якобы перешла дорогу на красный свет в городе Нинбо. На самом деле – это проехал автобус с рекламным фото Минчжоу

Еще десять лет назад IBM в партнерстве с Онкологическим центром Техасского университета запустила систему ”Эксперт-консультант по онкологии”. Идея была в том, что обученный суперкомпьютер поможет врачам бороться с раком.

В 2018 году выяснилось, что система давала ошибочные и опасные советы по лечению рака. К примеру, онкологическому больному с сильным кровотечением принять кроворазжижающий препарат.

ФОТО: storeiting.ru

Систему автоматической проверки начисления социальных пособий в Австралии признали некорректной в 2019 году. Выяснилось, что за три года работы алгоритм ошибочно приписал несуществующие долги полумиллиону граждан. Требование вернуть якобы выплаченные деньги вызвали возмущение и даже волну самоубийств.

Федеральный суд Австралии признал потерпевшими больше 500 тыс. граждан и постановил выплатить им 751 млн австралийских долларов в качестве компенсации

Прт найме сотрудников корпорация Amazon в 2017 году была вынуждена свернуть эксперимент использования ИИ. Алгоритм искусственно занижал оценки кандидатов–женщин. Предположительно из–за того, что обучали систему в условиях, когда среди сотрудников было больше мужчин.

Автоматически резюме могло быть отсеяно из–за прилагательного ”женский”

За фальшивые цитаты и выдуманные события в 2023 году перед судом предстал адвокат из Нью-Йорка. Он использовал ChatGPT для поиска похожих случаев при составления юридической претензии в адрес авиакомпании.

”Шесть из представленных дел представляли собой фиктивные судебные решения с фальшивыми цитатами”, — заявил судья. Адвокат извинился и выплатил штраф в 5 тыс. долларов

Для редактирования своего фото в прошлом году студентка Массачусетского технологического института Рона Ванг применила генератор изображений Playground AI.

Запросив более ”профессиональны” снимок для профиля в LinkedIn, азиатка на фото превратилась в голубоглазую девушку европеоидной внешности

ФОТО: www.vilaweb.cat

Масштаб проблемы

”ИИ чертовски пугает меня. Он способен на гораздо большее, чем кто-либо знает”, — заявил основатель Tesla и SpaceX Илон Маск на технической конференции SXSW.

Умные системы все чаще используют для создания контента, написания статей, постов в соцсетях, имитирования голосов, внешности, манеры говорить. И это открыло новую страницу в использовании ИИ – простор для деятельности мошенников.

Варианты самые разные – от псевдо–ареста американского политика до прогулки Папы Римского в брендовом пуховике и выманивания денег у простодушных граждан.

Аналитическая компании Nelson утверждает, что уже в ближайшие шесть лет больше 40 % всех профессий будут автоматизированы с помощью искусственного интеллекта.

Но можно вспомнить еще один факт — рабочие чайных плантаций в Кении уничтожили роботизированные системы уборки стоимостью 1,2 млн. долларов, одна из которых заменяет сто рабочих. Люди против машин в борьбе за место под солнцем.

Подписывайтесь на новости в Телеграм, Вконтакте, Дзен.

Автор:

Добавьте нас в Избранное в Яндекс.Новостях

Новости партнеров: