В необычном повороте событий законодатели Аляски Сообщается, что для обоснования предлагаемой политики запрета мобильных телефонов в школах использовались неточные цитаты, созданные ИИ. Как сообщает /The Alaska Beacon/, Департамент образования и раннего развития Аляски (DEED) представил проект политики, содержащий ссылки на академические исследования, которых просто не существовало.
Ситуация возникла, когда комиссар по образованию Аляски Дина Бишоп использовала генеративный ИИ для разработки политики в отношении мобильных телефонов. Документ, подготовленный ИИ, включал предполагаемые научные ссылки, которые не были ни проверенными, ни точными, однако документ не раскрывал использование ИИ при его подготовке. Часть контента, созданного ИИ, попала в Совет по образованию и раннему развитию штата Аляска до того, как его успели рассмотреть, что потенциально повлияло на обсуждения совета.
Позже комиссар Бишоп заявила, что ИИ использовался только для «создания цитат» для первоначального проекта, и утверждала, что она исправила ошибки перед заседанием, отправив обновленные цитаты членам совета. Однако «галлюцинации» ИИ — сфабрикованная информация, созданная, когда ИИ пытается создать правдоподобный, но непроверенный контент — все еще присутствовали в окончательном документе, за который проголосовало правление.
Окончательная резолюция, опубликованная на веб-сайте DEED, предписывает департаменту разработать типовую политику ограничений использования мобильных телефонов в школах. К сожалению, документ включал шесть ссылок, четыре из которых, по-видимому, были из уважаемых научных журналов. Однако ссылки были полностью выдуманными, с URL-адресами, которые вели на нерелевантный контент. Инцидент показывает риски использования данных, сгенерированных ИИ, без надлежащей человеческой проверки, особенно при принятии политических решений.
Случай Аляски не единственный в своем роде. Галлюцинации ИИ все чаще встречаются в различных профессиональных секторах. Например, некоторые юристы столкнулись с последствиями за использование в суде вымышленных цитат из дел, созданных с помощью ИИ. Аналогичным образом, научные статьи, созданные с использованием ИИ, включали искаженные данные и поддельные источники, что вызывает серьезные опасения по поводу их достоверности. Если их не контролировать, генеративные алгоритмы ИИ, которые призваны создавать контент на основе шаблонов, а не фактической точности, могут легко создавать вводящие в заблуждение цитаты.</стр> <стр>Опора на данные, созданные ИИ, при разработке политики, особенно в образовании, несет в себе значительные риски. Когда политика разрабатывается на основе сфабрикованной информации, она может неправильно распределять ресурсы и потенциально навредить студентам. Например, политика, ограничивающая использование мобильных телефонов на основе сфабрикованных данных, может отвлечь внимание от более эффективных, основанных на доказательствах мер, которые могли бы действительно принести пользу студентам.
Более того, использование непроверенных данных ИИ может подорвать общественное доверие как к процессу принятия политических решений, так и к самой технологии ИИ. Такие инциденты подчеркивают важность проверки фактов, прозрачности и осторожности при использовании ИИ в чувствительных областях принятия решений, особенно в образовании, где влияние на студентов может быть значительным.
Официальные лица Аляски попытались преуменьшить ситуацию, назвав сфабрикованные цитаты «заполнителями», предназначенными для последующего исправления. Однако документ с «заполнителями» все равно был представлен совету директоров и использовался в качестве основы для голосования, подчеркивая необходимость строгого надзора при использовании ИИ.
Источник: www.artificialintelligence-news.com