Семья из Британии отравилась грибами из-за ChatGPT: как ИИ-генерированные пособия могут быть опасны
Недавний инцидент в Британии привлек внимание к потенциальным опасностям использования ИИ-генерированных материалов. Семья пострадала от отравления грибами, купив пособие для начинающих грибников, которое оказалось написано нейронной сетью ChatGPT.
Как это произошло?
Пострадавшие приобрели пособие по сбору грибов, надеясь получить надежные инструкции для безопасного поиска съедобных грибов. Однако, как выяснилось позже, руководство было создано с помощью ИИ, что привело к серьёзным последствиям. В книге оказались неточные изображения грибов и ложные советы, что в конечном итоге привело к отравлению.
Что именно пошло не так?
- Неточные изображения: Сгенерированные нейронной сетью картинки грибов не соответствовали действительности, что затруднило правильную идентификацию съедобных и ядовитых видов.
- Ошибочные рекомендации: В книге были размещены неверные рекомендации, такие как фраза: «Сморчки — это вкусные грибы, которые можно есть с августа до конца лета. Дайте мне знать, если я могу еще чем-то вам помочь.» Эти советы оказались опасными и непригодными для использования в реальных условиях.
Реакция и действия:
- Журналисты бьют тревогу: По мере роста обеспокоенности, журналисты начали активно обсуждать проблему, поднимая вопрос о безопасности ИИ-генерированных публикаций на Amazon. В статье The Guardian поднималась проблема о большом количестве книг на платформе, которые были написаны ИИ и могут представлять угрозу для здоровья пользователей.
- Amazon и компенсация: После инцидента Amazon предпринял шаги для урегулирования ситуации, предложив вернуть книгу в обмен на скромную компенсацию. Однако эта мера была воспринята как недостаточная, учитывая серьёзность последствий.
Что нужно знать:
- Риски использования ИИ-генерированных материалов: Этот случай подчеркивает необходимость тщательной проверки источников информации и предупреждает о возможных рисках использования материалов, созданных ИИ без должной проверки фактов.
- Ответственность платформ и авторов: Важно, чтобы платформы, такие как Amazon, и авторы, использующие ИИ для создания контента, принимали меры для обеспечения качества и точности предоставляемой информации, особенно в сферах, связанных с безопасностью и здоровьем.
Этот случай стал важным напоминанием о необходимости тщательной проверки информации и критического подхода к ИИ-генерированным материалам, особенно когда речь идет о вопросах безопасности и здоровья.