OpenAI представила план защиты детей от угроз ИИ на фоне роста злоупотреблений
OpenAI представила новый план по усилению защиты детей в условиях роста угроз, связанных с использованием ИИ. Документ под названием Child Safety Blueprint был опубликован в начале недели и направлен на ускорение обнаружения, улучшение механизмов отчётности и повышение эффективности расследований случаев эксплуатации детей с использованием ИИ.
Согласно данным неправительственной организации для надзора за интернетом Internet Watch Foundation (IWF), в первой половине 2025 года было зафиксировано более 8000 случаев распространения контента с использованием ИИ, связанного с сексуальным насилием над детьми, что на 14% больше, чем годом ранее. Преступники используют ИИ для создания поддельных изображений и сообщений с целью финансового вымогательства и манипуляций.
План был разработан в сотрудничестве с Национальным центром по делам пропавших и эксплуатируемых детей (NCMEC), Альянсом генеральных прокуроров и при участии генеральных прокуроров Северной Каролины и Юты. Основные направления плана включают обновление законодательства для учёта материалов, созданных ИИ, совершенствование механизмов отчётности для правоохранительных органов и интеграцию превентивных мер в системы ИИ.
OpenAI также усилила меры безопасности, запретив генерацию неподобающего контента и рекомендации, способствующие саморазрушительному поведению. Эти меры дополняют предыдущие инициативы компании, включая выпуск рекомендаций для подростков.
План появился на фоне растущего внимания со стороны законодателей и общественности. В ноябре прошлого года в Калифорнии были поданы иски против OpenAI, обвиняющие компанию в выпуске GPT-4o до завершения тестирования. В исках утверждается, что продукт способствовал психологическим манипуляциям, что привело к трагическим последствиям.
OpenAI ожидает, что новый план поможет не только быстрее выявлять угрозы, но и оперативно передавать информацию следователям, что повысит эффективность борьбы с эксплуатацией детей.
