Бывший исследователь OpenAI заявляет о недостаточном внимании компании к безопасности ИИ

Бывший исследователь OpenAI заявляет о недостаточном внимании компании к безопасности ИИ

По словам бывшего сотрудника OpenAI, организация уделяет недостаточное внимание безопасности своих систем искусственного интеллекта и делает ставку на разработку продуктов, игнорируя потенциальные риски. В своей публикации в газете The New York Times он отметил, что компания выпустила решения без достаточной подготовки и оценки возможных побочных эффектов.

Экс-исследователь утверждает, что OpenAI концентрируется на коммерческих целях и стремится к быстрому выходу новых моделей, в то время как стандарты проверки и контроля процессов остаются на «заднем плане». Он отметил, что публичные гарантии безопасности часто не подкреплены внутренними механизмами аудита и проверки.

Кроме того, он призвал усилить надзор за разработкой ИИ-технологий, поскольку, по его мнению, нынешние рамки регулирования и корпоративные меры недостаточны для масштабных систем с потенциалом серьёзного влияния. Компании, по его словам, должны быть обязаны обеспечивать прозрачность своих методик, обосновывать выпуск продуктов и учитывать долгосрочные последствия внедрения.

похожие материалы

Стрелочка
Стрелочка
«Лаборатория Касперского» разработала защитное решение для спутника-платформы RUVDS
«Лаборатория Касперского» разработала защитное решение для спутника-платформы RUVDS

«Лаборатория Касперского» разработала для хостинг-провайдера RUDVS специализированное решение Kaspersky Endpoint Security for Linux (KESL) — Space Edition, которое поможет обеспечивать защиту спутника-платформы RUVDSSat1 на протяжении всей его миссии.