По словам бывшего сотрудника OpenAI, организация уделяет недостаточное внимание безопасности своих систем искусственного интеллекта и делает ставку на разработку продуктов, игнорируя потенциальные риски. В своей публикации в газете The New York Times он отметил, что компания выпустила решения без достаточной подготовки и оценки возможных побочных эффектов.
Экс-исследователь утверждает, что OpenAI концентрируется на коммерческих целях и стремится к быстрому выходу новых моделей, в то время как стандарты проверки и контроля процессов остаются на «заднем плане». Он отметил, что публичные гарантии безопасности часто не подкреплены внутренними механизмами аудита и проверки.
Кроме того, он призвал усилить надзор за разработкой ИИ-технологий, поскольку, по его мнению, нынешние рамки регулирования и корпоративные меры недостаточны для масштабных систем с потенциалом серьёзного влияния. Компании, по его словам, должны быть обязаны обеспечивать прозрачность своих методик, обосновывать выпуск продуктов и учитывать долгосрочные последствия внедрения.