Неизвестные получили доступ к новой модели ИИ Anthropic, пишут СМИ

В частности, компания Anthropic, известная своими передовыми разработками в области ИИ, столкнулась с серьезной проблемой безопасности. Согласно информации, полученной агентством Блумберг от инсайдерских источников, неизвестные пользователи сумели получить несанкционированный доступ к новой модели искусственного интеллекта под названием Mythos.

Модель Mythos Preview, по утверждению представителей Anthropic, является самой мощной и продвинутой разработкой компании на сегодняшний день. Она обладает уникальной способностью выявлять и эксплуатировать уязвимости в любых основных операционных системах и популярных веб-браузерах по запросу пользователя, что поднимает вопросы о потенциальных угрозах кибербезопасности. Этот ИИ способен значительно облегчить поиск слабых мест в программном обеспечении, что может быть использовано как во благо, так и во вред.

Как сообщает агентство Блумберг, несколько пользователей получили доступ к Mythos через частный онлайн-форум в тот же день, когда Anthropic объявила о планах ограниченного выпуска модели для тестирования среди избранных компаний. Этот инцидент подчеркивает важность усиления мер безопасности при работе с такими мощными инструментами ИИ, а также необходимость разработки этических норм и регуляций, чтобы минимизировать риски несанкционированного использования технологий будущего. В свете этих событий эксперты призывают к более тщательному контролю и прозрачности в сфере искусственного интеллекта, чтобы обеспечить баланс между инновациями и безопасностью.

В современном мире информационной безопасности и технологий искусственного интеллекта наблюдается растущая активность со стороны специализированных сообществ, стремящихся получить доступ к закрытым разработкам. Источники агентства сообщают, что группа пользователей применила комплексный подход для взлома системы Mythos. Они воспользовались доступом, предоставленным сотрудником стороннего подрядчика Anthropic, а также задействовали стандартные инструменты интернет-разведки. Эти методы включают анализ открытых данных, которые компании, такие как Anthropic, иногда оставляют на незащищённых ресурсах, например, на GitHub.

Все участники этой группы объединены в приватном Discord-канале, где они активно обмениваются информацией и с помощью автоматизированных ботов ищут сведения о ещё не выпущенных моделях искусственного интеллекта. Такой подход позволяет им выявлять уязвимости и получать инсайдерскую информацию, которую компании стараются скрыть. Агентство отмечает, что с момента получения доступа к Mythos группа регулярно использует эту систему, однако не с целью обеспечения кибербезопасности, а скорее для личных или исследовательских интересов.

Данная ситуация подчёркивает важность усиления мер безопасности и контроля доступа к конфиденциальным разработкам в сфере ИИ, поскольку утечки информации могут привести к серьёзным последствиям как для компаний, так и для пользователей. В условиях быстрого развития технологий подобные инциденты становятся сигналом для индустрии о необходимости постоянного мониторинга и защиты своих инноваций.

В последние месяцы вопросы безопасности и этики использования искусственного интеллекта стали предметом острых дискуссий на международном уровне. Особенно ярко эта проблема проявилась в ситуации с компанией Anthropic, которая разрабатывает передовые ИИ-технологии. В начале апреля Anthropic приняла решение ограничить доступ к своему продукту Mythos примерно 40 организациям, мотивируя это тем, что кибервозможности системы могут представлять слишком высокую угрозу при широком распространении.

Ранее Пентагон официально выразил обеспокоенность и направил компании уведомление, в котором обозначил Anthropic как потенциальную угрозу для цепочки поставок критически важных технологий. В ответ на это руководство Anthropic подало иск против федеральных властей США, оспаривая их позицию и действия. Этот конфликт отражает более глубокие разногласия в вопросах контроля и регулирования ИИ.

Основная причина спора заключается в нежелании Anthropic предоставлять Пентагону полный доступ к своим технологиям. Компания аргументирует это тем, что нынешний уровень развития ИИ еще не позволяет безопасно и ответственно использовать его в создании автономных видов вооружений. Кроме того, в Anthropic считают, что применение их технологий для внутренней слежки не имеет достаточной юридической и этической основы, что вызывает дополнительные опасения в отношении прав человека и конфиденциальности.

Таким образом, ситуация с Anthropic иллюстрирует сложность баланса между инновациями в области искусственного интеллекта и необходимостью строгого контроля за их применением. Важно, чтобы дальнейшее развитие ИИ сопровождалось не только техническими достижениями, но и выработкой четких норм и стандартов, обеспечивающих безопасность и соблюдение правовых норм. Только при таком подходе можно будет эффективно интегрировать ИИ в различные сферы, минимизируя риски и максимально используя его потенциал.

Источник и фото - ria.ru