Новости
Исследователи Microsoft AI выставили терабайты данных на всеобщий доступ
Центр реагирования на угрозы безопасности Microsoft сообщил, что «никакие данные клиентов не были раскрыты, и никакие другие внутренние службы не подвергались риску из-за этой проблемы».
Исследователи Microsoft AI случайно раскрыли десятки терабайт конфиденциальных данных, включая закрытые ключи и пароли, при публикации на GitHub корзины с открытыми обучающими данными.
В своем исследовании компания Wiz, специализирующаяся на обеспечении безопасности облачных вычислений, сообщила, что в рамках своей работы по изучению проблемы случайного раскрытия данных, размещенных в облаке, она обнаружила репозиторий GitHub, принадлежащий подразделению Microsoft, занимающемуся исследованиями в области искусственного интеллекта.
Посетителям GitHub-репозитория, содержащего открытый код и модели искусственного интеллекта для распознавания изображений, было предложено загрузить модели с URL-адреса Azure Storage. Однако Wiz обнаружил, что этот URL-адрес предоставлял доступ ко всему хранилищу, что привело к раскрытию дополнительных частных данных.
Эти данные включали 38 Тбайт конфиденциальной информации, в том числе личные резервные копии персональных компьютеров двух сотрудников Microsoft. Кроме того, в хранилище содержались и другие конфиденциальные личные данные, включая пароли к сервисам Microsoft, секретные ключи и более 30 тыс. внутренних сообщений Microsoft Teams от сотен сотрудников Microsoft.
По данным Wiz, URL-адрес, по которому с 2020 года хранились эти данные, был неправильно настроен и предоставлял full control права, а не read-only, что означало, что любой, кто знал, где искать, мог потенциально удалять, заменять и внедрять в них вредоносное содержимое.
Wiz отмечает, что учетная запись хранилища не была открыта напрямую. Вместо этого разработчики Microsoft AI включили в URL-адрес разрешительный маркер подписи общего доступа (shared access signature, SAS). SAS-токены — это механизм, используемый в Azure, который позволяет пользователям создавать ссылки, предоставляющие доступ к данным учетной записи Azure Storage.
«ИИ открывает огромный потенциал для технологических компаний», — заявил TechCrunch соучредитель и технический директор компании Wiz Ами Люттвак. «Однако по мере того как ученые и инженеры, работающие с данными, стремятся внедрить новые решения в области ИИ в производство, огромные объемы данных, с которыми они работают, требуют дополнительных проверок и мер безопасности. Поскольку многим командам разработчиков приходится манипулировать огромными объемами данных, делиться ими со своими коллегами или сотрудничать в рамках публичных проектов с открытым исходным кодом, такие примеры, как в случае с Microsoft, становится все труднее отслеживать и избегать».
Компания Wiz сообщила о своих выводах Microsoft 22 июня, а через два дня, 24 июня, Microsoft отозвала токен SAS. Microsoft сообщила, что завершила расследование потенциальных организационных последствий 16 августа.
Центр реагирования на угрозы безопасности Microsoft сообщил, что «никакие данные клиентов не были раскрыты, и никакие другие внутренние службы не подвергались риску из-за этой проблемы».
По словам представителей Microsoft, в результате исследования Wiz была расширена служба GitHub Secret Spanning, которая отслеживает все публичные изменения в открытом коде на предмет раскрытия учетных данных и других секретов в открытом тексте и включает в себя все маркеры SAS, которые могут иметь слишком разрешительные сроки действия или привилегии.
-
Интегрированные среды разработки2 недели назад
Лучшая работа с Android Studio: 5 советов
-
Новости4 недели назад
Видео и подкасты о мобильной разработке 2024.43
-
Новости3 недели назад
Видео и подкасты о мобильной разработке 2024.44
-
Исследования2 недели назад
Поможет ли новая архитектура React Native отобрать лидерство у Flutter в кроссплатформенной разработке?