Хакер отримав несанкціонований доступ до даних про проекти для нових випадків використання ШІ.
Як повідомляється, минулого року хакер викрав інформацію про нові технології OpenAI, зламавши внутрішні системи обміну повідомленнями компанії.
У повідомленнях із загальнокомпанійної зустрічі в квітні минулого року співробітники обговорювали деталі нових технологій штучного інтелекту, повідомляє New York Times з посиланням на неназвані джерела. Зазначається, що хакер не отримував доступу до корпусу системи чи створення її програм.
OpenAI не відповів на запит про коментар.
Компанія не повідомила про порушення федеральним правоохоронним органам і не оприлюднила новини, оскільки вважала, що інформацію про клієнтів не було вкрадено. Він не вважав цю подію загрозою національній безпеці, прив’язавши хакера до приватної особи, яка не мала зв’язків із нападниками на національних державах.
Повідомляється, що не всі працівники були задоволені поясненнями. Цей інцидент викликав занепокоєння щодо серйозності OpenAI щодо кібербезпеки та її відсутності, що призвело до того, що країни-супротивники, такі як Китай, можуть потенційно викрасти інформацію ШІ.
У травні OpenAI заявив, що перервав п’ять таємних операцій впливу, включно з Китаєм і Росією, які намагалися використати її служби штучного інтелекту для «оманливої діяльності».
Як повідомляється, Леопольд Ашенбреннер, менеджер технічної програми OpenAI, чия роль передбачає забезпечення того, щоб майбутня технологія штучного інтелекту не завдавала серйозної шкоди, надіслав доповідну записку до ради директорів компанії після злому, стверджуючи, що компанія робить недостатньо для захисту своїх даних від зловмисників, таких як китайський уряд. Він додав, що якби загроза зламала системи компанії, захист OpenAI був недостатньо сильним, щоб захистити від крадіжки.
OpenAI нібито звільнив Ашенбреннера за витік інформації, при цьому колишній співробітник стверджував, що його звільнення було політично мотивованим. Компанія спростувала ці звинувачення, а представник OpenAI заявив газеті, що «поділяє його прагнення створити безпечний AGI», але не погодився з твердженнями про «характеристики нашої безпеки, зокрема цей інцидент, про який ми звернулися та поділилися з ним». до того, як він приєднався до компанії».
OpenAI не розголошував про порушення 2023 року федералам, громадськості: звіт
