До 10 января существовало положение, не разрешающее использовать ИИ для «деятельности, сопряженной с высоким риском физического вреда», включая «разработку оружия» и «военные действия».
13 января, АВРОРА⭕МЕДИА. Американская компания OpenAI обновила политику использования чат-бота ChatGPT на основе искусственного интеллекта (ИИ), удалив оттуда прямой запрет на применение своей технологии в военных целях. На это обратило внимание издание The Intercept.
По информации Газета.ру, до 10 января на странице с правилами применения продуктов OpenAI существовало положение, не разрешающее использовать ИИ для «деятельности, сопряженной с высоким риском физического вреда», включая «разработку оружия» и «военные действия». Эти нормы исключали использование ChatGPT министерством обороны или другими военизированными государственными органами.
В новой версии правил сохранился запрет на применение нейросетей OpenAI для причинения вреда себе или другим, включая создание или использование оружие, однако пункт о недопустимости использования в армии и военном деле исчез.
В OpenAI объяснили редактирование политики использования ChatGPT необходимостью упростить свод правил и принципов. В компании подчеркнули, что требование «не причинять вред себе и другим» остается максимально широким и уточнено запретом на разработку и использование оружия с помощью чат-бота.
«Любое использование наших технологий, в том числе военными, для «[разработки] или [использования] оружия, [нанесения вреда] другим людям или [уничтожения] собственности». или [участвовать] в несанкционированной деятельности, нарушающей безопасность какой-либо службы или системы, запрещено», — сообщили представители OpenAI журналистам в ответе на запрос о комментарии.
По словам опрошенных изданием экспертов, OpenAI постепенно идет навстречу Пентагону и разведывательному сообществу США.
«Похоже, что новая политика использования ChatGPT избегает ассоциаций с военными контрактами и боевыми операциями, уделяя особое внимание оружию», — отметила профессор Ланкастерского университета и и член Международного комитета по контролю над роботизированным вооружением Люси Сучман.
Даже если ChatGPT не будет использоваться непосредственно в боевых операциях, его работа поможет армии решать задачи, связанные с военными действиями и применением насилия, отметили специалисты.