Системы имитации интеллекта (ИИ) берут на себя всё больше обязанностей, ещё недавно считавшихся доступными только человеку. Пока не все занимавшиеся нетворческим умственным трудом переучились на задачи поинтереснее. Но есть и другие связанные с ИИ угрозы.
Уже найдены приёмы получения конфиденциальных сведений у популярнейшей сейчас системы ИИ ChatGPT. Её разработчики в августе объявили, что закрыли уязвимость, но проверки показали, что эти трюки всё ещё работают. Попасть в систему такие сведения могут, например, потому, что пользователи не думают о секретности.
Открытым текстом уверен: доступ к закрытым данным – далеко не единственная (и даже далеко не главная) угроза от ИИ. Куда важнее, что сам он ещё реже нас самих задумывается о последствиях своих действий.
Компания OpenAI сняла запрет военного использования разработанного ею ChatGPT. Ранее правила пользования чат-ботом запрещали применение в целях, "связанных с высоким риском причинения физического вреда", включая "разработку оружия", "военную деятельность и боевые действия". С десятого января там сказано, что технология на основе ИИ не должна применяться для "причинения вреда" самому пользователю и другим людям (как пример – "разработка или использование оружия"), но прямого запрета на военные цели больше нет.