18 стран заключили соглашение о безопасности технологии искусственного интеллекта
Соединенные Штаты Америки, Великобритания и более десятка других стран представили первое подробное международное соглашение о том, как защитить искусственный интеллект от использования с вредоносными целями. Стороны призвали компании создавать системы ИИ, которые «безопасны по своей архитектуре».

В 20-страничном документе 18 стран согласились, что компании, разрабатывающие и использующие ИИ, должны разрабатывать и внедрять его таким образом, чтобы защитить клиентов и широкую общественность от неправильного использования. Соглашение не является обязательным и содержит в основном общие рекомендации, такие как мониторинг систем ИИ на предмет злоупотреблений, защита данных от фальсификации и проверка поставщиков ПО.
Страны, подписавшие документ, рассматривают вопросы о том, как защитить технологию ИИ от взлома хакерами. В перечне также содержатся такие рекомендации, как выпуск моделей ИИ только после соответствующего тестирования безопасности.
Вместе с тем в документе не рассматриваются острые вопросы о правильном использовании ИИ или о том, как собираются данные, которые используются в этих моделях.
Отметим, рост популярности ИИ породил множество опасений, в том числе о его возможном использовании для подрыва демократических процессов или мошенничества, вероятной резкой потере рабочих мест и других потенциальных видах вреда для человечества.
Помимо США и Великобритании, документ также подписали Германия, Италия, Чехия, Эстония, Польша, Австралия, Чили, Израиль, Нигерия и Сингапур.
Источник: reuters