Meta расформировала Responsible AI — подразделение, отвечающее за «безопасность» искусственного интеллекта
Большинство работников переведут в команды, которые занимаются генеративным искусственным интеллектом и ИИ-инфраструктурой.
По словам представителя Meta, компания расформировала свое подразделение Responsible AI — команду, которая занималась регулированием безопасности продуктов искусственного интеллекта при их разработке и развертывании.
Большинство членов команды будут переведены в подразделение продуктов Generative AI, а некоторые будут работать в команде инфраструктуры ИИ. Команда Generative AI, созданная в феврале, сосредоточена на разработке продуктов, генерирующих текст и изображения, подобные созданным человеком.
Meta сейчас находится в статусе компании, догоняющей лидеров в гонках ИИ. Ранее Марк Цукерберг объявил 2023-й «годом эффективности» — и пока это отразилось лишь потоком увольнений, слияниями и переформатированиями команд.
Безопасность ИИ сейчас стала приоритетной, поскольку все больше правительств обращают внимание на потенциальный ущерб от новорожденных технологий. В июле Anthropic, Google, Microsoft и OpenAI создали отраслевую группу, сосредоточенную на установлении стандартов безопасности по мере развития ИИ.
Хотя сотрудники Responsible AI сейчас рассредоточены по всей организации, представитель Meta отметил, что компания продолжит поддерживать «ответственную разработку и использование ИИ», но не уточнил каким образом. Ранее Meta опубликовала на своей странице пять основных правил, которые будут использоваться при разработке продуктов искусственного интеллекта (включая подотчетность, прозрачность, безопасность, конфиденциальность и т.д.).
В начале года команда Responsible AI уже пережила реструктуризацию, которая сделала подразделение только «оболочкой». Команда обладала незначительной автономией, а ее инициативы должны были проходить через длительные переговоры с заинтересованными сторонами, прежде чем их можно было реализовать.
Одна из задач Responsible AI — выявление проблем с автоматизированными системами ИИ на платформах компании, в том числе и в том, что касается модерации. И, вспоминая лишь несколько из них (а именно арест из-за проблемного перевода; «предвзятые» стикеры; алгоритмы, рекомендующие материалы с сексуальным насилием над детьми, и в конце концов бан публикаций украинцев о войне), кажется, что команда не слишком хорошо справлялась с работой.
Источник: CNBC, The Verge