Автоматизированные инструменты Meta удалили контент о войне между Израилем и ХАМАС, который не нарушал ее правил
Наблюдательный совет Meta опубликовал свое решение по результатам первого в истории ускоренного разбирательства, занявшего всего 12 дней (вместо недель) и сосредоточившегося на контенте, связанном с войной между Израилем и ХАМАС. Совет отменил первоначальное решение компании об удалении двух материалов об обеих сторонах конфликта. Проверка совета обратила внимание на то, как зависимость Meta от автоматизированных инструментов может препятствовать людям делиться важной информацией, как это неоднократно происходило в отношении российского вторжения в Украину.
В этом конкретном случае Совет отметил, что «это увеличило вероятность удаления ценных постов, информирующих мир о человеческих страданиях с обеих сторон конфликта на Ближнем Востоке», передает Engadget.
Для своего первого ускоренного разбирательства Наблюдательный совет решил исследовать две конкретные жалобы, представляющие то, что пользователи в пострадавшем регионе посылали после атак 7 октября. Одно из них — видео, размещенное на Facebook, на котором женщина умоляет своих похитителей не убивать ее, когда она была взята в заложники во время первых террористических атак на Израиль. Другое видео, опубликованное в Instagram, показывает последствия удара по больнице Аль-Шифа в Газе во время наземного наступления Израиля. На нем видны погибшие и раненые палестинцы, в том числе дети.
Комиссия установила, что эти два видео были по ошибке удалены после того, как компания Meta настроила свои автоматизированные инструменты на более агрессивный контроль за контентом после атак мирных жителей Израиля 7 октября. К примеру, удаление видео из больницы Аль-Шифа и отклонение обращения пользователя о его восстановлении произошло без вмешательства человека. Позже оба видео восстановились с предупредительными экранами, на которых отмечалось, что такой контент разрешен с целью освещения новостей и повышения осведомленности. Совет выразил обеспокоенность, что скорейшее изменение подхода компании к модерации может создать впечатление произвола и подвергнуть сомнению ее политику.
Поскольку Совет установил, что Meta снизила рейтинг контента, который она восстановила. Она не рекомендовала их другим пользователям Facebook и Instagram даже после того, как компания определила, что они имели целью повысить осведомленность. Некоторые пользователи сообщили, что были заблокированы в октябре после того, как разместили контент об условиях жизни в Газе.
Израиль через телефоны отслеживает эвакуацию более 1 млн жителей Газы