Компания Twitter извинилась за «расистский» алгоритм, который выбирает фото для превью. Это произошло после того, как пользователи соцсети выяснили, что эта функция отдает предпочтение лицам людей европеоидной расы, а темнокожих «дискриминирует». Об этом 21 сентября написала газета Guardian.

В Twitter алгоритмы отвечают за составление персонализированной ленты, рекомендации аккаунтов, а также обрезку опубликованных пользователями изображений — задача состоит в том, чтобы автоматически показать в ленте наиболее релевантную часть фото или картинки, которая целиком не умещается в стандартную рамку.

Пользователи твиттера заметили, что при выборе двух фотографий, одна из которых содержит портрет темнокожего человека, а вторая — белого, в превью чаще отображается только портрет белого человека.

Разработчик Тони Арчиери провел свой собственный эксперимент. Он сделал две длинных вертикальных картинки. Вверху одной из них он поместил фото лидера республиканского большинства в Сенате США Митча Макконелла, а внизу — бывшего американского президента Барака Обамы. На второй картинке разработчик поменял их местами. Однако в обоих случаях алгоритм твиттера поместил на превью фото Макконелла.

Представитель Twitter заявил, что в системе нейросети до ее запуска не нашли предвзятости по признаку расы или пола. Однако компания пообещала продолжить изучение алгоритма. «Мы провели анализ нашей модели прежде, чем ее вводили, однако она требует постоянного улучшения», — сказали в Twitter.

Twitter не единственная компания, которая пострадала из-за некорректной работы алгоритмов. В 2018 году сервис Google Photos оказался в центре скандала после того, как алгоритм распознавания лиц принял изображенных на фотографиях темнокожих людей за горилл. После этого компания запретила тэги «горилла», «шимпанзе» или «обезьяна» до того момента, как программа научится лучше определять изображенные на фотографиях объекты и людей.