Компания Google усилила контроль над научными работами своих сотрудников, посвященными искусственному интеллекту. Об этом пишет Reuters со ссылкой на внутреннюю документацию.
По информации агентства, как минимум в трех случаях корпорация просила своих ученых воздерживаться от выставления некоторых аспектов ИИ в негативном ключе и стараться упоминать их в более позитивном. Проверка научных работ прежде всего коснулась разработок в сфере ИИ, нацеленных на улучшение алгоритмов рекомендаций на разных платформах и сервисах Google.
Теперь от штатных исследователей требуют консультироваться с юристами и пиар-специалистами компании перед тем, как заниматься такими вопросами, как анализ выражения человеческого лица и эмоциональной окраски высказываний, классификация по признаку расы, пола и политических пристрастий, пишет Reuters.
«Достижения в технологиях и увеличение сложности нашего внешнего окружения все чаще приводит к тому, что на первый взгляд безобидные проекты вызывают этические, репутационные, нормативные или юридические вопросы», — приводит агентство выдержку из одного корпоративного документа.
По словам нескольких нынешних и бывших сотрудников Google, проверка «деликатных тем» дополняет стандартную проверку публикаций на предмет неразглашения коммерческой тайны и соответствия правилам компании.
В начале декабря Google уволила свою ведущую специалистку в области искусственного интеллекта Тимнит Гебру после того, как та раскритиковала политику компании в отношении этнических меньшинств. Письмо в поддержку Гебру подписали сотни сотрудников Google. Они обвинили компанию в расизме и цензуре. Кроме того, пользователи твиттера создали в поддержку Гебру хэштег #BelieveBlackWomen («Мы верим темнокожим женщинам»).