Site icon AppTractor

Псевдо-ИИ: как компании используют людей для выполнения работы роботов

«Использование человека для выполнения задач ИИ позволяет устранить множество технических и бизнес проблем. Очевидно, что это не масштабируется, но позволяет вам создать работающий сервис и пропустить сложную часть на ранней стадии», — отмечает Грегори Кобергер, генеральный директор ReadMe, который говорит о том, что видел уже много «псевдо-AI».

«Это, по сути, прототипирование ИИ с помощью людей», — сказал он.

Такие практики попали под внимание журналистов на прошлой неделе, после статьи в Wall Street Journal, в которой рассказывается о сотнях сторонних разработчиков приложений, которым Google разрешил получить доступ к почтовым ящикам пользователей.

В случае с компанией Edison Software, расположенной в Сан-Хосе, инженеры по искусственному интеллекту просмотрели личные письма сотен пользователей – правда, со скрытыми адресами — для улучшения функции «умных ответов». При этом компания в своей политике конфиденциальности не указывала, что ее люди будут просматривать электронные письма пользователей.

Такие компании, отмеченные в статье WSJ, конечно, далеки не новички в использовании людей вместо ИИ. Еще в 2008 году Spinvox, компания, которая превращала голосовые сообщения в текст, обвинялась в использовании для свое работы людей в зарубежных колл-центрах, а не компьютеров.

В 2016 году Bloomberg рассказал о тяжелом положении людей, которые проводили по 12 часов в день, притворяясь чатботами служб календарного планирования, таких как X.ai и Clara. Работа была настолько выматывающей, что сотрудники заявляли о том, что с нетерпением ждут замены ботами.

В 2017 году приложение для управления бизнес-расходами Expensify признало, что оно использовало людей для транскрибирования голоса, по крайней мере, в некоторых случаях. Сканы документов отправлялись в краудсорсинговую платформу Amazon Mechanical Turk, где низкооплачиваемые работники расшифровывали и записывали их.

«Интересно, знают ли пользователи Expensify SmartScan, что работники MTurk читают и записывают их документы», — спрашивает Рошель ЛаПланте, Turk-ер и адвокат работников гиг-экономики в Twitter. «Я смотрю на чей-то чек от Uber и вижу полное имя, адрес посадки и высадки».

Даже Facebook, который вложил значительные средства в ИИ, полагался на людей в своем виртуальном помощнике для Messenger под названием M.

В некоторых случаях люди используются для обучения ИИ и повышения его точности. Компания под названием Scale предлагает людям размечать учебные данные для автономных автомобилей и других систем на основе AI. Ее работники, например, могут смотреть на записи камер или на данные от датчиков и маркировать автомобили, пешеходов и велосипедистов. Далее, при достаточной человеческой калибровке, ИИ научится распознавать эти объекты сам.

В других случаях компании подделывают технологии до тех пор, пока они не действительно не реализуют их, сообщая инвесторам и пользователям, что они разработали масштабируемую ИИ-технологию, хотя тайно полагаются на человеческий интеллект.

Элисон Дарси, психолог и основатель Woebot, чатбота в области психического здоровья, описывает это как «технику Волшебника страны Оз».

«Вы имитируете конечный опыт. Во многих случаях, когда дело доходит до ИИ, за занавесом прячется человек, а не алгоритм», — говорит она, добавляя, что для создания хорошего AI требуются «тонны данных», а иногда разработчики просто хотели бы узнать, есть ли достаточный спрос на сервис, прежде чем инвестировать в его разработку.

По ее словам, однако, этот подход не работает для службы психологической поддержки, такой, как Woebot.

«Как психологи, мы руководствуемся этическим кодексом. Один из его этических принципов — не обманывать людей».

Исследования показали, что в области поиска помощи для психического здоровья, люди склонны больше раскрываться машинам, а не другим людям.

Команда из Университета Южной Калифорнии проверила это с помощью виртуального терапевта Элли. Они обнаружили, что ветераны с посттравматическими стрессовыми расстройствами с большей вероятностью раскрывали свои симптомы ИИ-системе, а не другому человеку, управляющему машиной.

Многие считают, что компании всегда должны быть прозрачными в отношении того, как работают их сервисы.

«Мне это не нравится», — говорит ЛаПланте про компании, которые притворяются, что предлагают услуги на базе AI, а на самом деле используют людей. «Это кажется мне обманом – это не то, что я бы хотел от бизнеса, которым я пользуюсь».

«С точки зрения работника его заталкивают за ширму. Никому не нравится, когда труд используется компанией, которая потом лжет своим клиентам о том, что происходит на самом деле».

Справедливо и обратное – никому не нравится, когда ИИ притворяется человеком. Недавний пример — Google Duplex, умный помощник, который может делать реалистичные телефонные звонки для назначения встреч или бронирования мест.

После первоначального неприятия Google сказал, что ее ИИ будет идентифицировать себя в разговорах с  людьми.

Несмотря на то, что бронирование столика в ресторане может показаться мало значащим  делом, такая же технология может быть гораздо более манипулятивной в неправильных руках.

Что произойдет, если вы сможете делать реалистичные звонки, имитирующие голос знаменитости или политика, например?

«С искусственным интеллектом уже связаны большие опасения, и они не помогают общению в условиях недостатка прозрачности», — сказала Дарси.

Exit mobile version