«Использование человека для выполнения задач ИИ позволяет устранить множество технических и бизнес проблем. Очевидно, что это не масштабируется, но позволяет вам создать работающий сервис и пропустить сложную часть на ранней стадии», — отмечает Грегори Кобергер, генеральный директор ReadMe, который говорит о том, что видел уже много «псевдо-AI».
«Это, по сути, прототипирование ИИ с помощью людей», — сказал он.
Такие практики попали под внимание журналистов на прошлой неделе, после статьи в Wall Street Journal, в которой рассказывается о сотнях сторонних разработчиков приложений, которым Google разрешил получить доступ к почтовым ящикам пользователей.
В случае с компанией Edison Software, расположенной в Сан-Хосе, инженеры по искусственному интеллекту просмотрели личные письма сотен пользователей – правда, со скрытыми адресами — для улучшения функции «умных ответов». При этом компания в своей политике конфиденциальности не указывала, что ее люди будут просматривать электронные письма пользователей.
Такие компании, отмеченные в статье WSJ, конечно, далеки не новички в использовании людей вместо ИИ. Еще в 2008 году Spinvox, компания, которая превращала голосовые сообщения в текст, обвинялась в использовании для свое работы людей в зарубежных колл-центрах, а не компьютеров.
В 2016 году Bloomberg рассказал о тяжелом положении людей, которые проводили по 12 часов в день, притворяясь чатботами служб календарного планирования, таких как X.ai и Clara. Работа была настолько выматывающей, что сотрудники заявляли о том, что с нетерпением ждут замены ботами.
В 2017 году приложение для управления бизнес-расходами Expensify признало, что оно использовало людей для транскрибирования голоса, по крайней мере, в некоторых случаях. Сканы документов отправлялись в краудсорсинговую платформу Amazon Mechanical Turk, где низкооплачиваемые работники расшифровывали и записывали их.
«Интересно, знают ли пользователи Expensify SmartScan, что работники MTurk читают и записывают их документы», — спрашивает Рошель ЛаПланте, Turk-ер и адвокат работников гиг-экономики в Twitter. «Я смотрю на чей-то чек от Uber и вижу полное имя, адрес посадки и высадки».
Даже Facebook, который вложил значительные средства в ИИ, полагался на людей в своем виртуальном помощнике для Messenger под названием M.
В некоторых случаях люди используются для обучения ИИ и повышения его точности. Компания под названием Scale предлагает людям размечать учебные данные для автономных автомобилей и других систем на основе AI. Ее работники, например, могут смотреть на записи камер или на данные от датчиков и маркировать автомобили, пешеходов и велосипедистов. Далее, при достаточной человеческой калибровке, ИИ научится распознавать эти объекты сам.
В других случаях компании подделывают технологии до тех пор, пока они не действительно не реализуют их, сообщая инвесторам и пользователям, что они разработали масштабируемую ИИ-технологию, хотя тайно полагаются на человеческий интеллект.
How to start an AI startup
1. Hire a bunch of minimum wage humans to pretend to be AI pretending to be human
2. Wait for AI to be invented
— Gregory Koberger (@gkoberger) March 1, 2016
Элисон Дарси, психолог и основатель Woebot, чатбота в области психического здоровья, описывает это как «технику Волшебника страны Оз».
«Вы имитируете конечный опыт. Во многих случаях, когда дело доходит до ИИ, за занавесом прячется человек, а не алгоритм», — говорит она, добавляя, что для создания хорошего AI требуются «тонны данных», а иногда разработчики просто хотели бы узнать, есть ли достаточный спрос на сервис, прежде чем инвестировать в его разработку.
По ее словам, однако, этот подход не работает для службы психологической поддержки, такой, как Woebot.
«Как психологи, мы руководствуемся этическим кодексом. Один из его этических принципов — не обманывать людей».
Исследования показали, что в области поиска помощи для психического здоровья, люди склонны больше раскрываться машинам, а не другим людям.
Команда из Университета Южной Калифорнии проверила это с помощью виртуального терапевта Элли. Они обнаружили, что ветераны с посттравматическими стрессовыми расстройствами с большей вероятностью раскрывали свои симптомы ИИ-системе, а не другому человеку, управляющему машиной.
Многие считают, что компании всегда должны быть прозрачными в отношении того, как работают их сервисы.
«Мне это не нравится», — говорит ЛаПланте про компании, которые притворяются, что предлагают услуги на базе AI, а на самом деле используют людей. «Это кажется мне обманом – это не то, что я бы хотел от бизнеса, которым я пользуюсь».
«С точки зрения работника его заталкивают за ширму. Никому не нравится, когда труд используется компанией, которая потом лжет своим клиентам о том, что происходит на самом деле».
Справедливо и обратное – никому не нравится, когда ИИ притворяется человеком. Недавний пример — Google Duplex, умный помощник, который может делать реалистичные телефонные звонки для назначения встреч или бронирования мест.
После первоначального неприятия Google сказал, что ее ИИ будет идентифицировать себя в разговорах с людьми.
Несмотря на то, что бронирование столика в ресторане может показаться мало значащим делом, такая же технология может быть гораздо более манипулятивной в неправильных руках.
Что произойдет, если вы сможете делать реалистичные звонки, имитирующие голос знаменитости или политика, например?
«С искусственным интеллектом уже связаны большие опасения, и они не помогают общению в условиях недостатка прозрачности», — сказала Дарси.