Connect with us

Статьи

Псевдо-ИИ: как компании используют людей для выполнения работы роботов

Сделать продукт на основе искусственного интеллекта трудно. Так трудно, что некоторые стартапы предпочитают нанимать людей, чтобы они вели себя как роботы, нежели делать роботов, которые смогут вести себя как люди. The Guardian пишет о «тайных» методиках и будущем ИИ.

Фото аватара

Опубликовано

/

     
     

«Использование человека для выполнения задач ИИ позволяет устранить множество технических и бизнес проблем. Очевидно, что это не масштабируется, но позволяет вам создать работающий сервис и пропустить сложную часть на ранней стадии», — отмечает Грегори Кобергер, генеральный директор ReadMe, который говорит о том, что видел уже много «псевдо-AI».

«Это, по сути, прототипирование ИИ с помощью людей», — сказал он.

Такие практики попали под внимание журналистов на прошлой неделе, после статьи в Wall Street Journal, в которой рассказывается о сотнях сторонних разработчиков приложений, которым Google разрешил получить доступ к почтовым ящикам пользователей.

В случае с компанией Edison Software, расположенной в Сан-Хосе, инженеры по искусственному интеллекту просмотрели личные письма сотен пользователей – правда, со скрытыми адресами — для улучшения функции «умных ответов». При этом компания в своей политике конфиденциальности не указывала, что ее люди будут просматривать электронные письма пользователей.

Такие компании, отмеченные в статье WSJ, конечно, далеки не новички в использовании людей вместо ИИ. Еще в 2008 году Spinvox, компания, которая превращала голосовые сообщения в текст, обвинялась в использовании для свое работы людей в зарубежных колл-центрах, а не компьютеров.

В 2016 году Bloomberg рассказал о тяжелом положении людей, которые проводили по 12 часов в день, притворяясь чатботами служб календарного планирования, таких как X.ai и Clara. Работа была настолько выматывающей, что сотрудники заявляли о том, что с нетерпением ждут замены ботами.

В 2017 году приложение для управления бизнес-расходами Expensify признало, что оно использовало людей для транскрибирования голоса, по крайней мере, в некоторых случаях. Сканы документов отправлялись в краудсорсинговую платформу Amazon Mechanical Turk, где низкооплачиваемые работники расшифровывали и записывали их.

«Интересно, знают ли пользователи Expensify SmartScan, что работники MTurk читают и записывают их документы», — спрашивает Рошель ЛаПланте, Turk-ер и адвокат работников гиг-экономики в Twitter. «Я смотрю на чей-то чек от Uber и вижу полное имя, адрес посадки и высадки».

Даже Facebook, который вложил значительные средства в ИИ, полагался на людей в своем виртуальном помощнике для Messenger под названием M.

В некоторых случаях люди используются для обучения ИИ и повышения его точности. Компания под названием Scale предлагает людям размечать учебные данные для автономных автомобилей и других систем на основе AI. Ее работники, например, могут смотреть на записи камер или на данные от датчиков и маркировать автомобили, пешеходов и велосипедистов. Далее, при достаточной человеческой калибровке, ИИ научится распознавать эти объекты сам.

В других случаях компании подделывают технологии до тех пор, пока они не действительно не реализуют их, сообщая инвесторам и пользователям, что они разработали масштабируемую ИИ-технологию, хотя тайно полагаются на человеческий интеллект.

Элисон Дарси, психолог и основатель Woebot, чатбота в области психического здоровья, описывает это как «технику Волшебника страны Оз».

«Вы имитируете конечный опыт. Во многих случаях, когда дело доходит до ИИ, за занавесом прячется человек, а не алгоритм», — говорит она, добавляя, что для создания хорошего AI требуются «тонны данных», а иногда разработчики просто хотели бы узнать, есть ли достаточный спрос на сервис, прежде чем инвестировать в его разработку.

По ее словам, однако, этот подход не работает для службы психологической поддержки, такой, как Woebot.

«Как психологи, мы руководствуемся этическим кодексом. Один из его этических принципов — не обманывать людей».

Исследования показали, что в области поиска помощи для психического здоровья, люди склонны больше раскрываться машинам, а не другим людям.

Команда из Университета Южной Калифорнии проверила это с помощью виртуального терапевта Элли. Они обнаружили, что ветераны с посттравматическими стрессовыми расстройствами с большей вероятностью раскрывали свои симптомы ИИ-системе, а не другому человеку, управляющему машиной.

Многие считают, что компании всегда должны быть прозрачными в отношении того, как работают их сервисы.

«Мне это не нравится», — говорит ЛаПланте про компании, которые притворяются, что предлагают услуги на базе AI, а на самом деле используют людей. «Это кажется мне обманом – это не то, что я бы хотел от бизнеса, которым я пользуюсь».

«С точки зрения работника его заталкивают за ширму. Никому не нравится, когда труд используется компанией, которая потом лжет своим клиентам о том, что происходит на самом деле».

Справедливо и обратное – никому не нравится, когда ИИ притворяется человеком. Недавний пример — Google Duplex, умный помощник, который может делать реалистичные телефонные звонки для назначения встреч или бронирования мест.

После первоначального неприятия Google сказал, что ее ИИ будет идентифицировать себя в разговорах с  людьми.

Несмотря на то, что бронирование столика в ресторане может показаться мало значащим  делом, такая же технология может быть гораздо более манипулятивной в неправильных руках.

Что произойдет, если вы сможете делать реалистичные звонки, имитирующие голос знаменитости или политика, например?

«С искусственным интеллектом уже связаны большие опасения, и они не помогают общению в условиях недостатка прозрачности», — сказала Дарси.

Если вы нашли опечатку - выделите ее и нажмите Ctrl + Enter! Для связи с нами вы можете использовать info@apptractor.ru.
Advertisement

Наши партнеры:

LEGALBET

Мобильные приложения для ставок на спорт
Telegram

Популярное

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: