Всё, что нужно знать об искусственном интеллекте. Почему ии сложно с иронией в тексте и чем он опасен

Когда люди наблюдают за техникой, которая ведёт себя подобно человеку и компьютерами, которые обрабатывают титанические объёмы данных, возникает немало мыслей о будущем. Приличная их часть основана на теме порабощения человеческой расы.

Научно-фантастическая литература и кинематограф от «2001: Космическая одиссея» (1968) до «Мстители: Эра Альтрона» (2015) прогнозируют, что искусственный интеллект превзойдёт ожидания создателей и выйдет из-под контроля. Якобы его целью станет не просто конкуренция с человеком, а порабощение и истребление нашего вида.

Научная фантастика или страшное будущее?

Конфликт между людьми и искусственным интеллектом основная тема научно-фантастического сериала «Люди», третий сезон которого вышел в этом году. В новых эпизодах «синтетические» люди сталкиваются с враждебностью обычных людей, которые относятся к ним с подозрением, страхом и ненавистью. Насилие бушует. «Синты» воюют за свои основные права против тех, кто считает их нечеловечными.

Фантастика – крайность воображения. Но и в реальном мире не все желают встречать ИИ с распростёртыми объятиями. В последние годы границы воображаемых возможностей искусственного интеллекта активно раздвигаются. Люди все чаще говорят о его опасности. А предположения о том, что технологии способны обречь человечество, кажутся реальнее. Искусственный интеллект пугает нас.

Мнение об искусственном интеллекте

Илон Маск – один из самых заметных людей, которые призывают к осторожности, обсуждая ИИ. В июле прошлого года на встрече Национальной ассоциации губернаторов он сказал: «Я обладаю большим опытом работы с технологичными ИИ и думаю, что человечеству действительно необходимо об этом беспокоиться. Я продолжаю давать сигнал тревоги. Пока роботизированные машины не пойдут по улицам, уничтожая людей, мы не поймём, как на это реагировать, потому что такая перспектива воспринимается как нереальная».

В 2014 году, Маск называл искусственный интеллект «нашей самой большой экзистенциальной угрозой», а в августе 2017 заявил, что для человечества ИИ представляет больший риск, чем северокорейская идеология.

Величайший физик Стивен Хокинг также выражал беспокойство по поводу злоумышленного применения искусственного интеллекта. В 2014 году он сообщил BBC, что «развитие полноценного ИИ может стать предзнаменованием конца для человечества».

Ещё один удар нанесла команда программистов из MIT Media Lab в Кембридже, которая решила доказать, что ИИ опасен. Нейронная сеть Nightmare Machine («Машина кошмаров»), представленная в MIT в 2016 году, превратила обычные фотографии в ужасные демонические пейзажи. Искусственный интеллект под названием Shelly (так же разработан в MIT), сочинил 140 000 рассказов в жанре ужасов, которые пользователи Reddit публиковали на форуме r/nosleep.

«Нас интересует, как искусственный интеллект вызывает эмоции, конкретно в этой ситуации он спровоцировал страх» — прокомментировал эксперимент Мануэль Себриан, менеджер по исследованиям MIT Media Lab.

Почему мы боимся?

По мнению Килиана Вайнбергера, доцента кафедры информатики в Корнельском университете, негативные впечатления от искусственного интеллекта делятся на две категории:

Идея о том, что ИИ станет сознательно-независимым и попытается уничтожить нас.
Мнение, что злоумышленники будут использовать ИИ в своих целях.

«Искусственный интеллект пугает нас, потому что мы думаем, что супериндустриальный ИИ, став умнее человека, будет относиться к нему, как к низшему существу. Так же, как мы – к приматам. И это, конечно, крайне волнительно для человечества».

Однако Вайнбергер отмечает, что опасения по поводу превосходства и желания ИИ уничтожать расу базируются на неправильных представлениях об этой технологии. Искусственный интеллект впечатляет, когда мы видим его в действии. Но он имеет и массу ограничений. ИИ определяется алгоритмами. Они задают его поведение с помощью предписанных функций и не более того.

Нейронные сети выполняют сложные задачи с несколькими видами данных. Но большинство навыков, которыми человек обладает, даже не развивая их намеренно, для машинного интеллекта недоступны.

Искусственный разум может во много раз превзойти человека в выполнении специализированных работ. Например, игре в шахматы, идентификации объектов по изображению или большому анализу данных в бухгалтерии или банковском секторе.

У ИИ, который бы обладал самостоятельным сознанием, не будет такого прогресса, что он поработит человечество. И нет оснований считать, что подобный прогресс появится в скором будущем — добавляет Вайнбергер.

Но есть ещё одна тема о том, почему искусственный интеллект пугает нас – это использование возможностей ИИ людьми с плохими намерениями. Этот сценарий более реален и опасен.

Рационален ли наш страх?

В мире телесериала «Люди» человечество испытывает страх перед разумным ИИ и вступают в ожесточённую конфронтацию с ним. И, судя по популярности проекта, этот сюжет отвечает на актуальный запрос общества.

Боязнь технологий нельзя назвать необоснованной, поскольку определённый риск, безусловно, присутствует. Но опасность любого инструмента заключается в мыслях того, кто им управляет. Очевидно, именно этот вопрос необходимо решить человечеству, чтобы искусственный интеллект служил во благо.

16.11.2016

-

Искусственный интеллект (ИИ) в связке с робототехникой – одна из наиболее обсуждаемых сегодня тем. Однако область находится в самом начале пути своего развития. «Ещё не лето, но уже ранняя весна», – образно выразился ректор Сколтеха, академик Александр Кулешов. На какой стадии развития находятся технологии ИИ? Что не смогут заменить роботы? Что это, вообще, такое – искусственный интеллект? Всё это обсудили учёные, инженеры и представители бизнеса на конференции Skolkovo.AI 14 ноября.

Искусственный интеллект – это научное направление, целью которого является создание искусственных устройств, способных к обучению или направленному поведению и рациональным рассуждениям

Что такое искусственный интеллект?

Почти на каждом из выступлений конференции вставал вполне очевидный вопрос о том, что же такое «искусственный интеллект». Докладчики, эксперты этой области давали диссонирующие варианты ответа, начиная с «технологий, решающих элементарные задачи» и заканчивая «технологиями, решающими сложные задачи». Такая «разбросанность» говорит о том, насколько ещё непрочен фундамент этой области исследований и насколько по-разному люди видят границы того, чему посвящают жизнь.

Точные научные формулировки – хлеб учёных. Поэтому определение ИИ надёжнее всего было доверить президенту Российской ассоциации искусственного интеллекта д.ф. - м.н. профессору Геннадию Осипову:

«Искусственный интеллект – это научное направление, целью которого является создание искусственных устройств, способных к обучению или направленному поведению и рациональным рассуждениям. Нерациональное рассуждение и неразумное поведение нас не интересует, а вот для человека это характерно».

ИИ – здесь и сейчас

Теперь можно осмотреться и понять, что на сегодняшний день относится к искусственному интеллекту.

Например, МакАвто, в котором начали применять ИИ. Вместо того чтобы клиент общался с оператором, устанавливают устройство, которое записывает его заказ с учётом уличного шума и громких детских голосов из машины. Добиться чистой расшифровки получается благодаря достаточно сложным технологиям ИИ.

The Economist использовало платформу искусственного интеллекта Microsoft для интерактивной версии дебатов Трампа и Клинтон – читателям (или, скорее, зрителям) предлагался видеоряд с описанием эмоций кандидатов во время политических прений, созданный с помощью сканирования и анализа выражений их лиц.

Ещё один пример – система Cocoon, которая с помощью микрофона слушает и запоминает звуковой шаблон дома. После этого она уведомляет клиента о том, что происходило в доме в отсутствие членов семьи.

Через десятилетия эти технологии, возможно, покажутся нам примитивными. Но ведь и способность компьютера посчитать «2х2» сейчас язык не повернётся назвать хайтеком, хотя когда-то это было прорывом.

Основная задача искусственного интеллекта

«Мы перекладываем на машины ограничения. Мы не могли обладать всеми знаниями мира, потому что не могли прочитать и запомнить всю информацию, так как наши «канал» и «носитель» ограничены. Сейчас мы это можем, потому что у нас есть экстендеры в виде Google, Wikipedia и прочего.

Теперь нам необходимо не обладание знаниями, а их добывание. То есть это совершенно другой тип мышления, который при том же количестве нейронов в мозгу позволяет суммарно обладать значительно большим количеством знаний, находящихся в операционном управлении.

Иными словами, человека интересует расширение своих возможностей и увеличение доли своей свободы», – рассуждает ВРИО гендиректора РВК Евгений Кузнецов.

Как писал в одном из своих трудов С.П. Капица, в мире нет проблемы нехватки еды и ресурсов, но есть проблема их распределения.

«В XIX веке стояла проблема создания ресурсов (строили фабрики и осваивали новые способы производства). XX век – парадигма контроля и порождение потока цифровой информации. В XXI веке задача заключается не в том, чтобы производить и контролировать вещи, не в том, чтобы собирать информацию. Задача состоит в фильтрации и принятии решений на основе собранной информации. Тот ИИ, который мы по-тихоньку начинаем создавать, как раз эту проблему решает», – добавил руководитель робототехнического центра Фонда «Сколково» Альберт Ефимов.

«Нужны ли мы нам?»

Интеллект машин становится всё более сложным, в связи с чем встаёт вопрос: нужны ли тогда будут люди? В 2013 году Oxford e-Research Centre опубликовал исследование «Работа будущего» о компьютеризации различных профессий, рассмотрев более 700 специальностей. В рамках работы исследователи выделили три направления, которыми человек отличается от машины. Это креативность, социальное взаимодействие с окружающими и манипуляция объектами внешнего мира. «Ответ на вопрос «нужны ли мы нам» заключается в следующем: да, нужны, но только тогда, когда выполняем эти три требования. Таким образом, по мнению учёных, профессия садовника, например, не умрёт никогда, так как подходит всем трём условиям», – делает вывод Ефимов.

Наука и технологии России

  • Перевод

Истерия вокруг будущего искусственного интеллекта (ИИ) захватила мир. Нет недостатка в сенсационных новостях о том, как ИИ сможет лечить болезни , ускорять инновации и улучшать творческий потенциал человека. Если читать заголовки СМИ, вы можете решить, что уже живёте в будущем, в котором ИИ проник во все аспекты общества.

И хотя нельзя отрицать, что ИИ открыл нам богатый набор многообещающих возможностей , он также привёл к появлению мышления, которое можно охарактеризовать, как веру во всемогущество ИИ. По этой философии, при наличии достаточного количества данных, алгоритмы машинного обучения смогут решить все проблемы человечества .

Но у этой идеи есть большая проблема. Она не поддерживает прогресс ИИ, а наоборот, ставит под удар ценность машинного интеллекта, пренебрегая важными принципами безопасности и настраивая людей на нереалистичные ожидания по поводу возможностей ИИ.

Вера во всемогущество ИИ

Всего за несколько лет вера во всемогущество ИИ пробралась из разговоров технологических евангелистов Кремниевой долины в умы представителей правительств и законодателей всего мира. Маятник качнулся от антиутопического представления об уничтожающем человечество ИИ к утопической вере в пришествие нашего алгоритмического спасителя .

Мы уже видим, как правительства обеспечивают поддержку национальным программам развития ИИ и соревнуются в технологической и риторической гонке вооружений , чтобы получить преимущество в бурно растущем секторе машинного обучения (МО). К примеру, британское правительство пообещало вложить £300 млн в исследования ИИ, чтобы стать лидером этой области. Очарованный преобразовательным потенциалом ИИ, французский президент Эмманюэль Макрон решил превратить Францию в международный центр ИИ . Китайское правительство увеличивает свои возможности в области ИИ с помощью государственного плана по созданию китайской ИИ-индустрии объёмом в $150 млрд к 2030 году. Вера во всемогущество ИИ набирает обороты и не собирается сдаваться.

Нейросети – легче сказать, чем сделать

В то время как многие политические заявления расхваливают преобразующие эффекты надвигающейся "революции ИИ ", они обычно недооценивают сложности внедрения передовых систем МО в реальном мире.

Одна из наиболее многообещающих разновидностей технологии ИИ – нейросети . Эта форма машинного обучения основывается на примерном подражании нейронной структуры человеческого мозга, но в гораздо меньшем масштабе. Многие продукты на основе ИИ используют нейросети, чтобы извлекать закономерности и правила из больших объёмов данных. Но многие политики не понимают, что просто добавив к проблеме нейросеть, мы не обязательно тут же получим её решение. Так, добавив нейросеть к демократии, мы не сделаем её мгновенно менее дискриминированной, более честной или персонализованной.

Бросая вызов бюрократии данных

Системам ИИ для работы нужно огромное количество данных, но в госсекторе обычно не бывает подходящей инфраструктуры данных для поддержки передовых систем МО. Большая часть данных хранится в офлайн-архивах. Небольшое количество существующих оцифрованных источников данных тонут в бюрократии. Данные чаще всего размазаны по различным правительственным департаментам, каждому из которых для доступа требуется особое разрешение. Кроме всего прочего, госсектору обычно не хватает талантов, оснащённых нужными техническими способностями, чтобы в полной мере пожать плоды преимуществ ИИ .

По этим причинам связанный с ИИ сенсационализм получает множество критики. Стюарт Рассел, профессор информатики в Беркли, давно уже проповедует более реалистичный подход, концентрирующийся на простейших, повседневных применениях ИИ, вместо гипотетического захвата мира сверхразумными роботами. Сходным образом профессор робототехники из MIT, Родни Брукс, пишет , что «почти всем инновациям в робототехнике и ИИ требуется гораздо, гораздо больше времени для реального внедрения, чем это представляют себе как специалисты в этой области, так и все остальные».

Одна из множества проблем внедрения систем МО состоит в том, что ИИ чрезвычайно подвержен атакам . Это значит, что злонамеренный ИИ может атаковать другой ИИ, чтобы заставить его выдавать неправильные предсказания или действовать определённым образом. Многие исследователи предупреждали о том, что нельзя так сразу выкатывать ИИ, не подготовив соответствующих стандартов по безопасности и защитных механизмов . Но до сих пор тема безопасности ИИ не получает должного внимания.

Машинное обучение – это не волшебство

Если мы хотим пожать плоды ИИ и минимизировать потенциальные риски, мы должны начать размышлять о том, как мы можем осмысленно применить МО к определённым областям правительства, бизнеса и общества. А это значит, что нам необходимо начать обсуждения этики ИИ и недоверия многих людей к МО.

Самое важное, нам нужно понимать ограничения ИИ и те моменты, в которые люди всё ещё должны брать управление в свои руки. Вместо того, чтобы рисовать нереалистичную картину возможностей ИИ, необходимо сделать шаг назад и отделить реальные технологические возможности ИИ от волшебства.

В медицине тоже признают, что ИИ нельзя считать решением всех проблем. Программа "IBM Watson for Oncology " была ИИ, который должен был помочь докторам бороться с раком. И хотя она была разработана так, чтобы выдавать наилучшие рекомендации, экспертам оказывается . В результате программу закрыли в большинстве госпиталей, где проходили её пробные запуски.

Схожие проблемы возникают в законодательной области, когда алгоритмы использовались в судах США для вынесения приговоров. Алгоритмы подсчитывали значения рисков и давали судьям рекомендации по приговорам. Но обнаружилось, что система усиливает структурную расовую дискриминацию, после чего от неё отказались.

Эти примеры показывают, что решений на основе ИИ для всего не существует. Использование ИИ ради самого ИИ не всегда оказывается продуктивным или полезным. Не каждую проблему лучше всего решать с применением к ней машинного интеллекта. Это важнейший урок для всех, кто намеревается увеличить вложения в государственные программы по развитию ИИ: у всех решений есть своя цена, и не всё, что можно автоматизировать, нужно автоматизировать.

Теги: Добавить метки

Введение

Ища истоки идей искусственного интеллекта, можно привести множество фактов и мифов. Начиная от древнегреческого робота Талоса, созданного Зевсом для охраны острова Крит, или Чарльза Бэббиджа с Адой Лавлейс и их Аналитическим Двигателем середины 19 века и заканчивая идеями Мински и МакКартни, создавших современное определение ИИ как любого действия, выполненного программой или машиной, про которое, если бы его выполнял человек, мы бы сказали, что ему нужно проявить интеллект или смекалку.

Мне же истоки зарождения ИИ видятся в книге Галилео Галилея 1683 года «Беседы и математические доказательства двух новых наук».

В этой книге Галилей, в частности, написал, что всё в мире, в том числе природные явления, может быть выражено языком математики. Получается, что для любого явления или действия можно придумать алгоритм. Таким образом, искусственный интеллект – это набор алгоритмов на все случаи жизни. А одной из главных способностей ИИ станет умение на основе имеющихся данных самостоятельно синтезировать новые алгоритмы.

В усеченном виде это уже возможно. Например, AlphaGo от Google, проанализировав базу данных из 30 миллионов ходов и потренировавшись с самим собой несколько тысяч раз, смог победить лучшего игрока в мире по игре в го.


А IBM натаскивает свой суперкомпьютер Watson на помощь врачам. Задача – научить компьютер искать ответы на вопросы, заданные естественным языком, то есть Watson учится проводить медицинский опрос. Своего рода игра в дифференциальную диагностику, только компьютер вместо доктора Хауса. Собственно, на этом закончим с историей. В головах обывателей искусственный интеллект – это Джарвис из комиксов про «Железного человека», Терминатор или, на худой конец, Робокоп (в фильме именно добавленный ИИ помогает киборгу очень быстро и точно стрелять). Такой вариант, конечно, имеет место быть, но давайте начнём с того, что доступно сегодня.

Какие типы ИИ есть сегодня?

В целом, все типы ИИ можно разделить на две категории – слабый, или ограниченный ИИ и общий, или сильный ИИ.

Слабый ИИ

Собственно, названия говорят сами за себя. ИИ сегодня представляют собой первый тип – ограниченный, то есть интеллект заточен на определенные задачи. Например, когда Samsung обещает, что к 2020 году каждое его устройство будет обладать ИИ, то подразумевается именно ограниченный вариант. Примерами могут служить Siri или Алиса, которые умеют делать ровно то, что в них запрограммировали. Алиса даже так и отвечает, когда чего-то не знает или не умеет: «Программист обещал обучить меня этому позже».

К этому же типу относятся Google и Yandex карты, анализирующие пробки и прокладывающие маршруты, фотокамеры, распознающие сцены, интеллектуальная печь, самостоятельно регулирующая уровень жара, и робот-пылесос, который, как ему ни объясняй, умеет только пылесосить, а тапочки не подаст.

И пока что это ограниченный ИИ – это единственный тип искусственного интеллекта, который освоило человечество. Слабый ИИ можно разделить по ключевым задачам, над которыми и работают специалисты сегодня. Это:

  • распознавание речи;
  • компьютерное зрение;
  • обработка естественного языка;
  • поиск паттернов, или анализ данных;
  • робототехника.

Добиться решения этих задач, то есть научить некий ИИ понимать ваши слова и узнавать картинки, можно двумя способами.

  1. Символьный подход.

    Такой подход был ведущим начиная с конца 40-х и заканчивая началом 90-х. Метод основывается на том, что считалось, что лучший способ «обучить» ИИ – это скормить ему как можно больше знаний. Например, если говорить в контексте медицины, то в ИИ загружают всевозможные учебники и базы знаний. И ответы ИИ ищет только на основе имеющейся информации, обрабатывая знания лишь по тем правилам, которые создал программист.

    Соответственно, такой тип ИИ хорош для решения статических проблем. Например, в него можно загрузить все учебники по русскому языку, и ИИ сможет хорошо проверять сочинения, находя орфографические, пунктуационные ошибки, а ориентируясь на орфоэпические нормы, даже сможет вычленять речевые ошибки и недочеты. Однако будет делать это, только основываясь на правилах, то есть не понимая контекст, а вычленяя правильный порядок слов и написание.

    Ещё один пример – это машинный перевод. Символьно-обученный ИИ вооружен всевозможными словарями и разговорниками. И если предложенная ему на перевод фраза есть в одном из них, то он её переведёт хорошо, а если нет, то просто подставит слова, предлоги и структуру предложения на основе заложенных правил.

  2. Машинное обучение, или несимвольный ИИ.

    В отличие от символьного, этот вариант обучения подразумевает, что искусственному интеллекту показали, как решать определенную проблему, после чего пустили в свободное плавание. Так действуют нейронные сети. Помню, читал про пример, где программист подключил ИИ к управлению поливалками и научил отгонять водой соседскую кошку, которая повадилась ходить в туалет на газон. Программист показал ИИ множество фотографий с кошками, после чего у искусственного интеллекта выработался рефлекс включать поливалку каждый раз, когда ему казалось, что он видит нечто, похожее на кошку. Система не всегда работала гладко. Кажется, она как-то включилась, когда ИИ принял тень на асфальте за кошку.

    Если же говорить про пример с переводом, то натренированный ИИ может попытаться осознать контекст фразы и подставить в переводе не первое отвечающее базовым требованиям слово, а то, которое, на его взгляд, лучше отражает стиль, эмоцию, сленг или что-то ещё, на чём его тренировали.

Сегодня большинство программистов предпочитают использовать второй тип – машинное обучение, потому он умеет, если так можно выразиться, импровизировать. Например, если автономную машину натренировать по первому типу, то она будет ездить по правилам, но если на дороге возникнет непредвиденная ситуация, то машина окажется в затруднении. А автомобиль, натренированный машинным обучением, может действовать по обстоятельствам, синтезируя идеи на основе скормленной ранее информации.

Тут же возникает и проблема. Одна из ключевых важных особенностей символьного ИИ в том, что система всегда может объяснить, почему приняла то или иное решение. А вот в случае с машинным обучением всё непросто. Именно поэтому те же UBER или Tesla долго разбираются, пытаясь понять, почему их машины приняли то или иное решение, повлекшее аварию.

Однако для тех же автомобилей символьное обучение не подходит, так как все правила для ИИ заносят вручную, то есть, условно говоря, нужно прописать все варианты действия для автомобиля – на дорогу выбежал человек, выкатилась коляска, вылетела коробка и т.д. Что-то забыл прописать, и неожиданно выяснилось, что машина сбила лося, потому что про него ничего не было сказано в своде правил, в то время как машинный ИИ сможет догадаться, что нельзя сбивать всех четвероногих.

У слабого ИИ, как видите, несмотря на его ограниченность, множество способов применения – это и умная техника, и самостоятельные автомобили, и обработка данных с попытками предсказаний будущего. К слову, Google Duplex, умеющий заказывать столики в ресторане, - это тоже ограниченный ИИ, так как умеет он ровно то, чему его обучили.

Сильный ИИ (самостоятельный)

Здесь уже начинается область гипотез, так как ничего подобного человечество ещё не видело. Возможно, только в недрах Google или IBM живёт что-то полуразумное. На последней конференции Google I/O очень умная китайская женщина Фей Фей Ли (Fei Fei Li), самая главная в департаменте Машинного обучения и Искусственного Интеллекта в Google Cloud, сказала, что, хоть и прошло уже более 60 лет с момента исследований в области ИИ, но наука до сих пор находится на начальном этапе, и пока можно говорить только о том, чтобы достичь мастерства в разработках ограниченного ИИ.


Однако предлагаю немного пофантазировать про сильный ИИ и попробовать определить, что он из себя должен представлять и что уметь. Считается, что сильный ИИ – это по уму как среднестатистический человек, то есть в теории он может решить любую проблему.. И если перед первым стояла задача любыми способами уничтожить Джона Коннора, то второй жаждет максимальной энтропии. Терминатор, если закрыто метро, поедет убивать Джона Коннора на автобусе, а если сломается автобус, то пойдет пешком или вызовет такси, а недоброжелатель будет писать, что всё реклама, что автор ничего не понимает, будет пытаться заниматься демагогией и софизмами. Собственно, больше всего разжиться сильным ИИ мечтают правительства по всему миру для ведения военных действий и саботажа выборов в США армией компьютерных ботов-троллей.

В Google говорят, что если всё будет хорошо, то к 2050 году, возможно, произойдёт прорыв и появится первый сильный ИИ.

Основная слабость такого ИИ заключается в том, что он, несмотря на все свои способности, по-прежнему остаётся относительно недалеким, как и среднестатистический человек, но, в отличие от человека, сильный ИИ всё помнит и лучше ориентируется в поисках и обработке информации.

Суперсильный интеллект

Это уже совсем из области фантастики. Например, к просто сильному интеллекту можно отнести и Пятницу/Джарвиса из «Железного человека».


Если помните, то в одном из фильмов главный герой Тони Старк пытался изобрести какой-то новый нетоксичный источник энергии, чтоб поместить его себе в грудь. Джарвис ему ассистировал, но решить задачу мог всё равно только Тони Старк, потому что у ИИ не хватало «соображалки». Суперсильный интеллект сможет самостоятельно решать даже самые сложные задачи. Именно ему человечество задаст вопрос, на который он ответит «42», а потом суперсильный ИИ поместит всех людей в чаны с жидкостями и создаст феномен избранного (это не белиберда, а аллюзии на книгу «Автостопом по Галактике» и фильм «Матрица»).

Нужно ли бояться ИИ?

Несмотря на все фантастические фильмы, опасаться не нужно, по крайней мере, до появления последнего типа ИИ. Однако нужно бояться людей, которые занимаются разработками, так как вследствие ошибки или сознательно в тот же ограниченный ИИ может быть заложено правило «убить всех человеков» вместо «учить всех человеков». А дальше для ИИ дело за малым – лишь уточнить в словаре значения всех слов и приступить к делу.


Однако развитие даже ограниченного ИИ уже привело и ещё приведет к множеству проблем в современном обществе.

Проблема первая

Одна из проблем – это разрушение традиционной карьерной лестницы, так как развитие ИИ приводит к отказу от рабочих мест, требующих среднего уровня квалификации. Поясню подробнее. Нужна дешевая рабочая сила, чтобы заносить данные в компьютер, так как, условно говоря, распознавать «капчу» человек по-прежнему умеет лучше. Также нужны и те, кто будет принимать решения на основе обработанных компьютером данных. А вот рядовые аналитики уже не нужны, потому что они анализируют и изучают данные на основе выученных алгоритмов. Например, в мою бытность аналитиком я имел на вооружении 42 различных варианта обработки данных для создания прогнозов. Все эти варианты были упорядочены в аккуратную презентацию, к которой я регулярно обращался, чтобы прикинуть, какой способ лучше использовать в той или иной ситуации. Замена меня на ИИ представляется логичной и обоснованной, так как он с задачами прогнозирования справится гораздо быстрее. Соответственно, получается разрыв, когда отпадает традиционная карьерная лестница от младшего аналитика до руководителя, так как в нижней точке карьеры практически нет маневра для демонстрации интеллекта.

Проблема вторая

Также из-за ИИ постепенно произойдет отказ от базовых профессий, которые можно алгоритмизировать, то есть свести к простым действиям. Что-то подобное сейчас можно наблюдать в «Ашанах» и «Лентах», где происходит постепенная замена кассиров на аппараты самообслуживания, а также одного сотрудника, помогающего решить возникающие проблемы, и охранника, следящего за порядком. В дальнейшем охранника заменят камеры наблюдения, следящие за порядком. Получается, что произойдет снижение ценности людей.


Профессии, которые с большой долей вероятности заменит ИИ: почтальоны, ювелиры, лесорубы, фермеры, рабочие на заводах, страховщики

Прочитал, что Сан-Франциско в какой-то степени может служить иллюстрацией данной проблемы. Этот город в США облюбовала технологическая элита. Соответственно, экономика города направлена на удовлетворение потребностей элиты, а вот люди, которые не имеют отношения к экономике технологий, испытывают колоссальные проблемы. Они зарабатывают гораздо меньше, а все ценники в городе выставлены как для IT-стартаперов. Обычные люди не могут потянуть такие расходы, поэтому или переезжают, или пополняют и без того огромную армию бомжей.

Однако здесь есть ключевая особенность, которая сохранит некоторые профессии. Искусственному интеллекту для работы нужны созданные условия. Например, робот-пылесос умеет ездить только по гладкому полу и преодолевать небольшие неровности. Соответственно, многие базовые профессии смогут продержаться до тех пор, пока будет чересчур сложно и дорого создавать их искусственную замену. Например, в помещении, где много дверей, роботу-уборщику нужно иметь или манипуляторы, чтобы крутить дверные ручки, или нужно, чтоб все двери открывались автоматически. И то и то достаточно дорого, а вот у приезжего Сархата из Средней Азии есть руки и мозгов хватает, чтоб управиться со шваброй и дверной ручкой, но нет регистрации и сниженные требования к зарплате.

Проблема третья

Даже ограниченный ИИ сильно простимулировал такое явление, как фриланс. Платформы по подбору и найму удаленных сотрудников с каждым годом процветают всё больше и больше. Например, по последним статистическим данным, в США, первой экономике мира, 55 миллионов человек работает на фрилансе.


И это в текущем поколении, обратите внимание на иллюстрацию. Подрастающая рабочая сила не любит сидеть в офисе. Соответственно, произойдет сдвиг в организации труда. Компании столкнутся с проблемами по набору и удержанию сотрудников, ведь зачем посвящать жизнь одной компании, когда ты доступен онлайн и можно искать работу по всему миру.

Проблема четвертая

Достаточно серьезная проблема – это социальное неравенство, которое уже упомянул в проблеме номер 2. Оно будет усугубляться. Полагаю, из статьи вы догадались, что чтобы быть успешным в новом мире, нужно быть сообразительным и на «ты» с современными технологиями. Не секрет, что у бедных людей хуже с доступом к образованию. Соответственно, бедные не смогут вырваться на новый уровень, так как у них попросту не будет шанса научиться чему-то полезному, так как, чтобы хорошо думать, нужны годы усиленных тренировок, а где их взять, когда нужно искать еду.

Новому обществу нужна или дешевая рабочая сила, или интеллектуалы, принимающие решения.

Проблема пятая

Её можно сформулировать кратко – кто у руля? На людей, занимающихся разработкой систем ИИ, будет накладываться особая ответственность, так как они обучают ИИ, на основе каких данных ИИ будет принимать решения. Будут это законы робототехники от Азимова или иные правила, защищающие определенную прослойку людей.

Почему искусственный интеллект – это благо?

Перечисленные выше проблемы выглядят в какой-то степени пугающе, но ИИ – это обоюдоострый меч, который может и помогать.

Благо 1

Искусственный интеллект послужит мощным толчком для развития многих сфер. Хороший пример – это медицина. Сегодня в 21 веке врачи продолжают лечить так же, как и сотню лет назад. Они зубрят учебники. Это плохой вариант, так как ни один врач не может помнить наизусть все симптомы всех болезней. Последствия таких ошибок могут быть фатальными. Местный врач до последнего уверяла, что причины недомогания моей матери заключаются в простуде и усталости, так как все основные симптомы налицо. И только когда уже было поздно, прозвучал правильный диагноз – острый лейкоз, заболевание, которое достаточно сложно распознать. И в данной ситуации наличие ИИ, который помнит все болезни и симптомы и который никогда не устаёт, было бы выходом.

Такие же сдвиги могут произойти в области права, где юристам и судьям нужно держать в памяти все законы, прецеденты и множество доказательств.

Благо 2

ИИ поможет создать персонализированный опыт. Лучше всего это утверждение можно проиллюстрировать на примере обучения. Сегодня учителя перегружены, и они физически не могут уделить внимание всем ученикам. А ведь у каждого свой темп освоения нового материала. Системы обучения, основанные на ИИ, следят за скоростью обучения, видят, хорошо или плохо ученик запоминает материал, читает внимательно или отвлекается. На основе этого выстраивается индивидуальный темп обучения и происходит подбор упражнений для закрепления.

При этом есть факт, что людям проще постигать новый материал с помощью ИИ, так как в таком случае значительно снижается страх ошибки. Могу согласиться с этим утверждением. Морально легче получить возмущенный бип от компьютера, что пример решен неверно, чем выдержать взгляд Ольги Степановны, моего преподавателя по математике.

ИИ сможет уделять равное внимание всем людям. Сюда относятся все области, от образования и медицины до подбора модного имиджа (в соответствии с типом фигуры, формой лица и трендами сезона) и тренировок в спортзале.

Благо 3

Уже сегодня наш мир переполнен информацией. Любые данные собираются отовсюду, начиная от погодных условий и заканчивая тем, сколько шагов прошел человек.

Искусственный интеллект с доступом к большим данным сможет анализировать эти данные и искать корреляцию, как влияет количество шагов на здоровье, но не абстрактно, а с учетом определенной погоды. Анализ перемещения пассажиропотоков поможет снизить загруженность, уменьшить количество транспортных коллапсов в часы пик. Короче говоря, те данные, которые можно проанализировать, будут проанализированы, и ИИ представит свои выводы.

Заключение

Сегодня искусственный интеллект продемонстрировал, что неплохо умеет решать только те задачи, которым его обучили, и даже быть лучше в них, чем обычные люди. Смартфон легко обыграет гроссмейстера даже без ферзя, японский ИИ, написавший небольшой роман, прошел в финал литературного конкурса, а его собратья пишут и исполняют неплохую музыку.

Однако, к сожалению, ИИ до сих пор находится в стадии зарождения. Он умеет только то, чему его научили – проанализировать множество литературных или музыкальных произведений и синтезировать что-то своё или запомнить миллионы ходов и выбирать лучший.

Главные проблемы, стоящие на пути развития ограниченного ИИ, заключаются в отсутствии универсальных алгоритмов познания окружающего мира и инфраструктуры (для сбора данных нужно множество датчиков, для беспилотных авто –дороги с идеальной разметкой, для понимания запросов хозяина голосовым ассистентам нужны более качественные алгоритмы).

Для появления же сильного искусственного интеллекта нужны принципиально иные вычислительные мощности и алгоритмы обработки информации, имитирующие то, что у людей называется интуицией. Вероятно, в ближайшем будущем мы будем наблюдать различные варианты ограниченного ИИ с заложенными алгоритмами поведения на всевозможные условия.

Искусственный интеллект уже в некотором роде помогает определиться вашему будущему. Когда вы ищете что-нибудь в поисковике, пользуетесь сервисом вроде Netflix или банк оценивает вашу пригодность для ипотеки. Но что будет, если искусственному интеллекту придется определять, виновны вы или нет, в суде? Как ни странно, в отдельных странах это уже, возможно, происходит. Недавно американского высокого судью Джона Робертса спросили, может ли он представить день, когда «умные машины, управляемые искусственным интеллектом, будут помогать в поиске улик или даже в принятии судебных решений». Он ответил: «Этот день уже настал, и он существенно помогает судебным органам в производстве дел».

Возможно, Робертс имел в виду недавний случай Эрика Лумиса, которого приговорили к шести годам заключения по рекомендации секретного проприетарного программного обеспечения частной компании. Лумис, который уже имел криминальную историю и был приговорен за то, что бежал из полиции на угнанной машине, теперь утверждает, что его право на процедуру было нарушено, поскольку ни он, ни его представители не смогли рассмотреть или опротестовать алгоритм рекомендации.

Отчет был подготовлен программой Compas, которая продается Notrpointe судам. Программа воплощает новую тенденцию в исследованиях ИИ: помогает судьям принять «лучшее» (или по крайней мере более ориентированное на данные) решение в суде.

Хотя конкретные подробности дела Лумиса остаются закрытыми, в нем наверняка содержатся диаграммы и числа, определяющие жизнь, поведение и вероятность рецидива Лумиса. Среди них возраст, раса, гендерная идентичность, привычки, история браузера и какие-нибудь измерения черепа. Точнее никто не знает.

Известно, что прокурор по делу сказал судье, что Лумис продемонстрировал «высокий риск рецидивизма, насилия, досудебного разбирательства». Это стандартно, когда дело касается вынесения приговора. Судья согласился и сказал Лумису, что «по оценке Compas он был определен как лицо, представляющее высокий риск для общества».

Верховный суд штата Висконсин осудил Лумиса, добавив, что отчет Compas привнес ценную информацию в его решение, но отметил, что без него он вынес такой же приговор. Проверить это наверняка, разумеется, не получится. Какими могут быть когнитивные предубеждения, когда в деле участвует всемогущая «умная» система вроде Compas, которая советует судьям, как им поступать?

Давайте будем откровенны, нет ничего «незаконного» в том, что сделал суд Висконсина - это просто пример. Другие суды могут и будут делать то же самое.

К сожалению, мы не знаем, в какой степени используются ИИ и другие алгоритмы при вынесении приговора. Есть мнение, что некоторые суды «тестируют» системы вроде Compas в закрытых исследованиях, но не могут заявлять о своем партнерстве. Есть также мнение, что несколько стартапов ИИ разрабатывают подобные умные системы.

Однако использование ИИ в законодательстве не начинается и не заканчивается вынесением приговора, оно начинается с расследования. В Великобритании уже разработана система VALCRI, которая выполняет трудоемкие аналитические работы за считанные секунды - пробирается сквозь тонны данных вроде текстов, лабораторных отчетов и полицейских документов, чтобы выделить вещи, которые могут потребовать дальнейшего расследования.

Полиция Уэст-Мидландс в Великобритании будет тестировать VALCRI в течение следующих трех лет, используя анонимные данные, содержащие больше 6,5 миллиона записей. Похожее испытание проводится полицией Антверпена в Бельгии. Однако в прошлом проекты ИИ и глубокого обучения, включающие массивные наборы данных, были проблемными.

Выгоды для немногих

Технологии обеспечили множество полезных приспособлений залам суда, от копировальных аппаратов до извлечения ДНК из отпечатков пальцев и сложных методов наблюдения. Но это не означает, что любая технология - это улучшение.

Хотя использование ИИ в расследованиях и приговорах может потенциально сэкономить время и деньги, оно породит острые проблемы. В докладе по Compas от ProPublica было четко сказано, что черных программа ошибочно считает более склонными к рецидивизму ответчиками, чем белых. Даже самые сложные системы ИИ могут унаследовать расовые и гендерные предубеждения тех, кто их создает.

Более того, какой смысл перекладывать принятие решений (по крайней мере частично) по вопросам, которые уникальны для людей, на алгоритм? В США существует определенная трудность, когда суд присяжных судит своих сверстников. Стандарты в законах никогда не были эталонными, потому эти суды присяжных считаются наиболее демократичными и эффективными системами осуждения. Мы совершаем ошибки, но со временем накапливаем знания о том, как их не совершать, уточняя систему.

Compas и подобные ей системы представляют «черный ящик» в правовой системе. Таковых быть не должно. Правовые системы зависят от непрерывности, прозрачности информации и способности к рассмотрению. Общество не хочет появления системы, которая поощряет гонку с созданием стартапов ИИ, которые делают быстрые, дешевые и эксклюзивные решения. Наспех сделанный ИИ будет ужасным.

Обновленная версия Compas с открытым исходным кодом была бы улучшением. Но сперва придется поднять стандарты системы правосудия, прежде чем мы начнем снимать ответственность в пользу алгоритмов.