Искусственный и верховенствующий? ТОП-3 рисков искусственного интеллекта

"Искусственный интеллект вряд ли разрушит эту планету, безответственное человеческое потребление - вполне"

  • Абхиджит Наскар

Похоже, что ИИ совершил революцию практически во всех отраслях, от алгоритмов поиска и интеллектуальных устройств до робототехники и оружия. Научное общество серьезно взволновано будущими достижениями в области искусственного интеллекта, которые мы ожидаем увидеть в ближайшие десятилетия.

Но помимо очевидных преимуществ ИИ, сегодня центральная тема горячих дискуссий касается рисков, которые представляет собой искусственный интеллект.

Действительно в настоящее время едва ли есть какие-либо предпосылки для того, чтобы развитие искусственного интеллекта могло воплотить в жизнь сценарий “Матрицы” или следовать по пути уничтожения Скайнет из “Терминатора”.

Тем не менее, тот факт, что Билл Гейтс, Илон Маск, Стив Возняк и Стивен Хокинг открыто выразили свою обеспокоенность по поводу рисков, связанных с ИИ, делает проблему контроля ИИ актуальным вопросом для научного сообщества, а не просто теорией антиутопии.

Каковы шансы?

Дело в том, что искусственный интеллект, который активно развивается сегодня, известен как узкий ИИ. Это означает, что технология ИИ используется для выполнения очень конкретных, то есть, узких задач. Например, распознавание голоса / речи, фильтрация спама, генерация рекомендаций, автономные автомобили и т. д.

Долгосрочные перспективы подразумевают развитие так называемого общего ИИ, известного как AGI (Artificial general intelligence) или сильный ИИ. Его конечная цель - полностью имитировать способность человека думать, понимать и решать любые интеллектуальные задачи. И именно отсюда вытекают все противоречия и проблемы, связанные с искусственным интеллектом.

Ключевой опасностью в AGI является риск глобальной катастрофы, когда искусственный интеллект выходит из-под контроля человека. Благодаря способности ИИ к самовоспроизведению и самосовершенствованию, ИИ теоретически может достичь уровня суперинтеллекта, который позволит доминировать над людьми.

Искусственный интеллект, безусловно, обладает всем необходимым потенциалом для того, чтобы быть умнее любого человека. И на данный момент почти невозможно предсказать поведение ИИ в этой ситуации, поскольку мы никогда не имели дело с такого рода технологическим развитием.

Будет ли ИИ слушаться нас?

Стюарт Рассел, специалист по искусственному интеллекту в Беркли, видит основной риск в плохом описании целей или его несовпадении с человеческими мотивами и этикой. Искусственный интеллект пытается выполнить поставленную задачу любыми способами, совсем не обязательно теми, которые мы видим как ее решение. В некоторой степени искусственный интеллект напоминает джинна в бутылке, который буквально понимает желание и не особо беспокоится о том, как именно оно сбудется.

Согласно Расселу, задачи, которые ИИ может выполнять сегодня, относительно ограничены. Действительно, было доказано, что искусственный интеллект может победить нас в Go или Jeopardy, даже сочинять музыку и тексты, но когда дело доходит до более всеобъемлющих целей, ИИ вряд ли сможет правильно интерпретировать все подсмыслы, исключения и возможные последствия так, как подразумевает их человек.

Разработчики искусственного интеллекта должны не только работать над лучшим описанием целей, но и с самого начала программировать искусственный интеллект так, чтобы в первую очередь алгоритм полагался на человеческие предпочтения. Чтобы достичь этого, Рассел предлагает придерживаться трех основных принципов ИИ и помнить о том, что:

  1. ИИ изначально не обладает знаниями о предпочтениях человека.
  2. Основным источником информации для искусственного интеллекта о предпочтениях человека является поведение человека.
  3. Цель ИИ - максимально реализовать человеческие предпочтения.

Опираясь на эти критерии ИИ, Рассел вместе со своей командой проводит практические исследования. Они обучают роботов по образцу человеческого поведения, где выраженные предпочтения точно не сформулированы. Таким образом, команда Рассела пытается выяснить, может ли искусственный интеллект, на самом деле, понять человеческое мышление на лету и «читать между строк».

Системы ИИ передают данные через различные слои нейронных сетей. Такой подход ИИ известен как deep learning и является эффективным методом, который сделал прорыв в искусственном интеллекте. И все же такой подход вряд ли может гарантировать однозначные результаты. Для того чтобы его реализовать, требуется гораздо больше исследований, и для этого есть несколько причин.

Прежде всего, люди несовершенны и иррациональны. Наши подсознательные желания и убеждения часто алогичны и неочевидны, что является основным препятствием для искусственного интеллекта.

Во-вторых, мы можем менять свое мнение и действовать импульсивно под влиянием эмоций, которые могут противоречить стандартам, которых мы, по нашим же словам, можем придерживаться. Мы можем говорить то, что не имеем в виду, и делать то, во что не верим. Итак, если человек сам себя не до конца понимает, можем ли мы научить искусственный интеллект это делать?

Это серьезный вопрос в изучении ИИ, над которым работают многие ученые в области искусственного интеллекта.

Исследования, которые необходимы для решения этой проблемы, продолжаются. Но на данный момент можно с уверенностью сказать, что формализация этой проблемы наряду с получением ожидаемого результата является важной вехой в изучении ИИ.

Оружие или инструмент?

Искусственный интеллект открыл беспрецедентное количество новых возможностей для человечества.

Системы ИИ могут диагностировать деменцию, рак кожи или диабет быстрее, чем врач может их даже заподозрить. Крупные розничные платформы, такие как Amazon, имеют алгоритмы ИИ, которые могут предсказать предпочтения пользователя, в то время как исследователи из Стэнфорда используют ИИ для прогнозирования поведения избирателей при голосовании.

Исследователи ИИ говорят, что искусственный интеллект все еще находится в зачаточном состоянии. Тем не менее, McKinsey сообщает, что даже на этом этапе 80 процентов руководителей утверждают, что интегрируют искусственный интеллект в свои предприятия, и к 2030 году, как ожидается, ИИ обеспечит дополнительный глобальный экономический оборот в размере 13 триллионов долларов в год.

Список отраслей, получающих выгоду от внедрения технологий искусственного интеллекта, продолжает расти. Но следует признать, что опасности, которые влечет за собой искусственный интеллект растут в той же мере.

Это проблемы ИИ, которые в частности, касаются случаев нарушения конфиденциальности, как это было с Facebook; автономного оружия для армий, которые могут себе это позволить; дип фейков и т. д.

Усиленное наблюдение и контроль в общественных местах в сочетании с прогрессом ИИ в распознавании лиц сделало вторжение в частную жизнь в глазах общественности одним из центральных рисков, связанных с ИИ. Фактически основная проблема искусственного интеллекта состоит в том, что некоторые страны, такие как Китай, зашли так далеко, что внедрили систему социального кредитования, которая планирует дать 1,4 миллиарду граждан оценку, отражающую доверие человеку на основе личных данных, собранных искусственным интеллектом. Система ИИ анализирует контент, который люди публикуют в Интернете, нарушают ли они правила дорожного движения или какие-либо другие правила в общественных местах, вовремя ли оплачивают счета за электричество и т. д.

Согласно последнему рейтингу, около одиннадцати миллионам граждан Китая запрещено летать, а четырем миллионам запрещено пользоваться поездами. Если эта концепция кажется вам знакомой, значит, вы, вероятнее всего, смотрели ту самую серию «Черного зеркала».

Еще один яркий пример рисков искусственного интеллекта связан с алгоритмом рекомендаций YouTube. Учитывая избыток и разнообразие доступного контента, логично придумывать новые способы завлекать юзеров, стимулируя их больше пользоваться продуктом.

Тем не менее, недавно алгоритм рекомендаций YouTube был замечен в продвижении видео, которые содержат все больше и больше подстрекательского контента. Похоже, механизм рекомендаций ИИ стимулирует радикализацию контента. Например, можно выбрать клип о пользе бега трусцой для здоровья и в конечном итоге добраться до ультрамарафонов; начать с видео о вегетарианстве и закончить контентом веганстве.

Это особенно опасный паттерн ИИ, когда речь идет о социальном и политическом контенте. Такой механизм может спровоцировать формирование весьма радикальных мнений. Учитывая количество людей, особенно молодых, обращающихся к YouTube в качестве основного источника поиска информации, то эта ситуация становится очевидной проблемой безопасности использования ИИ.

Конечно, это едва ли можно назвать теорией заговора. Фактически, это всего лишь классический пример побочного эффекта развития ИИ в результате неточного описания цели. С точки зрения разработки, задача сохранить внимание аудитории приклеенным к платформе - выполнена. Но теперь, когда мы видим, что искусственный интеллект хорошо справляется с поставленными задачами, надо убедиться, что они синхронизированы с нашими.

Подведем итоги

Как компания, предоставляющая услуги по AI, мы уверены, что с технологиями ИИ мы не будем жить в эпоху Альтрона. У искусственного интеллекта мощный потенциал, и только в руках человека он становится либо инструментом, либо оружием.

Сегодня ИИ помогает нам лечить тяжелые заболевания, делает машины и дома более безопасными, стимулирует инновации и науку. Подводя итог всем опасениям, высказанным экспертами ИИ, основная проблема безопасности ИИ заключается не в его недоброжелательности, а в его компетенции.

Правда в том, что у любого робота нет своих целей. ИИ только копирует человеческое поведение и полностью альтруистичен, стремясь выполнить задачу, несмотря ни на что. Как однажды сказал Стюарт Рассел: “Обучая роботов, мы можем сами стать лучше”. Вот почему получение непредвзятых результатов из предвзятых данных, разработка новых способов обнаружения высококачественных подделок, усиление правового регулирования методов искусственного интеллекта - всего лишь несколько основных направлений в работе с искусственным интеллектом в наши дни.

Подпишись на рассылку