Искусственный интеллект
Определения и классификации искусственного интеллекта
История искусственного интеллекта (ИИ) началась в 1950 году, когда Алан Тьюринг в своей работе "Вычислительные машины и разум" (Computing Machinery and Intelligence) задал вопрос "Могут ли машины думать?" ("Can machines think?"). Сама постановка вопроса положила начало направлению науки, представители которой пытаются ответить на вопрос Тьюринга утвердительно.

В 1956 году Джон Маккарти предложил термин "искусственный интеллект" и определил его как создание умных машин. Такое общее определение искусственного интеллекта встречается и сейчас, однако оно не дает ответа на вопросы
  • что такое интеллект?
  • чем отличается искусственный интеллект от неискусственного?
  • что нужно для существования интеллекта?

В научном и технологическом сообществе нет единых ответов на эти вопросы. Единства мнений нет даже в самой постановке такого рода вопросов. Некоторые ученые рассуждают о возможности универсального определения интеллекта. Другие же предлагают классификации определений.

Если попытаться увидеть что-то общее за множеством определений искусственного интеллекта, то можно выделить три подхода:
  • Человеческий/ симуляционный
  • Алгоритмический
  • Неалгоритмический
За каждым из этих подходов стоят разные идеи, и с ними связаны разные области деятельности.


Человеческий подход к определению ИИ основан на представлениях Тьюринга о том, что машина обладает интеллектом, если она может имитировать реакцию человека в определенных условиях. В русле данного подхода ученые исследуют психические и физиологические процессы связанные с мышлением человека, и совершают попытки воспроизвести эти процессы в компьютерных программах.

Человеческий подход к определению ИИ в меньшей степени относится к компьютерным наукам и в большей — к психологии, когнитивистике, нейробиологии и электронике.


Алгоритмический подход связан с идеей алгоритмов (рациональных агентов), которые способны к анализу условий и совершению действий для достижения поставленных целей. Данный подход описан Питером Норвигом и Стюартом Расселом в книге "Искусственный интеллект: современный подход", которая считается самым популярным учебником и одной из основополагающих работ по искусственному интеллекту. Этот подход поддерживается как сторонниками идеи сильного ИИ, согласно которой может существовать некоторый универсальный алгоритм для решения любых задач; так и сторонниками идеи слабого ИИ, которые не заявляют об универсальности алгоритма, но занимаются поиском алгоритмов для решения конкретных задач.

Алгоритмический подход популярен среди сотрудников технологических компаний.


Неалгоритмический подход основан на том, что не все задачи могут быть решены с помощью вычислений, то есть алгоритмическим путем. Например, когда речь идет о процессе, настолько сложном, что его практически нельзя смоделировать, или когда это недетерминированный по своей природе процесс. Как считают некоторые исследователи, фундаментальные вопросы физики и само мышление человека, относятся к таким процессам.

То, что задачи не могут быть решены алгоритмически, не обязательно означает, что они не могут быть решены в принципе. Поиском ответов на наиболее фундаментальные вопросы о природе мышления и занимаются сторонники неалгоритмического определения ИИ. Таковыми, например, являются Стивен Вольфрам и Роджер Пенроуз.


Разные подходы к определению искусственного интеллекта отличаются лишь условно. Их различие не является жестким и однозначным. Есть технологические проекты, которые работают на пересечении различных представлений об интеллекте. Но есть и вопросы, ответы на которые невозможно дать, не прибегая к языку определенного подхода. Одно представление об ИИ не сводимо к другому, но при этом дополняет его и является источником новых идей и методов.

Искусственный интеллект следует рассматривать как разнородную и обширную область, в которой сосуществуют разные нарративы. Для работы же с разнородностью и неопределенностью нужны основания, по которым можно их различать и сравнивать.

Проекты в области ИИ можно различить по:
  • Определению ИИ
  • Стратегии
  • Типу решаемых задач
  • Участию в них человека
Роль искусственного интеллекта в жизни человека
Мир меняется с огромной скоростью: технологические революции, которые прежде случались раз в пару веков, сейчас происходят каждые 5-10 лет. Что, например, произошло за последние 10 лет? Появились автономные автомобили Tesla, Google с квантовым компьютером, появились первые частные космические корабли, была создана синтетическая ДНК, а искусственный интеллект начал обыгрывать чемпионов игры в го. Это вполне очевидные изменения, однако к ним мало кто готов.

Скорость развития технологий и увеличение информационного потока принуждает нас изменить образ жизни и мышления. Кто мы? Люди, которые следят за количеством лайков и просмотров в социальных сетях? Люди, которые тоннами поглощают еду из одноразовых пластиковых упаковок? То общество, если не попасть в рамки «нормы» и «стандартов» которого, означает стать девиантом и изгоем? Кто же мы? Все просто: «мы» - это общество потребления.

Представьте, что вы стоите в магазине и смотрите на полку с яблоками. Какое яблоко выбрать? Зеленое? Красное? А может взять грушу или вообще пойти к полке с шоколадом? Это непростой выбор.

А будет ли у вас выбор, если, например, ваш голосовой помощник сообщит, что лучше выбрать зеленое яблоко, так как в нем больше витамина С и железа, а если хочется шоколад, то взять следует темный, а не молочный? Скорее всего, вы скажете, что да, выбор все еще будет за вами.

Но что, если мы просто откроем дверь, в которую звонит курьер с огромным пакетом зеленых яблок, потому что умный дом уже сделал заказ без вашего участия? Будет ли выбор тогда, когда искусственный интеллект начнет решать за вас?

Как не попасть в зависимость от ИИ? Как остаться управляющим собственной жизни? А если взглянуть не на жизнь и решения одного человека, а целого общества, не повторит ли наша жизнь сценарий мультфильма «ВАЛЛ-И»? Как впустить искусственный интеллект в жизнь общества и при этом остаться у пульта управления?
Этическая дилемма
Искусственный интеллект – это группа мифов, которая объединяет множество людей и содержит задачи, подразумевающие нетривиальные решения. В то же время это глобальный вызов, который интересен ученым, инженерам и предпринимателям. Искусственный интеллект — это то, что возможно, востребовано и выгодно.

Кто в ближайшем будущем станет принимать решения: человек или искусственный интеллект?

Сейчас мы находимся в точке фазового перехода, в котором сумма принятых ранее решений значительно влияет на возможные варианты того, каким станет мир в будущем. Инерционный, консервативный сценарий развития событий перестает работать, но остается еще два сценария: сценарий развития, при котором человечество сохранит свободу воли и выбора; и сценарий деградации. У человечества больше нет варианта отстраниться от выбора.

Существует три типа позиций при выборе будущего:
  • осознанная позиция, в основе которой лежит размышление о мире желаемого будущего и приложение усилий для его реализации;
  • прагматичная позиция, основанная на краткосрочной или долговременной выгоде;
  • пассивная позиция, которая характеризуется отсутствием мышления о будущем. Отсутствие личной позиции и выбора – это тоже выбор, и он тоже влияет на мир.
На первый взгляд может показаться, что искусственный интеллект способен обеспечить равенство и объективность в принятии решений, тем самым, обеспечив жизнь в безопасном мире. Но что такое безопасный мир? Это мир, в котором человечество потеряет свою волю, разнообразие путей развития, право на выбор и право на сильные эмоции. Одна из самых важных проблем, над которой стоит задумается каждому человеку, состоит в том, что выбор не будет предложен явно: вас не спросят, желаете вы сохранить свою волю или потерять ее. Только тогда, когда критический процент людей сформулируют собственные позиции и примут ответственность за свои решения, они смогут повлиять на развитие ситуации. Если этого не произойдет, решение будет принято на прагматических основаниях, а не в результате стратегического мышления.

Уже сейчас происходит движение в сторону такого будущего. Мультфильм «ВАЛЛ-И» – это один из примеров утрированного, но возможного развития событий, при котором человечество не живет, а существует в полной безопасности. В таком мире удовлетворяются все базовые потребности, но нет развития, разнообразия, преодоления себя для достижения целей. ИИ без участия человека может развивать что-либо только в пределах заданного алгоритма. И лишь человек способен создавать принципиально новое, преодолевать себя и то, что прежде казалось невозможным, идти против общественного мнения, иметь смелость менять мир.

Вся история науки демонстрирует лучшие и сильнейшие стороны человечества. В природе людей – испытывать чувства и эмоции разной силы. Конечно, можно сконструировать системы ИИ, которые пожертвуют сильными чувствами ради повышения безопасности. Однако влияние на чувства может иметь непредвиденные последствия. Способность человека самостоятельно проживать эмоции двигает его вперед и позволяет понимать и преодолевать себя, сопереживать другим, самосовершенствоваться, создавать художественные произведения и научные открытия.

Не существует варианта, при котором человечество балансирует между двумя крайностями, одновременно повышая безопасность общества и сохраняя свободу выбора, воли и ответственности. Мир слишком сложен, чтобы можно было прописать однозначные алгоритмы для каждой ситуации. При повышении безопасности, происходит уменьшение личного пространства: человек теряет границу между личным и публичным пространством. Когда существуют микрофоны, а в телефонах есть распознавание речи, где заканчивается личное пространство человека? Другим показательным примером является медицина с ее этическим вопросом о том, где проходит граница, за которой пациент уже не может принимать решения о собственном здоровье. Имеет ли ИИ право давать рекомендации о здоровье человека? Имеет ли ИИ право принимать решение, кого спасать? Для принятие таких решений нужна гибкость человеческого мышления.

Двигаться в сторону алгоритмического выбора ИИ просто, так как эффективность и прагматичность лежат на поверхности. Но этот путь может быть ошибочным. Например, нам может казаться, что из-за большого количества правильных ответов в системе, эта система работает правильно. Однако количество правильных ответов может быть связано не с верностью алгоритмов, а с масштабом, характером выборки или условиями. Проверить же на правильность каждый шаг системы невозможно в принципе. Движение же в сторону свободного выбора человека – это труд, требующий удержание человечности, сложности взаимодействия человека с ИИ, корректности работы ИИ и много другого. Если исчезнет необходимость думать, например, благодаря появлению экзокортексов, стремиться к развитию станет гораздо сложнее.

Дихотомия «Человек или Искусственный интеллект» неразрешима: противопоставление человека и ИИ приведет человечество к деградации, а не развитию. Необходимо перестать видеть мир черно-белым и перейти от двух крайностей к пространству гармонии и размерности. Вместо дихотомии развивать трихотомию – более устойчивую и гармоничную систему.
Экзокортекс — система внешней обработки информации
Развитие ИИ по своему влиянию на человечество сопоставимо с появлением письменности и грамотности. Как письменность изменила биокогнитивную систему человечества, так и изменения, которые принесет искусственный интеллект, повлияют на мышление людей. Поэтому нельзя говорить про искусственный интеллект, не рассуждая о естественном интеллекте человека.
Вместо заключения
Технические возможности в сфере ИИ позволяют передавать принятие решений от человека к ИИ во многих сферах, однако мы не всегда видим последствия таких решений. Так как разработчики ИИ не задают этические вопросы, большинство пользователей даже не знает об их существовании. Логика принятия решений ИИ отличается от принципов принятия решений человеком. Поэтому любая ошибка в данных, или появление корреляции, не обнаруженной создателями ИИ, или ошибка в построении модели ИИ со стороны разработчика или предметного эксперта, может привести к таким результатам, в которые зачастую невозможно проверить.

Примеры системных ошибок в ИИ:
ИИ обучали оценивать серьезность поражения легких при COVID
«Данные сканирования грудной клетки детей, у которых не было ковида, в качестве примеров того, как выглядят случаи не-ковида. Однако, в результате ИИ научился определять не ковид, а детей. Данные сканирования включали пациентов в лежачем положении (с большей вероятностью эти пациенты были серьезно больны). В результате ИИ научился неправильно предсказывать серьезность риска коронавируса, исходя из положения человека (а если пациент стоял, то серьезность поражение лёгких ИИ просто игнорировал). ИИ научился ориентироваться на шрифт текста, используемый разными больницами для маркировки сканированных изображений. В результате шрифты из больниц с более серьезной нагрузкой стали предикторами риска заражения коронавирусом».

«Почти все ИИ-инструменты разрабатываются либо исследователями ИИ, которым не хватает медицинских знаний для выявления недостатков в данных, либо медиками, которым не хватает математических навыков, чтобы компенсировать эти недостатки».

Подробнее по ссылкам [1] и [2]
ИИ распознает демографические признаки по рентгеновским снимкам
Распознавание медицинских изображений при принятии диагностических и лечебных решений – это одна из самых массовых и перспективных областей использования систем машинного обучения. ИИ, в отличии от человека, может определить расу на рентгеновских снимках, и это влияет на все последующие принимаемые ИИ решения. Эксперты физически не видят на изображениях каких-либо маркеров этнической принадлежности, поэтому человеческий надзор в данном вопросе невозможен. Клинические рентгенологи, у которых, как правило, нет доступа к демографической информации, не смогут увидеть и исправить ошибки. Любой ИИ, обладающий недоступным для людей знанием, потенциально чрезвычайно опасен и потому не должен использоваться при принятии ответственных решений.

Подробнее
В настоящее время принципиально важно создавать такие экосистемные проекты и структуры в человеко-машинных системах, в которых именно человек принимает итоговое решение и в которых развиваются уникальные стороны человека – то чему мы никогда не научим ИИ. Такие проекты должны стать первыми шагами в сторону перехода от общества потребления к обществу развития. Тогда случится цивилизационная сдвижка – метацивилизация, то есть множество разных проектов развития, в основе которых разделяемые ценности. Примером такого проекта развития является Альманах практик будущего.

Так как ИИ не может выйти за границы заданного ему алгоритма, он не может создать будущее, которое было бы устойчивым при непредвиденных обстоятельствах и содержало бы в себе разнообразие способов изменения при смене внешних границ. Наш мир бесконечно сложен, невероятно изменчив и наполнен разнородными смыслами, связями, случайностями. Не существует способа перевести такой мир в алгоритмы. В отличие от человека, ИИ не обладает дерзостью менять мир и измерять жизнь чувствами, а не цифрами.
Материалы работы лаборатории
Вы можете рассмотреть схемы и карты сценариев, разработанные участниками лаборатории, скачав их в pdf-формате.
Авторы
Алена Просекина
Участница лаборатории "Искусственный интеллект"
Тамара Синнельникова
Участница лаборатории "Искусственный интеллект"
Руководитель лаборатории
Михаил Просекин
Руководитель профиля Олимпиады НТИ "Технологии беспроводной связи"
Участники лаборатории
Александр Гоптарь
Елена Мусина
Тимофей Чихирин