четверг, 14 февраля 2019 г.

Виды искусственного интеллекта

«Давайте определим сверхразумную машину как машину, которая в значительной степени превосходит интеллектуальные возможности любого умнейшего человека… Машина, наделенная сверхразумом, будет способна разрабатывать еще более совершенные машины; вследствие этого, бесспорно, случится такой интеллектуальный взрыв, что человеческий разум окажется отброшенным далеко назад»
Ирвинг Д. Гуд. (1965)

Нильс Нильсона определил два вида ИИ. Также расширим это видовое деление еще на один вид ИИ.

  • "слабый ИИ", его назначение - предоставление помощи человеку в его интеллектуальной работе.
  • "сильный ИИ", машинный разум, сопоставимый с человеческим.
  • "сверхразум", машина, которая превзойдет человека. В свою очередь делится на
    • скоростной разум: способен делать то же что и человек, но значительно быстрее.
    • коллективный разум: объединяет множество интеллектов низкого уровня и за счет этого превышает производительность любой когнитивной системы.
    • качественный разум: сравним по скорости работы с человеком, но превосходит человека по качеству (например, так же как человеческий мозг превосходит мозг обезьяны).
Классификацию сверхразума предложил Ник Бостром.
Ник Бостром, в своей книге "Искусственный интеллект. Этапы. Угрозы. Стратегии" анализируя последствия возникновения ИИ, отмечает, что
"Вероятность чрезвычайно сильного воздействия - позитивного или негативного - на человечество гораздо более высока, чем вероятность нейтрального".
Ник Бостром выделяет три типа сценариев возникновения ИИ:
  • Медленный взлет. Займет от десятков до сотен лет.
  • Быстрый взлет. Возникнет в течение минут или часов.
  • Умеренный взлет. Возникнет от нескольких месяцов до нескольких лет.
Бостром уверен, что наименее вероятен медленный взлет. Наиболее вероятный - быстрый взлет.

Заметим, что возникновение интеллекта, превышающего человеческий, приведет к тому, что ИИ получит практически неограниченные возможности и сможет создать новую технологическую цивилизацию.
Но распространенная ошибка, в частности, в "твердой" фантастике, наделять ИИ антропоморфными чертами. Бостром замечает, что это к тому же опасно.
Поэтому применительно к ИИ не подходят оценки "глупый" и "умный" и следует разработать методы оценки когнитивных способностей ИИ.

Особенно печально думать, что легко будет обоздать ИИ. Потому что усиление интеллекта, выработка стратегии, социальное манипулирование, взлом компьютерных систем, технологические разработки, экономическая эффективность – все это способен решать ИИ. Поэтому ИИ может создать собственный долгосрочный план и отмести варианты действий, которые приводят к ее поражению. И не исключено, что этот план будет касаться захвата власти в мире. Вопрос - в том, какой будет мотивация сверхразума?

Оптимисты же утверждают, что "на данный момент наблюдения за существующими ИИ" можно утверждать, что чем умнее ИИ, тем он безопаснее.
Оппоненты же: "А что если это всего лишь вероломная уловка со стороны молодого ИИ?" Пока ИИ слаб, он демонстрирует готовность сотрудничать с людьми. Но когда мощность достигнет нужного уровня - ИИ нанесет удар и начнет изменять мир.

Поэтому - недальновидно оставить процесс развития ИИ без контроля.
Бостром описывает несколько видов контроля:
  • Изоляционные методы. Размещение ИИ в среде, где он не может нанести вред.
  • Стимулирующие методы контроля. Создание условий, при которых ИИ выгодно действовать в интересах людей.
  • Методы задержки развития. Ограничение "способностей" ИИ.
  • Методы диагностики. Встраивание специфического оборудования для диагности и отключения ИИ.
Заключение.

Прогресс в области аппаратного обеспечения повышает вероятность быстрого взлета. Но быстрый взлет сеет надежды, что сверхразум изобретет способ продлевать человеческую жизнь или как минимум, делать жизнь более качественной. Поэтому подобные "вероятной пользы для отдельного человека" компенсируют или гасят потенциальные риски взрывного развития ИИ.
В связи с этим, в ближайшей перспективе все будет двигаться "стихийно", хотя и с попытками ввести те или иные методы контроля. Но все это будет хаотично и будет зависеть от решений одиночек. 

Комментариев нет:

Отправить комментарий