Пример самообучающегося искусственного интеллекта - генеративно-состязательная сеть (англ. Generative adversarial network, сокращённо GAN). Это алгоритм машинного обучения без учителя, построенный на комбинации из двух нейронных сетей, одна из которых (сеть G) генерирует образцы, а другая (сеть D) старается отличить правильные («подлинные») образцы от неправильных. Так как сети G и D имеют противоположные цели — создать образцы и отбраковать образцы — между ними возникает антагонистическая игра. Использование подобных технологий позволяет, в частности, генерировать фотографии, которые человеческим глазом воспринимаются как натуральные изображения. Например, известна попытка синтезировать такие фотографии кошек, что вводят в заблуждение эксперта, полагающего, что это естественные фото. Кроме того, GAN может использоваться для улучшения качества нечётких или частично испорченных фотографий.
У этой технологии есть мерзкое применение. GAN-сеть может создавать новый контент или изменять существующий контент. Новые артефакты похожи на оригинал, но не совсем такие же. Поэтому с помощью этой технологии можно создавать "глубокий" фейковый контент для дезинформации и нанесения урона репутации. Другой "паразитный" эффект - корректные с математической точки зрения, но некорректные с этической точки зрения, решения ИИ. Поэтому возникла еще одна разновидность - этический ИИ. Этичный ИИ как предполагается, может защитить от неверных решений, обеспечивая прозрачность модели. Это приводит к лучшему взаимодействию человека и машины и повышению доверия к решениям, предлагаемым ИИ.
ИИ - на текущий момент революционная технология, с широкими потенциальным воздействием на любую сферу человеческой деятельности. Сила и мощность данной технологии определяется возможностью ИИ быстро обрабатывать большие объемы данных, возможностью имитации человеческого интеллекта, в частности, включая ощущение, обучение, обоснование, планирование и принятие решений.
По всему миру уже создаются тысячи приложений ИИ, которые охватывают многие сферы деятельности, например, такие как маркетинг, сельское хозяйство, транспорт, здравоохранение.
Правда, речь идет о слабом ИИ (weak AI) - приложении, которое ориентировано на выполнение узких задач. И конечно слабый ИИ не обладает никакими намеками на сознание и самосознание.
В настоящий момент стоит упоминать следующие виды "промышленных" приложений ИИ.
1. Использование ИИ для поиска оптимального ответа.
1.1. Обучение с учителем - Распознование речи, Распознование изображений.
Обуче́ние с учи́телем (англ. Supervised learning) — один из способов машинного обучения, в ходе которого испытуемая система принудительно обучается с помощью примеров «стимул-реакция». С точки зрения кибернетики, является одним из видов кибернетического эксперимента. Между входами и эталонными выходами (стимул-реакция) может существовать некоторая зависимость, но она неизвестна.
1.2. Обучение с подкреплением - промышленная автоматизация, интерактивные системы (типа AlphaGo), беспилотный транспорт
Обучение с подкреплением (англ. reinforcement learning) — один из способов машинного обучения, в ходе которого испытуемая система (агент) обучается, взаимодействуя с некоторой средой. С точки зрения кибернетики, является одним из видов кибернетического эксперимента. Откликом среды (а не специальной системы управления подкреплением, как это происходит в обучении с учителем) на принятые решения являются сигналы подкрепления, поэтому такое обучение является частным случаем обучения с учителем, но учителем является среда или её модель.
2. Использование ИИ для поиска шаблона в массивах данных.
2.1. Обучение без учителя - Классификация потребителей, выявление аномалий.
Обучение без учителя (самообучение, спонтанное обучение, англ. Unsupervised learning) — один из способов машинного обучения, при котором испытуемая система спонтанно обучается выполнять поставленную задачу без вмешательства со стороны экспериментатора. С точки зрения кибернетики, это является одним из видов кибернетического эксперимента. Как правило, это пригодно только для задач, в которых известны описания множества объектов (обучающей выборки), и требуется обнаружить внутренние взаимосвязи, зависимости, закономерности, существующие между объектами.
* * *
Возможность взломать человека
Ниже "сэмпл" из книги "21 урок для XXI века". Юваль Ной Харари
Либеральная вера в чувства и свободный выбор индивидов не являются ни естественными, ни древними. Тысячелетиями люди верили, что источник власти – божественные законы, а не человеческое сердце, а потому нужно благословлять слово Божие, а не свободу человека. Только в последние несколько веков источник власти переместился от богов, обитающих на небесах, к людям из плоти и крови.
Вскоре мы снова можем стать свидетелями передачи власти – но уже от людей к алгоритмам. Точно так же, как легитимацией божественной власти служила религиозная мифология, а власти людей – либеральная концепция, грядущая технологическая революция утвердит власть алгоритмов Big Data, подорвав саму идею индивидуальной свободы.
Нам непросто осознать, что наши чувства представляют собой результат вычислений, поскольку быстрый вычислительный процесс протекает далеко за порогом нашего сознания. Мы не ощущаем, как миллионы нейронов мозга просчитывают вероятности выживания и продолжения рода, и поэтому ошибочно полагаем, что боязнь змей, выбор полового партнера или отношение к Евросоюзу определяются некой таинственной «свободой воли».
На наших глазах происходит слияние двух масштабных революций. Биологи проникают в тайны человеческого тела, мозга и чувств. Одновременно специалисты в области вычислительных систем открывают беспрецедентные возможности обработки данных. Когда биотехнологическая революция сольется с революцией в ИТ, появятся алгоритмы Big Data, способные следить за нашими чувствами и понимать их гораздо лучше, чем мы. И тогда власть перейдет от людей к компьютерам. Иллюзия свободы воли, скорее всего, развеется, если я каждый день буду сталкиваться с институтами, корпорациями и госучреждениями, которые манипулируют тем, что я до недавних пор считал своим внутренним миром, недоступным для других.
Для краткости воспользуемся следующей формулой:
где
б – биологическое знание,
в – вычислительная мощность,
д – объем данных.
Их произведение – ввч – возможность взломать человека.
То, что уже происходит в медицине, по всей видимости, будет распространяться и на другие сферы человеческой деятельности. Главное изобретение – биометрический датчик на поверхности или внутри тела, который преобразует биологические процессы в электронную информацию для компьютерной обработки и хранения. Достаточное количество информации и достаточная вычислительная мощность позволят внешним системам обработки данных вызнать все о ваших желаниях, решениях и мнениях. Они смогут точно определить, кто вы.
С другой стороны, нельзя исключить, что люди сами будут с готовностью делиться личными данными, чтобы получать наилучшие рекомендации, а то и вовсе просить алгоритм принимать решения вместо них.
Ученые все яснее понимают природу процессов, связанных с принятием человеком решений, и соблазн довериться алгоритмам, скорее всего, будет усиливаться. Знания о процессе принятия решений мозгом не только повысят надежность алгоритмов больших данных, но и сделают менее надежными человеческие чувства. Когда правительства и корпорации взломают операционную систему человека, на нас обрушится шквал точно выверенных манипуляций, рекламы и пропаганды. Манипулировать нашим мнением и эмоциями станет так легко, что мы будем вынуждены довериться алгоритмам – подобно тому, как пилот самолета, у которого закружилась голова, должен игнорировать свои ощущения и довериться приборам и автоматике.
По мере того как власть будет переходить от людей к алгоритмам, наш мир перестанет быть местом, в котором действуют независимые индивиды, стремящиеся сделать правильный выбор. Вместо этого мы будем воспринимать Вселенную в виде потока данных, а организмы – в виде биохимических алгоритмов, и верить, что космическая миссия человечества заключается в создании всеобъемлющей системы обработки данных и последующем слиянии с ней. Уже сегодня мы превращаемся в крошечные элементы внутри гигантской системы обработки данных, которую никто до конца не понимает. Каждый день я получаю поток битов информации из электронной почты, твитов и статей. На самом деле я не знаю, каково мое место в этой гигантской структуре и как мои биты данных связаны с другими, исходящими от миллиардов других людей и компьютеров. И у меня нет времени это выяснять, поскольку я занят отправкой ответов на электронные письма.
Комментариев нет:
Отправить комментарий