воскресенье, 18 августа 2024 г.

Потенциальные риски применения искусственного интеллекта

Потенциальные риски для поколения ИИ значительны и разнообразны. Следующие риски не зависят от отрасли, и их следует тщательно продумать, прежде чем приступать к использованию искусственного интеллекта поколения:

Точность (Accuracy). Модели генеративного ИИ могут «придумывать» ответы, которые кажутся правдоподобными. Иногда и все чаще их называют «галлюцинациями». Некоторые ответы могут иметь плохое абстрактное обоснование. Ответы, которые могут показаться руководителям качественными, на самом деле могут иметь мало ценности для конечных пользователей. Например, рассмотрим потребность специалиста по техническому обслуживанию в очень конкретных и очень точных советах, связанных с заменой компонента двигателя. Порог точности полезности намного выше при предоставлении конкретных рабочих инструкций, чем, скажем, при предложении советов по устранению неполадок.

Безопасность (Security). Генеративный ИИ подвержен бэкдор-атакам, которые иногда могут остаться незамеченными. Были случаи, когда хакеры захватывали модели, создавали дезинформацию, крали данные или совершали мошенничество. Также генеративный ИИ может использоваться злоумышленниками для повышения сложности и скорости кибератак. Генеративным ИИ также можно манипулировать для получения вредоносных результатов. Например, с помощью метода, называемого быстрым внедрением, третья сторона дает модели новые инструкции, которые обманным путем заставляют модель выдавать выходные данные, не предусмотренные производителем модели и конечным пользователем.

Конфиденциальность (Privacy). Конкурентно-чувствительные или конфиденциальные данные могут быть раскрыты через общедоступные API-интерфейсы LLM. Данные, доступные LLM, возможно, придется разделить на части, чтобы отразить уже существующие средства контроля доступа, особенно в отношении конфиденциальных или засекреченных данных. Проблемы конфиденциальности могут возникнуть, если пользователи вводят информацию, которая позже попадает в выходные данные модели в форме, позволяющей идентифицировать отдельных лиц. Генеративный ИИ также может использоваться для создания и распространения вредоносного контента, такого как дезинформация, дипфейки и разжигание ненависти.

Справедливость, честность (Fairness). Как и в случае с традиционным ИИ, генеративный ИИ иногда может давать предвзятые результаты. Его также можно использовать не по назначению для обхода намеренно добавленных мер безопасности. Модели могут генерировать алгоритмическую предвзятость из-за несовершенства обучающих данных или решений, принятых инженерами, разрабатывающими модели.

Законность и интеллектуальная собственность. Существует потенциальный риск нарушения прав интеллектуальной собственности, нарушений авторских прав и ответственности за неправильное использование. До сих пор неясно, как законы применяются к результатам, созданным генеративным ИИ. Во многих юрисдикциях до сих пор ведутся споры о том, как эффективно регулировать эту технологию. Обучающие данные и результаты моделей могут создавать значительные риски в области интеллектуальной собственности, включая нарушение авторских прав, товарных знаков, запатентованных или иным образом защищенных законом материалов. Даже при использовании генеративного искусственного интеллекта поставщика организациям необходимо понимать, какие данные использовались для обучения и как они используются в результатах инструмента.

Объяснимость (Explainability). Генеративный ИИ опирается на нейронные сети с миллиардами параметров, что бросает вызов нашей способности объяснить, как получается тот или иной ответ.

Надежность (Reliability). Модели могут давать разные ответы на одни и те же запросы, что затрудняет способность пользователя оценивать точность и надежность результатов.

Организационное влияние (Organizational impact). Генеративный ИИ может существенно повлиять на рабочую силу, а влияние на конкретные группы и местные сообщества может быть непропорционально негативным.

Социальное и экологическое воздействие (Social and environmental impact). Разработка и обучение базовых моделей может привести к пагубным социальным и экологическим последствиям, включая увеличение выбросов углекислого газа.


Источник.

"Beyond the hype: New opportunities for gen AI in energy and materials". February 5, 2024 | Article

This article is a collaborative effort by Filipe Barbosa, Soenke Lehmitz, Jukka Maksimainen, Lapo Mori, Bryan Richardson, Erik Roth, Humayun Tai, Sapna Thakker, Ian Wells, and Rodney Zemmel, representing views from McKinsey’s Global Energy & Materials Practice.

https://www.mckinsey.com/industries/metals-and-mining/our-insights/beyond-the-hype-new-opportunities-for-gen-ai-in-energy-and-materials

* * *

Военные ведомства стран AUKUS провели успешные испытания ИИ  в режиме реального времени. Эксперимент проходил в рамках оборонной инициативы Convergence Capstone 4, который является одним из направлений масштабного проекта «Технологии устойчивого автономного искусственного интеллекта» - AUKUS Resilient and Autonomous Artificial Intelligence Technologies (RAAIT).

Суть испытаний заключалась в использовании ИИ в ударных БПЛА, чтобы сократить время идентификации вражеских целей, используя автономные и сенсорные систем искусственного интеллекта в режиме реального времени.  В эксперименте приняли участие несколько дронов от каждой из трех стран AUKUS, работающих вместе в одном воздушном пространстве для достижения общего результата, в то же время помощь в управлении оказывал другой ИИ - AUKUS AI, который переобучил алгоритмы дронов из США, Великобритании и Австралии, и заставил их действовать в рамках единого замысла и под управлением одного оператора, который по сути принимал решение только о нанесении ударов.

Представители Лаборатории оборонных наук и технологий Великобритании (DSTL) заявили, что беспрепятственный обмен данными и управлением между технологиями стран-партнеров показал прогресс, которого они совместно добились во внедрении искусственного интеллекта и автономных систем, и в будущем данная технология будет включена в национальные платформы боевого управления, предоставляя военным оперативное преимущество за счет более быстрого реагирования на текущие и будущие угрозы. 

Разработка искусственного интеллекта и других передовых технологий, включая гиперзвуковые ракеты и квантовые вычисления, осуществляется в рамках программы AUKUS – «Pillar II».
Интересен факт, что все разработки проводятся в рамках трехстороннего военного союза США, Великобритании и Австралии а не НАТО. Предполагается, что страны НАТО не будут иметь доступ к данной технологии, она останется прерогативой AUKUS.
Пока что главным и по сути единственным соперником в этой технологической гонке является Китай.

Из Телеграмм -Такер Карлсон

* * *

Сегодня нации мира управляются людьми, у которых нет недостатка в идеях, но полностью отсутствуют идеалы. Этим объясняются бедность, разводы, войны и расовая ненависть.

...душевный яд страха, гнева, зависти, ревности, подозрительности и нетерпимости также является огромной помехой для духовного прогресса эволюционирующей души.

Комментариев нет:

Отправить комментарий