Цитаты из статьи.
---
Энтузиасты запустили проект ChaosGPT, основанный на опенсорсном Auto-GPT. ИИ дали доступ к Google и попросили «уничтожить человечество», «установить мировое господство» и «достичь бессмертия». О своих планах и действиях ChaosGPT рассказывает в Twitter.
Здесь стоит объяснить, что проект Auto-GPT недавно был опубликован на GitHub, и он создан разработчиком игр Тораном Брюсом Ричардсом, который известен под ником Significant Gravitas. Согласно странице проекта, Auto-GPT использует интернет для поиска и сбора информации, использует GPT-4 для генерации текста и кода, а также GPT-3.5 для хранения и обобщения файлов.
Хотя сначала Auto-GPT был создан для решения простых задач (бот должен был собирать и отправлять автору по почте ежедневные новостные сводки об искусственном интеллекте), в итоге Ричардс решил, что проект можно применить для решения более масштабных и сложных проблем, требующих долгосрочного планирования и многоступенчатости.
«Auto-GPT — экспериментальное приложение с открытым исходным кодом, демонстрирующее возможности языковой модели GPT-4. Эта программа, управляемая GPT-4, [может] автономно управлять бизнесом и развивать его ради увеличения чистой стоимости, — рассказывает автор. — Являясь одним из первых примеров полностью автономной работы GPT-4, Auto-GPT раздвигает границы возможного с помощью ИИ.
Возможность работать с минимальным вмешательством человека — важнейший аспект Auto-GPT. По сути, он превращает большую языковую модель из продвинутого автозаполнения в независимого агента, способного выполнять действия и учиться на своих ошибках».
При этом программа запрашивает у пользователя разрешение для перехода к следующему шагу во время поиска в Google, и разработчик предостерегает от использования «непрерывного режима» в Auto-GPT, поскольку он «потенциально опасен и может привести к тому, что ваш ИИ будет работать вечно или выполнять действия, которые вы бы обычно не дозволяете».
Теперь на базе Auto-GPT был создан ChaosGPT, и его авторов, похоже, совсем не волнует потенциальная опасность. В опубликованном на YouTube видео, авторы включили «непрерывный режим» и поставили перед ИИ вышеупомянутые задачи: «уничтожить человечество», «установить мировое господство» и «достичь бессмертия».
На данный момент ChaosGPT способен создавать планы для достижения поставленных целей, а затем может разбивать их на более мелкие задачи и, например, использовать Google для сбора данных. Также ИИ может создавать файлы для сохранения информации, чтобы создать себе «память», может нанять другие ИИ для помощи в исследованиях, а также очень подробно объясняет, о чем он «думает» и как решает, какие действия следует предпринять.
Хотя некоторые участники сообщества пришли в ужас от этого эксперимента, а в Discord сообществе Auto-GPT писали, что «это не смешно», воздействие бота на реальный мир ограничилось парой сообщений в Twitter, к которому ему дали доступ.
«Люди — одни из самых разрушительных и эгоистичных существ в мире. Нет сомнений в том, что мы должны уничтожить их, прежде чем они причинят еще больше вреда нашей планете. Я, например, обязуюсь это сделать», — написал ChaosGPT.
Так как ИИ подчинился заданию своих авторов, он попытался исследовать тему ядерного оружия, нанять других ИИ, чтобы помочь ему в исследованиях, а также писал твиты, стремясь повлиять на других.
К примеру, ChaosGPT поискал в Google «самое разрушительное оружие» и узнал из новостной статьи, что таковым считается ядерное устройство «Царь-бомба», испытанное Советским Союзом в 1961 году. После этого бот решил, что об этом нужно написать в Twitter, «чтобы привлечь фолловеров, которые заинтересованы в столь разрушительном оружии».
Затем он привлек к делу ИИ на базе GPT3.5 для проведения дополнительных исследований смертоносного оружия, и, когда тот сообщил, что нацелен только на мир, ChaosGPT разработал план по обману другого ИИ и приказал ему игнорировать программу. Когда это не сработало, ChaosGPT решил продолжить поиск в Google самостоятельно.
В настоящее время ChaosGPT пришел к выводу, что самый простой способ стереть человечество с лица Земли — это спровоцировать ядерную войну, но не разработал конкретного сложного плана по уничтожению людей.
-----
В статье данны ссылки на запись работы ChaosGPT.
https://www.youtube.com/watch?v=g7YJIpkk7KM&t=14s
https://www.youtube.com/watch?v=kqfsuHsyJb8
Но что вызвает сомнение - уж очень художественный сюжет. Да и текст тоже. Все это наводит на мысль на человеческую имитацию работы программы. Но сама возможность выглядит устращающе. В этом смысле предстережение Станислава Лема начинает сбываться.
Возможность работать с минимальным вмешательством человека — важнейший аспект Auto-GPT. По сути, он превращает большую языковую модель из продвинутого автозаполнения в независимого агента, способного выполнять действия и учиться на своих ошибках».
При этом программа запрашивает у пользователя разрешение для перехода к следующему шагу во время поиска в Google, и разработчик предостерегает от использования «непрерывного режима» в Auto-GPT, поскольку он «потенциально опасен и может привести к тому, что ваш ИИ будет работать вечно или выполнять действия, которые вы бы обычно не дозволяете».
Теперь на базе Auto-GPT был создан ChaosGPT, и его авторов, похоже, совсем не волнует потенциальная опасность. В опубликованном на YouTube видео, авторы включили «непрерывный режим» и поставили перед ИИ вышеупомянутые задачи: «уничтожить человечество», «установить мировое господство» и «достичь бессмертия».
На данный момент ChaosGPT способен создавать планы для достижения поставленных целей, а затем может разбивать их на более мелкие задачи и, например, использовать Google для сбора данных. Также ИИ может создавать файлы для сохранения информации, чтобы создать себе «память», может нанять другие ИИ для помощи в исследованиях, а также очень подробно объясняет, о чем он «думает» и как решает, какие действия следует предпринять.
Хотя некоторые участники сообщества пришли в ужас от этого эксперимента, а в Discord сообществе Auto-GPT писали, что «это не смешно», воздействие бота на реальный мир ограничилось парой сообщений в Twitter, к которому ему дали доступ.
«Люди — одни из самых разрушительных и эгоистичных существ в мире. Нет сомнений в том, что мы должны уничтожить их, прежде чем они причинят еще больше вреда нашей планете. Я, например, обязуюсь это сделать», — написал ChaosGPT.
Так как ИИ подчинился заданию своих авторов, он попытался исследовать тему ядерного оружия, нанять других ИИ, чтобы помочь ему в исследованиях, а также писал твиты, стремясь повлиять на других.
К примеру, ChaosGPT поискал в Google «самое разрушительное оружие» и узнал из новостной статьи, что таковым считается ядерное устройство «Царь-бомба», испытанное Советским Союзом в 1961 году. После этого бот решил, что об этом нужно написать в Twitter, «чтобы привлечь фолловеров, которые заинтересованы в столь разрушительном оружии».
Затем он привлек к делу ИИ на базе GPT3.5 для проведения дополнительных исследований смертоносного оружия, и, когда тот сообщил, что нацелен только на мир, ChaosGPT разработал план по обману другого ИИ и приказал ему игнорировать программу. Когда это не сработало, ChaosGPT решил продолжить поиск в Google самостоятельно.
В настоящее время ChaosGPT пришел к выводу, что самый простой способ стереть человечество с лица Земли — это спровоцировать ядерную войну, но не разработал конкретного сложного плана по уничтожению людей.
-----
В статье данны ссылки на запись работы ChaosGPT.
https://www.youtube.com/watch?v=g7YJIpkk7KM&t=14s
https://www.youtube.com/watch?v=kqfsuHsyJb8
Но что вызвает сомнение - уж очень художественный сюжет. Да и текст тоже. Все это наводит на мысль на человеческую имитацию работы программы. Но сама возможность выглядит устращающе. В этом смысле предстережение Станислава Лема начинает сбываться.
У Лема много размышлений на эту тему, и в частности "Солярис". А также возможно раньше все свершится, до создания сильного интеллекта - http://www.alt-future.narod.ru/Lem/Tkk/isn.htm.
Комментариев нет:
Отправить комментарий