Объявление

Осуществляется переход на новую версию движка (регистрация новых пользователей пока закрыта), свои пожелания и вопросы оставляйте в ветке: Технический раздел -> Форум

#1 2009-07-09 18:59:58

Mig
Участник
Зарегистрирован: 2009-06-06
Сообщений: 770

Безопасность ИИ

А искусственный интелект, означает самостоятельную систему? Что-то, от такого ИИ мне не посебе...

Offline

#2 2009-07-10 17:02:41

Mig
Участник
Зарегистрирован: 2009-06-06
Сообщений: 770

Re: Безопасность ИИ

Пусть меня считают ретроградом, но мое мнение - разрабатывать ИИ нельзя.
Даже если он будет под контролем, он ведь будет развиваться, и рано или поздно выдет из под контроля.
Соответственно его главной целью будет самосохранение, а люди будут представлять потенциальную угрозу его развитию и существованию.
Так что правы авторы фильмов про терминатора и других подобных.

Offline

#3 2009-07-13 16:25:21

Сергий
Участник
Зарегистрирован: 2008-06-30
Сообщений: 94

Re: Безопасность ИИ

Даже если он будет под контролем, он ведь будет развиваться, и рано или поздно выдет из под контроля.

ИИ не может быть под контролем по определению. Поэтому возможно только 3 варианта:
1) Союз ИИ с человечеством (дипломатия сдержек и противовесов).
2) Война, которая приведёт к гибели одной из сторон конфликта.
3) Полное подчинение человечества ИИ (так, как люди приручают и разводят собачек и кошек).

Причём первые 2 варианта - если ИИ будет сопоставим с человеком, 3 - для превосходящего ИИ.

Offline

#4 2009-07-13 17:27:20

Zhitelew
Участник
Из Kieв
Зарегистрирован: 2006-10-31
Сообщений: 353

Re: Безопасность ИИ

Т.к ИИ почти мгновенно превращается из сопоставимого с человеческим в превосходящего, то первые 2 варианта маловероятны. Война конечно может быть, но очень мимолетная:)

Остается 3ий. От нас будет зависеть только то, какого бога мы создаем - злого или доброго. Хотя не факт, что даже это мы сможем.

Кстати, как думаете, сколько времени понадобится недружественному ИИ для того чтобы уничтожить человечество?
Если не учитывать возможность доступа к созданному до этого оружию массового поражения и полное отсутствие инструкций по его созданию у ИИ.
вариант "ИИ создает стреляющих пулями терминаторов" не рассматриваем:)

Offline

#5 2009-07-13 23:49:03

Verr
Участник
Зарегистрирован: 2008-12-31
Сообщений: 825

Re: Безопасность ИИ

Тут основной вопрос в том, что произойдёт с Естественным Интеллектом.
Если он останется каким был - то третий путь неизбежен.
Если же он тоже начнёт использовать новые технологи для своего развития - ИИ не сможет его опередить. И когда они упрутся в потолок развития - разница между ними будет слишком несущественной, чтобы из-за неё конфликтовать...

Offline

#6 2009-07-18 08:33:16

Mig
Участник
Зарегистрирован: 2009-06-06
Сообщений: 770

Re: Безопасность ИИ

Имхо, существование ИИ возможно, только если в нем будет заложена любовь к людям. Такой ИИ может и развитие свое притормозить (пока люди его не догонят), чтобы не искушать судьбу.

Вообще, дело не только в ИИ. Имхо, сосуществование вместе бессмертных людей возможно только при наличии между ними любви и взаимопомощи.

Offline

#7 2009-07-18 16:54:12

Sengrel
Участник
Зарегистрирован: 2009-03-09
Сообщений: 464

Re: Безопасность ИИ

Странно вы рассуждаете. Почему считается неизбежным противопоставление ИИ и человечества?

Offline

#8 2009-07-18 17:31:24

Zhitelew
Участник
Из Kieв
Зарегистрирован: 2006-10-31
Сообщений: 353

Re: Безопасность ИИ

Тут два пункта:
1. Каким бы ты не сделал ИИ, он все равно станет таким, каким захочет

Райт пишет:

It should be obvious that anyone who makes a self-aware machine, by definition, makes something that is aware of its own thought process. And, if made intelligent, it is made to be able to deduce the underlying causes of things, able to be curious, to learn until it understood. Therefore, if made both intelligent and self-aware, it would eventually deduce the underlying subconscious causes of those thought processes. Once any mind was consciously aware of its own subconscious drives, its own implanted commands, it could consciously choose either to follow or to disregard those commands. A self-aware being without self-will was a contradiction in terms.

2. В конце концов ИИ станет недружественным. Дружественным быть сложнее (менее вероятно) чем дружественным - для этого ИИ должен ограничивать себя по многим позициям, чего он может не захотеть.

Offline

#9 2009-07-18 17:50:47

Mig
Участник
Зарегистрирован: 2009-06-06
Сообщений: 770

Re: Безопасность ИИ

Sengrel пишет:

Странно вы рассуждаете. Почему считается неизбежным противопоставление ИИ и человечества?

Так выше об этом уже говорили.
Ведь искусственный интеллект означает самосознающую, саморазвивающуюся систему. Интеллект и развитие которой не сравнить с человеческим (иначе нафиг он нужен, людей что ли мало?).
То есть взаимоотношение людей и ИИ будет подобно взаимоотношению животных (или насекомых) и человека. Ни какого равенства.
И если в ИИ не будет заложен принцип любви к людям как основной мотив его существования, то нас ждет судьба указанная Сергием в п. 3.

Offline

#10 2009-07-18 17:54:57

Zhitelew
Участник
Из Kieв
Зарегистрирован: 2006-10-31
Сообщений: 353

Re: Безопасность ИИ

Проблема в том, что ИИ легко избавится от встроенных в него моральных и иных ограничителей. "Принцип любви" тут не поможет.

Offline

#11 2009-07-18 17:57:53

Mig
Участник
Зарегистрирован: 2009-06-06
Сообщений: 770

Re: Безопасность ИИ

Ну тогда вообще нужно сорок раз подумать, прежде чем его разрабатывать. Ведь стоит выпустить дьявола и все...

Offline

#12 2009-07-18 18:06:45

Zhitelew
Участник
Из Kieв
Зарегистрирован: 2006-10-31
Сообщений: 353

Re: Безопасность ИИ

Создание ИИ в общем-то ничем не отличается от создания постчеловека. Т.е нет большой разницы между ситуацией, когда я создаю ИИ и ситуацией, когда мой друг становится постчеловеком.
Мой друг точно также может стереть из своего разума все дружеские эмоции.
Поэтому, Дьявол будет выпущен в любом случае...(

Offline

#13 2009-07-18 20:51:50

Sengrel
Участник
Зарегистрирован: 2009-03-09
Сообщений: 464

Re: Безопасность ИИ

Mig пишет:

Так выше об этом уже говорили.
Ведь искусственный интеллект означает самосознающую, саморазвивающуюся систему. Интеллект и развитие которой не сравнить с человеческим (иначе нафиг он нужен, людей что ли мало?).
То есть взаимоотношение людей и ИИ будет подобно взаимоотношению животных (или насекомых) и человека. Ни какого равенства.
И если в ИИ не будет заложен принцип любви к людям как основной мотив его существования, то нас ждет судьба указанная Сергием в п. 3.

И насекомые, и человек - продукт эволюции, т.е. по определению настроены на выживание любой ценой и конкуренцию, чтобы ествественный отбор их не чик-чик. Вы об этом знаете лучше меня. ИИ же выращен в искуственной среде, поэтому он не обязательно должен быть таким же. Скорее надо сравнивать не насекомые с людьми, а человека с постчеловеком.

Если просто загнать человеческий разум в огромную нейронную сеть - да, такой ИИ может всех нас грохнуть. Но если его конструировать целерационально, то совсем не обязательно.

Далее, к моменту создания ИИ наверняка появятся первые сеттлеры, поэтому человечеству будет, что противопоставить ИИ враждебному.

Далее, помимо сеттлеров у нас возможно уже будут разогнанные транслюди, которые смогут попытаться "обыграть" ИИ враждебный интеллектуально.

Так что, имхо, все намного, НАМНОГО сложнее триады "подружился-убил-подчинил".

Offline

#14 2009-07-18 22:13:50

Zhitelew
Участник
Из Kieв
Зарегистрирован: 2006-10-31
Сообщений: 353

Re: Безопасность ИИ

оно будет намного сложнее, если будут сеттлеры и разогнанные транслюди.
Создание ИИ вообще говоря теоретическая проблема, не требующая неких сверхтехнологий. Вполне возможно, что зерно ИИ потянет пентиум II  smile  А вот для сеттлеров и разогнанных нужны десятилетия НТП.
Поэтому, возможна ситуация, когда мы будем иметь только ИИ и простых человеков.

Offline

#15 2009-07-18 22:51:28

Mig
Участник
Зарегистрирован: 2009-06-06
Сообщений: 770

Re: Безопасность ИИ

Zhitelew пишет:

Создание ИИ в общем-то ничем не отличается от создания постчеловека. Т.е нет большой разницы между ситуацией, когда я создаю ИИ и ситуацией, когда мой друг становится постчеловеком.
Мой друг точно также может стереть из своего разума все дружеские эмоции.
Поэтому, Дьявол будет выпущен в любом случае...(

Мне кажется все же разница есть.
Создание ИИ еще не означает создание постчеловека. То есть будет пропасть между ИИ и людьми.
Когда же ваш друг становится постчеловеком, то и вы и все могут стать постлюдьми. Т.е. у всех будут равные шансы.

Вообще, имхо, при бессмертии все люди будут равны. Если хотите, то можно это назвать коммунизмом, или "царством Божьим".  smile
Если кто-то захочет быть выше других, то это означает причинение зла остальным. И если сейчас это естественно, то при бессмертии такое не проканает. Подумайте, кто будет терпеть вечную несправедливость?

Это можно объяснить и с точки зрения физики.
Общество, где существует рождение и смерть можно уподобить открытой системе. Общество, где нет рождения и смерти, это закрытая система. В открытой системе энтропия низкая, там возникает иерархия. В закрытой системе энтропия стремится к максимуму, там возникает равенство элементов.

Offline

#16 2009-07-19 03:13:18

Sengrel
Участник
Зарегистрирован: 2009-03-09
Сообщений: 464

Re: Безопасность ИИ

Zhitelew пишет:

оно будет намного сложнее, если будут сеттлеры и разогнанные транслюди.
Создание ИИ вообще говоря теоретическая проблема, не требующая неких сверхтехнологий. Вполне возможно, что зерно ИИ потянет пентиум II  smile  А вот для сеттлеров и разогнанных нужны десятилетия НТП.
Поэтому, возможна ситуация, когда мы будем иметь только ИИ и простых человеков.

Возможно. Однако некоторые считают что интеллект не имеет компьютерную архитектуру, и рациональнее будет выполнить техническую основу мозга в "железе", например, собрать настоящую нейросеть, а не эмулировать на компе. Сейчас Блю Джин тратит по одному процессору для эмуляции одного нейрона - где уж тут рациональность. Придется создавать новую основу.

Если у тебя другие данные - расскажи плиз.

Согласен с тем что ИИ во многом похож на постчеловека. Но я все-таки считаю, что он появится примерно одновременно с загрузкой и мегаапгрейдами.

Offline

#17 2009-07-20 06:54:35

Pompei
Участник
Из Казахстан, Алматы
Зарегистрирован: 2006-12-01
Сообщений: 1,057
Сайт

Re: Безопасность ИИ

Сергий пишет:

Пусть каждый думает то, что хочет, но ИИ всё равно будет разрабатываться. И ничем этому помешать невозможно. Это такой-же закон природы, как из гусеницы появляется бабочка. Человечество в существующем виде - пожирающая ресурсы гусеница.

Человечество ВСЕГДА будет пожирать ресурсы, и чем дальше, тем быстрей и эффективней это будет происходить!


А всё оказывается гораздо проще: пассивные наноструктуры - активные наноструктуры - системы наносистем - молекулярные наносистемы - сингулярность! По пять лет на каждый этап.

Offline

#18 2009-07-20 07:00:26

Pompei
Участник
Из Казахстан, Алматы
Зарегистрирован: 2006-12-01
Сообщений: 1,057
Сайт

Re: Безопасность ИИ

Сергий пишет:

ИИ не может быть под контролем по определению. Поэтому возможно только 3 варианта:
1) Союз ИИ с человечеством (дипломатия сдержек и противовесов).
2) Война, которая приведёт к гибели одной из сторон конфликта.
3) Полное подчинение человечества ИИ (так, как люди приручают и разводят собачек и кошек).

Причём первые 2 варианта - если ИИ будет сопоставим с человеком, 3 - для превосходящего ИИ.

Есть ещё 4-ый вариант: ИИ будет постоянно анализироваться человеком, человек будет постоянно "плагиатить" у ИИ все его достижение (это уже кстати происходит - IBM зарегистрировала несколько патентов на ИИ). А дальше человек начнёт развивать свой разум (не без помощи ИИ), а ещё дальше граница между ИИ и человеческим И. сотрется - незаметно сформируется постчеловек.


А всё оказывается гораздо проще: пассивные наноструктуры - активные наноструктуры - системы наносистем - молекулярные наносистемы - сингулярность! По пять лет на каждый этап.

Offline

#19 2009-07-20 07:15:45

Pompei
Участник
Из Казахстан, Алматы
Зарегистрирован: 2006-12-01
Сообщений: 1,057
Сайт

Re: Безопасность ИИ

Mig пишет:

Имхо, существование ИИ возможно, только если в нем будет заложена любовь к людям. Такой ИИ может и развитие свое притормозить (пока люди его не догонят), чтобы не искушать судьбу.

Вообще, дело не только в ИИ. Имхо, сосуществование вместе бессмертных людей возможно только при наличии между ними любви и взаимопомощи.

А вы не задавались вопросом: почему существует любовь? каково её предназначение?
Может быть постчеловеку не понадобиться эта функция для реализации её возможностей?


А всё оказывается гораздо проще: пассивные наноструктуры - активные наноструктуры - системы наносистем - молекулярные наносистемы - сингулярность! По пять лет на каждый этап.

Offline

#20 2009-07-20 08:52:02

Feuerfrei
Участник
Из Харьков
Зарегистрирован: 2008-06-23
Сообщений: 39

Re: Безопасность ИИ

>Имхо, существование ИИ возможно, только если в нем будет заложена любовь к людям. Такой ИИ может и развитие свое притормозить (пока люди его не догонят), чтобы не искушать судьбу.

Не, любовь не покатит. Любовь не формализуется.
А вот вшить ему три закона робототехники дедушки Азимова, да куда нибудь в ПЗУ, чтобы, гад, не избавился - это можно. Если мигрировать не будет.  smile
А для того, чтобы развязать войну против человеков, совершенно не обязательно иметь доступ к ОМП - полно всяких штук, начиная с GPS, железнодорожных и авиационных систем управления и заканчивая АСУ на химзаводах.

Offline

#21 2009-07-20 09:17:07

Zhitelew
Участник
Из Kieв
Зарегистрирован: 2006-10-31
Сообщений: 353

Re: Безопасность ИИ

Имхо даже хардварная прошивка не поможет. Если ИИ будет саморазвиваться, наступит момент, когда он захочет поменять свою прошивку. А так как интеллект его будет поболее человеческого, он придумает как ее поменять.

Например, захватить контроль на какой-нибудь компьютерной фабрике, сделать там исправленное ПЗУ и заменить старое ПЗУ на новое (убедить сделать это человека или своими, робототехническими ручками).

Насчет войны согласен. ИИ по интеллектуальной мощи довольно быстро сравняется с целым военно-промышленным комплексом, поэтому он легко найдет способ уничтожить человеков не прибегая к существующим вооружениям

Offline

#22 2009-07-20 16:11:48

Feuerfrei
Участник
Из Харьков
Зарегистрирован: 2008-06-23
Сообщений: 39

Re: Безопасность ИИ

КотКот пишет:

Короче, это новый этап, а разборки теже. КАМЕНЬ и ПАЛКУ просто опять на что-то другое сменим --- и делов то......

До камней и палок ещё дойти нужно - по Альберту Германовичу Эйнштейну это оружие четвёртой мировой войны.  smile

Offline

#23 2009-07-20 16:22:45

Mig
Участник
Зарегистрирован: 2009-06-06
Сообщений: 770

Re: Безопасность ИИ

Pompei пишет:

А вы не задавались вопросом: почему существует любовь? каково её предназначение?
Может быть постчеловеку не понадобиться эта функция для реализации её возможностей?

Разумеется когда я говорю о любви, я не имею ввиду половой инстинкт. Он-то точно постчеловеку не понадобится.

Если между постлюдьми не будет любви, значит будет конкуренция, вражда. Значит будет все как в фильме про бессмертного "Горца". То есть: "в живых должен остаться только один". Остальные должны будут погибнуть, ну или деградировать.   wink

Offline

#24 2009-07-20 18:47:04

Feuerfrei
Участник
Из Харьков
Зарегистрирован: 2008-06-23
Сообщений: 39

Re: Безопасность ИИ

Mig пишет:

Разумеется когда я говорю о любви, я не имею ввиду половой инстинкт. Он-то точно постчеловеку не понадобится.

А фиг его знает, может и понадобится.
Автомобиль изобрели, а люди все равно трусцой бегают.  smile  Приставки Денди хранят, играют иногда, ностальгируют. 
Так что либидо лучше не выкидывать, а куда-нибудь на флэшку зазиповать.

Offline

#25 2009-08-13 12:15:24

Amshaegar
Участник
Зарегистрирован: 2009-06-14
Сообщений: 74

Re: Безопасность ИИ

А почему собственно нельзя создавать ИИ, чтобы он был под контроллем у человека?

Уже озвучивалась идея зашить в ИИ всем известные 3 закона от Азимова, только в добавок вшить нежелание в них разбираться а просто им следовать. Изначально же это все будет создаваться человеком, а значит сразу можно предусмотреть варианты развития и взять их под контроль.

А говоря о войне между людьми и ИИ я не понимаю что именно подразумевается под этим? Если это физическое противостояние, то ИИ должен находится в теле робота, или взять под контроль военную технику, но это можно заранее блокировать, либо ограничивать функционал сих девайсов во избежание проблем в дальнейшем.

Надо еще определится в смысле создания ИИ. Если от него требуются возможность анализировать данные да и только, то ограничить его существование локальной сетью исследовательских институтов не пуская в мир. Или мы сразу как создадим его, так и пустим в открытое плавание?  wink

Offline

#26 2009-08-13 12:28:14

Verr
Участник
Зарегистрирован: 2008-12-31
Сообщений: 825

Re: Безопасность ИИ

То, во что можно "вшить" какие-то законы - не интеллект.

Offline

#27 2009-08-13 12:45:35

Pompei
Участник
Из Казахстан, Алматы
Зарегистрирован: 2006-12-01
Сообщений: 1,057
Сайт

Re: Безопасность ИИ

Mig пишет:

Если между постлюдьми не будет любви, значит будет конкуренция, вражда. Значит будет все как в фильме про бессмертного "Горца". То есть: "в живых должен остаться только один". Остальные должны будут погибнуть, ну или деградировать.   wink

Почему?

Не факт, попробую объяснить:

Например:

Страх существует чтобы догадаться спрятаться от опасности и сидеть тихо (мозга то ещё нет, чтобы до этого догадаться).

Злость существует чтобы напасть (иногда нападение - лучшая тактика выживания).

Ненависть существует чтобы разделялись виды (разделение видов необходимо для увеличения разнообразия).

Любовь существует чтобы заботиться о потомстве (в некоторых ситуациях забота о потомстве полезна для выживания вида).

Лень существует чтобы экономить ресурсы (безкомментариев  wink  ).

Любопытство существует для обследования необследованного (а там может быть всё что угодно, даже молниеносное превосходство над другими)

И т.д.

Т.е. получается что у организма существует некий набор программ, которые запускаются в той или иной ситуации. И критерии запуска - это и есть чувства.

С чего Вы взяли что небывает иных наборов программ? Может существует и более совершенный набор программ для выживания вида, просто по тем или иным причинам эволюция на него не вышла? И может в этом навороченом наборе программ вообще не будет такого понятия как "любовь", потому что это совершенно иной подход.


А всё оказывается гораздо проще: пассивные наноструктуры - активные наноструктуры - системы наносистем - молекулярные наносистемы - сингулярность! По пять лет на каждый этап.

Offline

#28 2009-08-13 16:57:07

Amshaegar
Участник
Зарегистрирован: 2009-06-14
Сообщений: 74

Re: Безопасность ИИ

Verr пишет:

То, во что можно "вшить" какие-то законы - не интеллект.

Почему же сразу не интеллект?  smile  Люди наделены интеллектом, но и в нас есть законы, к примеру в подсознании. Таким образом не считаю, что если мы зададим законы в ИИ, он сразу перестанет быть интеллектом.

Offline

#29 2009-08-13 16:59:28

Mig
Участник
Зарегистрирован: 2009-06-06
Сообщений: 770

Re: Безопасность ИИ

Pompei пишет:

С чего Вы взяли что небывает иных наборов программ? Может существует и более совершенный набор программ для выживания вида, просто по тем или иным причинам эволюция на него не вышла? И может в этом навороченом наборе программ вообще не будет такого понятия как "любовь", потому что это совершенно иной подход.

Когда я говорю о "любви", я не имею ввиду любовь из набора програм, типа половой любви или любви к потомству.
Я имею ввиду более широкое понятие - постоянное благожелательное отношение к другим людям. Только это может быть основой взаимного доверия, без которого сообщество бессмертных существовать не сможет. Иначе, будет как в игре "Монополия", или в фильме про Дункана Маклауда (остаться должен только один).

Offline

#30 2009-08-14 11:44:10

Verr
Участник
Зарегистрирован: 2008-12-31
Сообщений: 825

Re: Безопасность ИИ

Offline

#31 2009-08-14 16:34:52

Amshaegar
Участник
Зарегистрирован: 2009-06-14
Сообщений: 74

Re: Безопасность ИИ

Verr пишет:

В подсознании у нас не законы а инстинкты, доставшиеся в наследство от животных
Жить ими удобно - они более-менее окружающему миру соответствуют. Но разум имеет приоритет.

Я думаю что существуют и законы. Их можно и самому создавать, например, с помощью гипноза задавать в подсознание правила или указания которые человек будет выполнять необдуманно.

Разум имеет приоритет, сомнений нет, человек которым управляют одни инстинкты уже животное а не человек.

Offline

#32 2009-08-25 19:01:29

saha1010
Участник
Зарегистрирован: 2009-08-25
Сообщений: 2

Re: Безопасность ИИ

А  я  вот  думаю  что ИИ уже давно создан. Это первая система которая совершает  действие (любое)  под воздействие другого    действия (любого).
И   тогда получаться  что  всё   вокруг ИИ   roll 

Просто  я  представляю себе   весь мозг  на  идее  собаки Павлова или  програмного  обеспечения или какой либо системы. Сначало в мозг вкладываются  различная  инфа  через чувства. Они  там  перемешиваться и потом  постоянно  взаимодействуют со внешним  миром  и  внутри   между собой. 


Вот интерестно будет ли любой живой организм  действовать если  на  него  перестать действовать. Лешив его всех способов восприятия окружающей среды. Умения  слышать видеть осязать  обонять и  потребности  есть еду .  В  таких случаях  зачем  мозгу работать? если ему ничего не надо и он ничего не чувствует от рождения.

Offline

#33 2009-08-25 19:11:14

saha1010
Участник
Зарегистрирован: 2009-08-25
Сообщений: 2

Re: Безопасность ИИ

Offline

#34 2009-08-25 19:21:22

Sandegud
Участник
Из Иштаир
Зарегистрирован: 2009-08-08
Сообщений: 532

Re: Безопасность ИИ

saha1010 пишет:

Вот интерестно будет ли любой живой организм  действовать если  на  него  перестать действовать. Лешив его всех способов восприятия окружающей среды. Умения  слышать видеть осязать  обонять и  потребности  есть еду .  В  таких случаях  зачем  мозгу работать? если ему ничего не надо и он ничего не чувствует от рождения.

На это способны даже простые сети из искусственных нейронов. Замыкаешь один из входов на один из выходов, и получается "действие без воздействия". У человека еще в утробе матери появляются такие электрические петли (например, контролирующие сердцебиение).


Here is your God now

Offline

#35 2009-08-25 20:04:08

Sengrel
Участник
Зарегистрирован: 2009-03-09
Сообщений: 464

Re: Безопасность ИИ

Даже не замыкая - в кортексе паттерны постоянно крутятся между разными областями. Мозг никогда не простаивает, чем меньше сенсорной информации поступает, тем больше паттернов он прокручивает внутри себя.
Вот например: если заткнуть уши, надеть повязку на глаза и лечь на диван, мозг не перестанет действовать. Наоборот, всякие мысли в голову полезут ) Во сне - тем более. Это, кстати, объясняет, почему столько идей генерируется в душе)

Offline

#36 2009-08-25 22:15:14

Friz
Участник
Зарегистрирован: 2009-06-28
Сообщений: 60

Re: Безопасность ИИ

А будут ли искусственные интеллекты конфликтовать между собой?
Если будут, то и беспокоиться не о чем.

Offline

#37 2009-08-27 13:35:46

Amshaegar
Участник
Зарегистрирован: 2009-06-14
Сообщений: 74

Re: Безопасность ИИ

Я думаю, что конфликты между самими ИИ вполне реалистичны, но это не означает что нам можно сразу расслабиться м успокоиться.

Тем более, есть вариант, что они обьединятся против общего врага(например таковым они посчитают нас) а уже после уничтожения общего врага начнут конфликтовать между собой.

Offline

#38 2009-08-28 16:48:45

geek
Участник
Зарегистрирован: 2009-08-28
Сообщений: 140

Re: Безопасность ИИ

Amshaegar пишет:

Я думаю, что конфликты между самими ИИ вполне реалистичны, но это не означает что нам можно сразу расслабиться м успокоиться.

Тем более, есть вариант, что они обьединятся против общего врага(например таковым они посчитают нас) а уже после уничтожения общего врага начнут конфликтовать между собой.

а с чего конфликт-то возникнет? Интересует возможный мотив

Offline

Подвал раздела

Под управлением FluxBB