Объявление

Осуществляется переход на новую версию движка (регистрация новых пользователей пока закрыта), свои пожелания и вопросы оставляйте в ветке: Технический раздел -> Форум

#1 2007-05-09 00:31:44

ValerijaPride
Администратор
Из Москва
Зарегистрирован: 2006-09-09
Сообщений: 670
Сайт

список ресурсов по футурологии, сингулярности и глобальным катастрофам

А для этого есть у нас контентная вики rtd2.pbwiki.com
Туда надо бы кидать по идее... Пароль (только для своих :-))) для внесения  1

А, кстати, зачем там всякая ненаучная э-э-э-э-э  еруда? Теософы-то с какого края?


Устремляясь в бесконечность...

Offline

#2 2007-05-09 20:51:26

ValerijaPride
Администратор
Из Москва
Зарегистрирован: 2006-09-09
Сообщений: 670
Сайт

Re: список ресурсов по футурологии, сингулярности и глобальным катастрофам

Точно - надо почистить !! Мы себе почистим под нас. Там религиозности и просто недоученности много. Но всеравно огромное спаисбо. А кто этот герой. который первый его составил7


Устремляясь в бесконечность...

Offline

#3 2008-05-21 20:11:32

Андрей Ильченко
Участник
Зарегистрирован: 2008-05-21
Сообщений: 1

Re: список ресурсов по футурологии, сингулярности и глобальным катастрофам

«Любая технология имеет не только плюсы,  но и минусы. По-вашему мнению, к каким же проблемам может привести распространение нанотехнологий?» Отрывок из интервью для Машпортала. http://www.snr.com.ru/e/autoventuri_interv...l_2008_2.htm#16

Думаю пригодится. Краткий обзор проблем от внедрения нанотехнологий: cоциальной, угрозы физического уничтожения людей, экологической, экономических преступлений

Offline

#4 2009-11-21 10:01:10

kathy
Гость
Зарегистрирован: 2009-11-21
Сообщений: 16

Re: список ресурсов по футурологии, сингулярности и глобальным катастрофам

turchin пишет:

http://community.livejournal.com/ru_singularity/profile

Элизер Юдковский
«Искусственный интеллект как позитивный и негативный фактор глобального риска».
http://www.proza.ru/texts/2007/03/22-285.html

Скажите пожалуйста а эту статью где-нибудь обсуждали на форуме?
Мне кажется риск возникновения недружественного ИИ фатален так как человек едва ли способен отличить его от дружественного. Точнее почти наверняка не сможет ни индивидуум ни коллектив. А еще я хотела сказать что порог (ценз) для создателей систем оптимизации уже предельно снижен и возникновение ИИ с доступом к быстрой инфраструктуре дело ближайших 5, максимум 8 лет (я программистка оцениваю с точки зрения моих проф знаний и жизненого опыта). Есть так же вероятность что фатальная система оптимизации уже находится в производстве около 4 лет (max) но публике об этом ничего не известно пока что.  Так что конец света неизбежен и очень близок.
Если эта тема уже где-то обсуждалась пожалуйста перенесите туда мое сообщение.

Offline

#5 2009-11-23 03:35:44

rwx
Участник
Зарегистрирован: 2008-04-06
Сообщений: 201

Re: список ресурсов по футурологии, сингулярности и глобальным катастрофам

kathy пишет:

порог (ценз) для создателей систем оптимизации уже предельно снижен

Что есть сегодня у создателей систем оптимизации, чего у них не было 10-20 лет назад? Банальный петафлопный суперкомпьютер (ну или более слабые, но тоже экспоненциально растущие десктопы) или имелось в виду что-то другое?

Offline

Подвал раздела

Под управлением FluxBB