Искусственный интеллект – худшее, что может случиться с человечеством

отметили
14
человека
в архиве
Нобелевский лауреат Стивен Хокинг предупреждает, что человечество сталкивается с неопределенным будущем, когда позволяет технологиям думать самостоятельно и адаптироваться к изменяемым условиям среды.

По словам физика Кембриджского университета, зловещая угроза назревает глубоко внутри технологических лабораторий Силиконовой долины. Искусственный интеллект, замаскированный под полезные цифровые технологии и самостоятельное вождение автомобилей, способен обрести власть — и в один прекрасный день, это может означать конец для человечества. «Успех в создании таких технологий, как в фильме «Трансцендентность» с Джонни Деппом, будет крупнейшим событием в истории человечества», сказал он. «К сожалению, это также может стать последним достижением человека, если мы не научимся, как избежать рисков». Хокинг добавил: «Глядя в будущее, нет никаких фундаментальных пределов тому, что может быть достигнуто». При этом ученый отметил, что эксперты не готовы к «плохим» сценариям. «Все мы должны спросить себя, что мы можем сделать сейчас, чтобы повысить шансы человечества на выживание и избежать рисков».
Добавил Zarubin Zarubin 2 Мая 2014
проблема (1)
Комментарии участников:
RussiaRulit
0
RussiaRulit, 2 Мая 2014 , url
Хокинга уважаю… Мне трудно оценить какой он учёный-говорят, что выдающийся-я этому верю, но… это ЧЕЛОВЕЧИЩЕ… Это пример для подражания всем…
Но вот в его прогноз не верю… Можно создать какой угодно мощный интеллект… Но не возможно создать т.н. «эмоциональный интеллект», «самоидентификацию»… А без этого всего все эти фантастические страшилки, так и остануться страшилками…
dzhankoy
0
dzhankoy, 2 Мая 2014 , url
… не было возможности создать, но всё ещё будет. Почитайте Эрика Дрекслера.
RussiaRulit
0
RussiaRulit, 2 Мая 2014 , url
Спросил у вики, любопытно, прочёл про серую слизь… Но это чуть другое… Это не искуственный интеллект, к тому же об эмоциях и самоидентификации (самоосознавании машинами себя) речи не идёт… И опять же в статье вики про серую слизь говорится
Современные исследователи сходятся во мнении, что опасности серой слизи в исходных её трактовках преувеличены, и много меньше других опасностей, связанных с нанотехнологиями.[7] Дрекслер приложил много усилий, чтобы обратить общественное внимание с этой неудачной гипотетической возможности на более реалистичные угрозы нанотерроризма и другие проблемы нанотехнологий.[
dzhankoy
0
dzhankoy, 3 Мая 2014 , url
Именно поэтому я посоветовал прочитать книгу Дрекслера, а не википедию)


Войдите или станьте участником, чтобы комментировать