-
http://korrespondent.net/tech/733001По моему они "Терминатора" пересмотрели ).
Сколько себя помню столько и слышу что 10-20 лет осталось до того как сашины захватят мир. А мое мнение - никто даже не представляет как машинам далеко до человеческого разума.
-
> stas © (05.02.09 17:21)
Ну, почему же "никто даже не представляет"? Люди, которые занимаются проблематикой ИИ, это ОЧЕНЬ ХОРОШО представляют. Только эти люди не занимаются написанием всяких дурацких статеек в дурацких изданиях :)
-
> Эксперты: Развитие технологий приведет к гибели человечества
Тут и экспертом быть не нужно. Развитие технологий приведет к гибели человечества потому, что уничтожит его среду обитания.
Если, конечно, это самое человечество вовремя не остановится.
Если это еще не поздно...
-
Поищите sky net в поисковике, они нас уже окружают )))
-
Когда нибудь сделают репликаторов и всё. Всем крышка.
-
> Если это еще не поздно...
Как-то слишком пессимистично...
-
Если серьезно, пока будут писать так что вирусы возможны как класс программ,
все самые смелые мечты Голливуда могут случиться, в первую очередь ядерная война.
-
> test © (05.02.09 17:56) [6]
> Если серьезно, пока будут писать так что вирусы возможны
> как класс программ,
> все самые смелые мечты Голливуда могут случиться, в первую
> очередь ядерная война.
Ядерная война скорее случится из-за вирусов в головах некоторых человеков, а не в компутерах! :(
-
Забыли один основополагающий принцип любой программы. Она не может быть умнее программиста. Это нам с вами понятно. А вот желтым журналюгам и деятелям киноискусства - нет. Вот и зарабатывают себе на хлеб раздуванием разных кошмарных идей.
-
> Забыли один основополагающий принцип любой программы. Она
> не может быть умнее программиста.
Ну, на самом деле это не совсем так. Те же шахматы возьми.
Есть конечный набор жестких правил. А вот как им пользоваться - это вопрос другой. Базу знаний подключить и анализировать её - вообще-то можно. Вот тебе и самообучающаяся программа.
-
> stas (05.02.2009 17:21:00) [0]
Сашины может и захватят, но Петровы вряд ли.
-
Ega23 © (05.02.09 19:08) [9]
А прикрути ей качать/искать исходники в инете и уже sky net здраствуй))
-
> SPeller © (05.02.09 18:48) [8]
>
> Забыли один основополагающий принцип любой программы. Она
> не может быть умнее программиста. Это нам с вами понятно.
> А вот желтым журналюгам и деятелям киноискусства - нет.
> Вот и зарабатывают себе на хлеб раздуванием разных кошмарных
> идей.
Скажи, а откуда ты взял этот принцип? Можешь его обосновать? Вот лично для меня это совсем не очевидно. Более того, я с этим не согласен.
-
> SPeller © (05.02.09 18:48) [8]
> Забыли один основополагающий принцип любой программы. Она
> не может быть умнее программиста.
+1. Насколько мне известно ни один алгоритм не может создать другой алгоритм (копирование и т.д. не считаем)..Наверное это и есть задача создания искусственного интеллекта.
-
> Эксперты: Развитие технологий приведет к гибели человечества
Наверное есть более короткие пути, например развитие глупости..)).
-
Там самый первый - эксперт-футуролог. Прямо так и написано.
-
AlexDan © (05.02.09 21:00) [13]
Почитай что ли конечные автоматы.
-
> SPeller © (05.02.09 18:48) [8]
>
> Забыли один основополагающий принцип любой программы. Она
> не может быть умнее программиста.
Может. Не может только на императивных языках. Функциональная структура любой программы на функциональном языке всегда сложнее ее кода по отдельности.
-
это пишут журналюги - тупицы.
-
> Юрий Зотов © (05.02.09 17:37) [2]
>
> > Эксперты: Развитие технологий приведет к гибели человечества
>
> Тут и экспертом быть не нужно. Развитие технологий приведет
> к гибели человечества потому, что уничтожит его среду обитания.
>
>
> Если, конечно, это самое человечество вовремя не остановится.
>
>
> Если это еще не поздно...
>
Надеюсь, что ещё не поздно.
Плохо то, что "пророки" SiensFiction ныне почти забыты. А они уже в середине 20-го века намекали на это. Ныне они не в моде. А кто поверит экспертам?