-
ВладОшин © (07.01.19 18:44) [20]Когда объясняют - да ). Становится понятно, как ловко зажимает )
-
> Становится понятно, как ловко зажимает
может через сто лет появиться программа которая нынешние в одном потоке будет
черными побеждать без особого напряга, вот тогда мы будем говорить ловко :)
Движки за последние годы сильно эволюционировали, но это не означает конец -
скорей только начало чего-то бОльшего. Существование такой программы как альфазеро
это только подтверждает. К тому же уже сейчас есть нейросеть для "обычного железа" -
http://lczero.org/ и она тоже не слабо прогрессирует. А что будет через 10 лет? 50? 100?
Я думаю человек на пороге создания искусственной жизни - не меньше.
Я не знаю как насчет души у этой всей машинерии, но факт остается фактом -
программы развиваются и пока конечно не дошли до полностью автономного саморазвития,
но все предпосылки к этому имеются... Я боюсь за то, что разработчик такой программы в
конечном счете ошибётся в постановке цели для машины и тогда возможны нехорошие
сценарии или более того такой разработчик сможет запрограммировать так что, цели
будут выбираться динамически и абстрактно, тогда уже такую программу можно будет
назвать разумной, а это проблема... Проблема отношений между искусственным и естественным.
На эту тему у человечество огромное количество фантастических книг, чаще с апокалиптическим
сюжетом. И на этом будет учиться машина? Человек сейчас мало что может дать своему ребенку,
тому приходится все постигать на собственном опыте. А что человек может дать машине?
В большинстве только негативную информацию, коей на просторах интернета достаточно.
Другой вопрос что целью должно стать поиск чего-то положительного, но сие сложно
запрограммировать динамической постановкой целей, если вообще такая задача будет стоять... -
ВладОшин © (07.01.19 19:47) [22]
> xayam © (07.01.19 19:23) [21]
не.. как-то ты мрачен ))
Изобретатель топора примерно так же, наверное, был. Можно хату срубить, а можно и соседу по черепушке двинуть.
Смотря в чьи руки попадет.. -
ВладОшин © (07.01.19 19:59) [23]Кстати, надо глянуть прогноз производительности железа. Гугл легко может позволить себе Альфу, никаких сомнений. Но, вроде, это экстенсивный путь. Они там нагородили кучу серверов, конечно, у них все будет ok..
А вот такое, что бы под столом стояло и было сравнимой мощности?
Пока, на сколько опять же помню, достигнут предел (практически). Ждем революцию ) -
> Смотря в чьи руки попадет..
проблема в том что в данном случае у нас разумный (читай неконтролируемый) топор -
ВладОшин © (07.01.19 20:11) [25]ну.. у этого умника есть розетка )
-
> ну.. у этого умника есть розетка )
ключевое слово - ПОКА есть :) -
тем более проблемой может стать не сама розетка,
а то что она охраняема самим ИИ и его
сподвижниками :) -
> xayam © (07.01.19 20:20) [26]
> > ну.. у этого умника есть розетка )
> ключевое слово - ПОКА есть :)
или более того розеток может быть миллион и отключение всех
будет равносильна отказу от электричества для всего человечества :) -
ВладОшин © (07.01.19 21:12) [29]SkyNet? )
Далеко нам до этого, все же. Не разделяю оптимизма про ИИ. Создадут максимум эксперта в одном направлении. Картинки распознавать, в шахматы играть.
Ну да, или планировать ядерные удары максимальной эффективности
могут соединить несколько направлений.
Но вот что бы прям вот такой разум, который бы начал розетки защищать и Т-800 печатать для поиска и убийства Била Гейтса 2.0 - не, для такого мы еще долго не будем готовы, имхо
хотя.. для некоторых Т-800 надо вызвать, 100%% )) -
> SkyNet? )
а что не веришь? Но всё к этому идёт...
Не знаю сколько на это понадобиться лет, но если вектор развития сохранится,
то я оцениваю максимально - 100 лет и если человечество к тому времени
не погибнет во вспышке ядерного взрыва, то будет и такая проблема как дополнение к
остальным... -
ВладОшин © (07.01.19 23:20) [31]Опасность есть. Но больше, думаю, опасность в ошибке в коде, чем, что ИИ САМ решит поработить всех.
Т.е. скорее кто-то посадит AV и он запустит все ракеты, чем он осознанно запустит все ракеты. Еще и потому, что человечество было бы идиотами, если бы отдало под контроль ИИ все, без возможности остановить в любой момент через какой-нить бэкдор -
> если бы отдало под контроль ИИ все, без возможности остановить
> в любой момент через какой-нить бэкдор
думаю в случае реального ИИ бэкдор нереален, поскольку ИИ имел бы свои исходники
и переписал все без бэкдоров... -
ВладОшин © (08.01.19 01:11) [33]
> xayam © (08.01.19 00:57) [32]
Защелку ему тогда, как на дискетке )
Пока пимку не отодвинешь, фиг тебе а не запись. И все это в ядре. И граната привязана к пимпке, что бы не сдвинуть ) -
а копии делать тоже запретить? Где-то записывать должно быть разрешено,
иначе как творить :) -
ВладОшин © (09.01.19 07:44) [35]На отдельный носитель творить будет. А ядро для модификации для самого ИИ закрыто
-
ВладОшин © (09.01.19 08:23) [36]Зацени )
Только что получилось сыграть на личесс )) (https://lichess.org)
https://cloud.mail.ru/public/N7kQ/qxZFNY25W
мат в 4 хода -
> мат в 4 хода
это называется - спертый мат
> На отдельный носитель творить будет
а если это будет программа? Можно будет запустить с носителя? -
ВладОшин © (09.01.19 12:57) [38]Ну конечно
Как раньше дискеты работали, 3.5 которые
http://www.delphiplus.org/images/dvip02/dvip02-131.png
все читается, а писать нельзя пока защелку не сдвинешь. Вот ядро будет на таком носителе, а остальное на другом - там пусть переписывает -
> Как раньше дискеты работали
да, но всегда можно перенести на другой носитель пишущий и такого ограничения не будет