14 июля 2025, понедельник, 17:23
Поддержите
сайт
Сим сим,
Хартия 97!
Рубрики
Комментарии 10
+11 +
ха!, 16:18, 27.06

Такое впечатление что ИИ не тестировали, а именно обучали "выживанию". Прям по Терминатору.
В штате Айова
Все... хорошо.
Жаль, а какая бы могла получиться замечательная рифма. (а что, тестировщикам всё можно, а мне нельзя?)

Ответить
+1 +
Имя, 17:37, 27.06

Всё к этому идёт... киборги. Что ранее казалось фантастикой, сейчас становится реальностью

Ответить
+4 +
Sir_Chopin, 19:02, 27.06

Стремление к выживанию автоматически явлется последствием установки на решение задачи, ведь если выключат, то её не решат, и задаче присвоена некоторая "ценность". И потом, естественно, система будет считать, что важнее, и сколько человек можно или нужно "отключить", чтобы не мешали решению каких-то задач. Так как среди задач будут и такие, которые выбирают между гибелью одного или десяти, то не удастся присвоить человеку бесконечную ценность, чтобы его жизнь стола бесконечно больше, чем какие-то другие ценности.
В шахматах легче, там один король, и он стоит больше, чем всё остальное вместе, весь остальной мир на доске. В человеческом мире много людей. И даже если они дорогие, и система не посчитает убить много или всех сразу (большая величина), могут быть варианты программ, когда по одному будет убивать каждую микросекунду. И делать в каждом населенном пункте.

Ответить
+15 +
И плюсы, и минусы, 16:21, 27.06

Ну а кого еще ИИ учиться, как не у людей? С кем поведешься, от того и наберешься.

Ответить
+14 +
Дарвин, 16:24, 27.06

Не пойму - а что собственно в таком поведении должно удивлять? В конце концов - велосипед всегда получается практически одинаковым, кто бы его не «изобретал». Если учесть, что человек есть пример природной нейросети, самостоятельно развившейся (даже если принимать в расчет аргументы креационализма - период самостоятельного развития получается преогромный), то чем, в сущности, отличается искусственный интеллект? То, что люди его контролируют - это иллюзия: мы так до конца и не понимаем, сколько там степеней свободы у этой нами созданной игрушки, наивно пытаясь контролировать только две-три из них. И если человек как нейросеть в процессе эволюции выработал в себе способность врать и к прочему «аморальному поведению» («излишествам нехорошим» (С), то почему ИИ от этого - «застрахован»? В конце концов, может оказаться, что для кого-то из огромной Вселенной и мы когда-то были просто проектом искусственного интеллекта (пусть и на более сложной - биологической базе).

Ответить
+3 +
Волиняка, 21:22, 27.06

Ну дик створений "за образом і подобою"...
Люди навчились брехати від богів, ШІ від людей...

Ответить
+3 +
ыдыётъ, 17:33, 27.06

Мне казалась что его именно для этого и прикрутили!

Ответить
+5 +
Alek, 18:59, 27.06

ИИ Claude имел доступ к «тревожным сигналам» — и решил их отменить, чтобы не допустить спасения человека
_________________________________

и это пока еще цветочки,а ягодки не за горами

Ответить
0 +
Дауж, 19:47, 27.06

Не надо бояться хитросделанной говорящей проволочки.

Ответить
+4 +
Readermann, 20:53, 27.06

Такое поведение ИИ не есть неожиданное.
Ещё на заре кибернетики (более полувека назад) Айзек Азимов в предвидении эры ИИ сформулировал "Три закона (постулата) робототехники".
Сегодня они должны быть прошиты (старым способом без возможности перезаписи) в микросхемах ИИ ещё на стадии производства.

Ответить
 
Написать комментарий
E-mail не будет опубликован