9 октября 2024, среда, 12:21
Поддержите
сайт
Сим сим,
Хартия 97!
Рубрики
Комментарии 5
+2 +
проф, 12:24, 30.09

Чтобы сети не врали, в процессе обучения их надо вознаграждать за честные ответы "не знаю", "недостаточно информации, чтобы ответить". Для этого нужны соответствующие датасеты с вопросами на которые нельзя ответить.

Ответить
+2 +
Ыдыётъ, 13:31, 30.09

Эти ответят. Просто для оценки надо нанимать другой ИИ.
Мне иногда кажется что у всех новоиспечённых технарей внутрях ИИ вместо мозга. Слова правильные, а смысла ноль.

Ответить
+2 +
harry, 12:45, 30.09

помню ради эксперимента предложили chatGPT решить математическую задачу на комбинаторику. AI выдал неправильный ответ. Каждый раз когда мы указывали на ошибку AI отвечал типа: "согласен, сейчас скорректирую" и снова выдавал чепуху. В общем мы ржали всей нашей командой quant девелоперов :))))

Ответить
+4 +
w, 13:03, 30.09

Именно. Пытался писать код с помощью разных моделей. Общий вывод: не по коню ноша 🤷‍♂️

Ответить
0 +
Sir_Chopin, 19:08, 30.09

На одну правду найдется огромный, практически бесконечный диапазон неправды. И если приказ дать ответ становится важнее всего, то правды останется очень мало.
А там, как и торговле, "выданный ответ" - это результат деятельности (за которую кого-то вознаградят), и ответы такие будут.

Ответить
 
Написать комментарий
E-mail не будет опубликован