Dertysew, по мне это два разных подхода.
Компьютер действует по заданному алгоритму. Правильный алгоритм дает правильный результат в 100% случаев. 100% повторяемость дает возможность усложнять простые задачи (2+2) до уровней доступных производственными мощностями.
ИИ развитие которых мы свидетели — ото лингвистическая модель. Если при недопустимых вводных компьютер выдаст ошибку, то ИИ выдаст ответ не особо парясь его истинности. Никто и не скрывает, что точность результата менее 100%. При этом когда поступает задача на предоставления алгоритма, ИИ не анализирует свой предыдущий ответ, а генерит новый текст на основе предыдущего ответа с точностью менее 100%.
Отсюда и возможные опасности. Если ты доверил ИИ сделать реферат про верблюдов, то цена ошибки минимальна. А если доверил управление сложной системой, то накопленная ошибка легко сможет стать катастрофичной.


