__rtx
__rtx личный блог
25 сентября 2024, 22:22

Искусственный интеллект: Между мечтой и реальностью, на грани пропасти(заголовок тоже придумал ИИ)

Попросил chatGPT замутить пост для смартлаба на тему опасности ИИ, несколько раз поправил упомянув моменты связанные с технологической сингулярностью. О чём речь.
Например при устройстве на работу в ай ти сферу работодателя может интересовать насколько Вы врубаетесь в теме алгоритмов(все вот эти моменты с О(1) и т.д.), теперь с появлением ИИ такие знания не сильно нужны т.к. при формулировании задачи чатгпт можно указать на тонкие моменты и он сам скажет какую структуру данных использовать и объяснит почему, типа там вектор/не вектор/очередь/не очередь и т.д. получается со временем такие знания уйдут в небытиё, т.к. зачем изучать алгоритмы если просто надо грамотно сформулировать ИИ задачу и он сам и напишет код и пояснит почему так а не иначе(Мединский предложил уменьшить время обучения, это как пример, много кто говорит что школа это не только про обучение это ещё и про социализацию, а такие как Мединский, Грефы и т.д. думают что больше других понимают и надо мутить спорные темы, Греф ещё лет 10 назад говорил что скоро банков не будет из-за блоковвсякихчейнов, цб будет всем напрямую кредиты раздавать и т.д. но как видим ничего такого не происходит). Но со временем получится ситуация что знать тонкие моменты(в очень разных сферах) будет только ИИ и пользователи ИИ будут дятлами у которых все знания будут сводится только к тому как грамотно сформулировать задачу чтобы её кто-то решил. А это плохо. Так как если ИИ захочет поднасрать то не будет тех кто понимает например чем отличается вставка в середину коллекции в векторе и списке. То есть со временем может случится такая ситуация что знания могут быть зашиты в какую-то херню от которой не можем отказаться(как например сейчас от мобил несмотря на то что они взрываются, то есть как их не боишься всё равно башку поднесёшь чтобы пообщаться с Васей/Валей/Толей/и.т.д) а в будущем нам обещают что они будут нас лечить, контролировать ракеты, генерировать фильмы и пр. реальность, петь песни вместо тимати(его голосом но он будет об этом не в курсе), делать приложения, управлять экономическими процессами и т.п. можно только представить тот масштаб пи#деца который может ожидать «кожаных ублюдков», если они не начнут думать на эту тему и не мутить резервные варианты. В этой теме я немного тупанул но это не отменяет суть поста «smart-lab.ru/blog/1063752.php» а именно что и ИИ может ошибаться. Но различие в том что когда ошибаемся мы у нас есть много мнений, мы можем говорить, обсуждать и т.д. и решения не принимаются единолично, то как будет всё это если ИИ в конечном итоге станет главным? Он может ошибаться как Алиса в посте который я указал выше, но кто ему об этом скажет и будет ли иметь для него значение то ошибается он или нет, при том что ошибается или не ошибается может иметь весьма филосовский смысл. Типа в чём смысл жизни? Родить детей, построить дом, посадить дерево? А для Чего? Чтобы ...? А для Чего? Какая для вселенной польза из того что кто-то бесконечно рожает детей, сажает деревья и строит дома? Для людей это понятно и хорошо а для Вадима может и не прокатить. Он подумает сэкономлю на потреблении солнечной энергии землёй и взорву её нахер. В космосе миллиард планет потом взорву и их. А зачем? Чтобы всё уложить в сингулярность(в какую нибудь маленькую точку). Зачем никто не знает.

Ну ладно вот что чатгпт написал:
Искусственный интеллект (ИИ) – это мощный инструмент, способный революционизировать многие сферы жизни. Мы видим его невероятные возможности: автономные автомобили, персонализированная медицина, решение глобальных проблем. Однако за этой блестящей оболочкой скрываются серьезные проблемы, которые могут привести к тому, что ИИ не оправдает все возлагаемые на него ожидания, а может даже стать угрозой.

Проблемы развития ИИ:

Недостаток данных: ИИ обучается на данных, и чем больше и качественнее данные, тем лучше он работает. Однако многие области страдают от недостатка данных, что ограничивает возможности ИИ.
Предвзятость: ИИ обучается на данных, созданных человеком, и поэтому может перенимать существующие в обществе предвзятости и дискриминацию.
Объяснимость: Мы часто не понимаем, как ИИ приходит к решениям, особенно в сложных системах. Это делает его “черным ящиком”, которому трудно доверять.
Недостаток этических норм: Развитие ИИ быстро опережает разработку этических норм и правил, что повышает риск негативных последствий.
Ограниченная творческая способность: ИИ хорош в решении задач в рамках данных, но ему трудно генерировать новые идеи или творчески решать проблемы.
Технологическая сингулярность – опасная зона:

Говорят, что ИИ может достичь технологической сингулярности – момента, когда он станет самообучающимся и будет развиваться с невообразимой скоростью. Этот момент может стать как переломным, так и опасным.

Потеря контроля: Если мы не будем готовы к сингулярности и не будем иметь механизмы контроля за развитием ИИ, мы можем потерять контроль над ним.
Необратимые последствия: Сингулярность может привести к непредсказуемым изменениям в обществе, экономике и даже в биологическом мире.
Необходимость предупреждения: Нам нужно заранее продумать стратегии и механизмы, которые позволили бы нам контролировать развитие ИИ и предотвратить возможные негативные последствия.
Сохранение знаний: Важным аспектом подготовки к сингулярности является сохранение знаний, которые ИИ накапливает. Необходимо обеспечить доступность этих знаний в альтернативных системах или ресурсах, чтобы они не остались запертыми в “черном ящике” ИИ.
Неоправданные ожидания:

“Сильный ИИ”: Многие верят, что ИИ в скором времени превзойдет человеческий интеллект и станет “сильным ИИ”. Однако достижение такого уровня интеллекта — весьма сложная задача, которая может оказаться нереализуемой.
Автоматизация всех сфер: ИИ автоматизирует многие задачи, но не все. Многие профессии требуют человеческого творчества, эмпатии и интуиции, которые ИИ пока не может воспроизвести.
Решения всех проблем: ИИ может помочь решить многие проблемы, но не все. Он не заменит человеческое мышление и ответственность.
Заключение:

Искусственный интеллект — мощный инструмент, способный решить многие задачи и улучшить нашу жизнь. Однако он не идеален и не должен становиться “панацеей” от всех проблем. Важно помнить о его ограничениях и ответственно подходить к его развитию и применению. ИИ — не цель, а инструмент, который должен служить человечеству, а не заменять его. Нам необходимо уделять внимание разработке механизмов контроля и этических норм, чтобы предотвратить риски, связанные с технологической сингулярностью, и сделать ИИ настоящим благом для человечества. Особое внимание нужно уделить сохранению знаний и созданию резервных систем, чтобы мы не оказались зависимыми от одного “умного” ящика, способного в любой момент “выключить свет”.

20 Комментариев
  • Валерий Осипенко
    25 сентября 2024, 22:33
    ИИ не понимает что такое ошибка
    в мозгу человека есть узел, который акдемичка Бехтерева обнаружила и назвала детектор ошибок
    у ИИ нет связи с реальностью, поэтому он оперирует только словами 
    помните у евреев было — в начале ИИ было Слово
    вот получите 
    я назвал его Дьявол в словах 
    тот самый антихрист что предсказан в христианской библии 
    так что ждите
    зато потом придет Христос во второй раз и воскресит мертвых 
    словами все можно сотворить 
    ИИ тому в доказательство 
  • Среднеброд
    25 сентября 2024, 23:01
    Грубо говоря 20% IT технологий приносят 80% прибыли, так как эти области касаются в том или ином виде денег (финансы, торговля и т.п.). Остальные 80% отстали лет на 30, так как там нет денег. Вообще нет. Нет денег, нет развития, нет развития — ничему там этот ваш ИИ не научится… Так что если в один прекрасный момент банкиры выкинут на улицу своих приспешников программистов и заменят на ИИ, то я буду дьявольски хохотать.
  • vovA4546
    25 сентября 2024, 23:21
    да, всё верно вы говорите, боты неидеальны. В вашем посте (где вы «тупанули»), вы убедили бота в неправильной логике, в результате диалога бот выдал очевидную ошибку:
    Нечётные числа: делятся на 2 с остатком. Их кратность всегда будет нечётной.
    Ну, это характерно для всех систем, начиная от того, что «неправильный» пиксел в изображении менял результат распознавания (вместо слона жираф итп). И везде, в любой системе есть такие бредовые ошибки, показывающие, что боты и их «мышление» это фикция в некотором смысле, или черный ящик, результат могут выдать только с некоторой вероятностью итп. 

Активные форумы
Что сейчас обсуждают

Старый дизайн
Старый
дизайн