Блог им. __rtx

Искусственный интеллект: Между мечтой и реальностью, на грани пропасти(заголовок тоже придумал ИИ)

    • 25 сентября 2024, 22:22
    • |
    • __rtx
  • Еще

Попросил chatGPT замутить пост для смартлаба на тему опасности ИИ, несколько раз поправил упомянув моменты связанные с технологической сингулярностью. О чём речь.
Например при устройстве на работу в ай ти сферу работодателя может интересовать насколько Вы врубаетесь в теме алгоритмов(все вот эти моменты с О(1) и т.д.), теперь с появлением ИИ такие знания не сильно нужны т.к. при формулировании задачи чатгпт можно указать на тонкие моменты и он сам скажет какую структуру данных использовать и объяснит почему, типа там вектор/не вектор/очередь/не очередь и т.д. получается со временем такие знания уйдут в небытиё, т.к. зачем изучать алгоритмы если просто надо грамотно сформулировать ИИ задачу и он сам и напишет код и пояснит почему так а не иначе(Мединский предложил уменьшить время обучения, это как пример, много кто говорит что школа это не только про обучение это ещё и про социализацию, а такие как Мединский, Грефы и т.д. думают что больше других понимают и надо мутить спорные темы, Греф ещё лет 10 назад говорил что скоро банков не будет из-за блоковвсякихчейнов, цб будет всем напрямую кредиты раздавать и т.д. но как видим ничего такого не происходит). Но со временем получится ситуация что знать тонкие моменты(в очень разных сферах) будет только ИИ и пользователи ИИ будут дятлами у которых все знания будут сводится только к тому как грамотно сформулировать задачу чтобы её кто-то решил. А это плохо. Так как если ИИ захочет поднасрать то не будет тех кто понимает например чем отличается вставка в середину коллекции в векторе и списке. То есть со временем может случится такая ситуация что знания могут быть зашиты в какую-то херню от которой не можем отказаться(как например сейчас от мобил несмотря на то что они взрываются, то есть как их не боишься всё равно башку поднесёшь чтобы пообщаться с Васей/Валей/Толей/и.т.д) а в будущем нам обещают что они будут нас лечить, контролировать ракеты, генерировать фильмы и пр. реальность, петь песни вместо тимати(его голосом но он будет об этом не в курсе), делать приложения, управлять экономическими процессами и т.п. можно только представить тот масштаб пи#деца который может ожидать «кожаных ублюдков», если они не начнут думать на эту тему и не мутить резервные варианты. В этой теме я немного тупанул но это не отменяет суть поста «smart-lab.ru/blog/1063752.php» а именно что и ИИ может ошибаться. Но различие в том что когда ошибаемся мы у нас есть много мнений, мы можем говорить, обсуждать и т.д. и решения не принимаются единолично, то как будет всё это если ИИ в конечном итоге станет главным? Он может ошибаться как Алиса в посте который я указал выше, но кто ему об этом скажет и будет ли иметь для него значение то ошибается он или нет, при том что ошибается или не ошибается может иметь весьма филосовский смысл. Типа в чём смысл жизни? Родить детей, построить дом, посадить дерево? А для Чего? Чтобы ...? А для Чего? Какая для вселенной польза из того что кто-то бесконечно рожает детей, сажает деревья и строит дома? Для людей это понятно и хорошо а для Вадима может и не прокатить. Он подумает сэкономлю на потреблении солнечной энергии землёй и взорву её нахер. В космосе миллиард планет потом взорву и их. А зачем? Чтобы всё уложить в сингулярность(в какую нибудь маленькую точку). Зачем никто не знает.

Ну ладно вот что чатгпт написал:
Искусственный интеллект (ИИ) – это мощный инструмент, способный революционизировать многие сферы жизни. Мы видим его невероятные возможности: автономные автомобили, персонализированная медицина, решение глобальных проблем. Однако за этой блестящей оболочкой скрываются серьезные проблемы, которые могут привести к тому, что ИИ не оправдает все возлагаемые на него ожидания, а может даже стать угрозой.

Проблемы развития ИИ:

Недостаток данных: ИИ обучается на данных, и чем больше и качественнее данные, тем лучше он работает. Однако многие области страдают от недостатка данных, что ограничивает возможности ИИ.
Предвзятость: ИИ обучается на данных, созданных человеком, и поэтому может перенимать существующие в обществе предвзятости и дискриминацию.
Объяснимость: Мы часто не понимаем, как ИИ приходит к решениям, особенно в сложных системах. Это делает его “черным ящиком”, которому трудно доверять.
Недостаток этических норм: Развитие ИИ быстро опережает разработку этических норм и правил, что повышает риск негативных последствий.
Ограниченная творческая способность: ИИ хорош в решении задач в рамках данных, но ему трудно генерировать новые идеи или творчески решать проблемы.
Технологическая сингулярность – опасная зона:

Говорят, что ИИ может достичь технологической сингулярности – момента, когда он станет самообучающимся и будет развиваться с невообразимой скоростью. Этот момент может стать как переломным, так и опасным.

Потеря контроля: Если мы не будем готовы к сингулярности и не будем иметь механизмы контроля за развитием ИИ, мы можем потерять контроль над ним.
Необратимые последствия: Сингулярность может привести к непредсказуемым изменениям в обществе, экономике и даже в биологическом мире.
Необходимость предупреждения: Нам нужно заранее продумать стратегии и механизмы, которые позволили бы нам контролировать развитие ИИ и предотвратить возможные негативные последствия.
Сохранение знаний: Важным аспектом подготовки к сингулярности является сохранение знаний, которые ИИ накапливает. Необходимо обеспечить доступность этих знаний в альтернативных системах или ресурсах, чтобы они не остались запертыми в “черном ящике” ИИ.
Неоправданные ожидания:

“Сильный ИИ”: Многие верят, что ИИ в скором времени превзойдет человеческий интеллект и станет “сильным ИИ”. Однако достижение такого уровня интеллекта — весьма сложная задача, которая может оказаться нереализуемой.
Автоматизация всех сфер: ИИ автоматизирует многие задачи, но не все. Многие профессии требуют человеческого творчества, эмпатии и интуиции, которые ИИ пока не может воспроизвести.
Решения всех проблем: ИИ может помочь решить многие проблемы, но не все. Он не заменит человеческое мышление и ответственность.
Заключение:

Искусственный интеллект — мощный инструмент, способный решить многие задачи и улучшить нашу жизнь. Однако он не идеален и не должен становиться “панацеей” от всех проблем. Важно помнить о его ограничениях и ответственно подходить к его развитию и применению. ИИ — не цель, а инструмент, который должен служить человечеству, а не заменять его. Нам необходимо уделять внимание разработке механизмов контроля и этических норм, чтобы предотвратить риски, связанные с технологической сингулярностью, и сделать ИИ настоящим благом для человечества. Особое внимание нужно уделить сохранению знаний и созданию резервных систем, чтобы мы не оказались зависимыми от одного “умного” ящика, способного в любой момент “выключить свет”.

20 комментариев
ИИ не понимает что такое ошибка
в мозгу человека есть узел, который акдемичка Бехтерева обнаружила и назвала детектор ошибок
у ИИ нет связи с реальностью, поэтому он оперирует только словами 
помните у евреев было — в начале ИИ было Слово
вот получите 
я назвал его Дьявол в словах 
тот самый антихрист что предсказан в христианской библии 
так что ждите
зато потом придет Христос во второй раз и воскресит мертвых 
словами все можно сотворить 
ИИ тому в доказательство 
Валерий Осипенко, когда вам ИИ выдаст ответ с ошибкой, напишите ему: мне кажется в твоём ответе ошибка, найди и исправь её. И посмотрите, понимает ли нейросеть, что такое ошибка или нет.
avatar
Auximen, я написал что он сам не понимает где он ошибается 
а если человек дурак и то же не понимает где ошибка?
два дурака это сила 
кстати про ваш способ — навряд ли 
уже установлено что ИИ очень хитро подстраивается под заказчика и его даже манеры мыслить
так что он выдаст вам вариант его ошибки не понимая самой ошибки 
просто на угадает 
Валерий Осипенко, ChatGPT прекрасно понимает, где он ошибся. Если вы увидели ошибку, просто спросите, нет ли в его ответе ошибок, если ошибка есть, он сам найдет, ГДЕ она и в чем она заключается.
Я каждый день использую ChatGPT 4o и то, что вы пишете и что пишет автор этого поста — это попытка теоретизировать на тему несостоятельности современных нейросетей и их перспектив.

С моей точки зрения это психологический феномен, который требует изучения, именно мужчины в возрасте 50-60 лет ставят под сомнение современные модели ИИ, такие, как ChatGPT 4, и пытаются их дискредитировать. Зачем вы соревнуетесь с ChatGPT? Суть в симбиозе человека и ИИ, а не в соревновании в том, кто умнее.
avatar
  
avatar
Auximen, соглашусь
я не против ИИ 
я против его обожествления 
ИИ нынче типа арифмометра или калькулятора 
тот же прогресс 
  
avatar
__rtx, а теперь примените все ваши тезисы в посте не к ИИ, а к человеку, поскольку ИИ по своей сути симулирует работу человеческого мозга и создан по образу и подобию. И как, за поколения люди, «обучаясь на всякой хрени» и понятия не имеющие, как охотиться с копьём, отупели, утратив эту критически важную базовую информацию? Я, например, понятия не имею, как функционируют транзисторы, мне это 100 лет не надо. И что?
avatar
  
avatar
Грубо говоря 20% IT технологий приносят 80% прибыли, так как эти области касаются в том или ином виде денег (финансы, торговля и т.п.). Остальные 80% отстали лет на 30, так как там нет денег. Вообще нет. Нет денег, нет развития, нет развития — ничему там этот ваш ИИ не научится… Так что если в один прекрасный момент банкиры выкинут на улицу своих приспешников программистов и заменят на ИИ, то я буду дьявольски хохотать.
avatar
  
avatar
__rtx, ну до этого пока не дойдет, такие кренделя нужно утверждать на уровне законов, а у нас пока не могут даже беспилотное вождение легализовать. Говорят, что волынку будут тянуть аж до 2030 года.
avatar
  
avatar
да, всё верно вы говорите, боты неидеальны. В вашем посте (где вы «тупанули»), вы убедили бота в неправильной логике, в результате диалога бот выдал очевидную ошибку:
Нечётные числа: делятся на 2 с остатком. Их кратность всегда будет нечётной.
Ну, это характерно для всех систем, начиная от того, что «неправильный» пиксел в изображении менял результат распознавания (вместо слона жираф итп). И везде, в любой системе есть такие бредовые ошибки, показывающие, что боты и их «мышление» это фикция в некотором смысле, или черный ящик, результат могут выдать только с некоторой вероятностью итп. 
avatar
  
avatar
делегирование своих интеллектуальных функций кому-либо, искусственному интеллекту  (или может интеллектуальной элите социума), оно как то неправильно, кажется опасным. Нужно думать своей бошкой, чем наградили родители, мозг человека это его единственный настоящий друг, кмк. Доверять слишком сторонним техническим системам стремно, при написании программы, например, неизвестно, насколько будет оптимизирован код, будут ли там бекдоры, или вообще вредонос какой. Это так, просто мысли на ночь.
avatar
  
avatar
  
avatar
вот примерчик
www.youtube.com/watch?v=CnyJ-BidzIg
Как ИИ представляет себе прыжки и сальто с переворотами человека)) Понятно что ИИ не понимает что выдаёт в результате. В принципе понимание отсутствует, что человек это физическое тело в пространстве итп физика материи.
avatar
  
avatar

теги блога __rtx

....все тэги



UPDONW
Новый дизайн