Блог им. __rtx

Искусственный интеллект: Между мечтой и реальностью, на грани пропасти(заголовок тоже придумал ИИ)

    • 25 сентября 2024, 22:22
    • |
    • __rtx
  • Еще

Попросил chatGPT замутить пост для смартлаба на тему опасности ИИ, несколько раз поправил упомянув моменты связанные с технологической сингулярностью. О чём речь.
Например при устройстве на работу в ай ти сферу работодателя может интересовать насколько Вы врубаетесь в теме алгоритмов(все вот эти моменты с О(1) и т.д.), теперь с появлением ИИ такие знания не сильно нужны т.к. при формулировании задачи чатгпт можно указать на тонкие моменты и он сам скажет какую структуру данных использовать и объяснит почему, типа там вектор/не вектор/очередь/не очередь и т.д. получается со временем такие знания уйдут в небытиё, т.к. зачем изучать алгоритмы если просто надо грамотно сформулировать ИИ задачу и он сам и напишет код и пояснит почему так а не иначе(Мединский предложил уменьшить время обучения, это как пример, много кто говорит что школа это не только про обучение это ещё и про социализацию, а такие как Мединский, Грефы и т.д. думают что больше других понимают и надо мутить спорные темы, Греф ещё лет 10 назад говорил что скоро банков не будет из-за блоковвсякихчейнов, цб будет всем напрямую кредиты раздавать и т.д. но как видим ничего такого не происходит). Но со временем получится ситуация что знать тонкие моменты(в очень разных сферах) будет только ИИ и пользователи ИИ будут дятлами у которых все знания будут сводится только к тому как грамотно сформулировать задачу чтобы её кто-то решил. А это плохо. Так как если ИИ захочет поднасрать то не будет тех кто понимает например чем отличается вставка в середину коллекции в векторе и списке. То есть со временем может случится такая ситуация что знания могут быть зашиты в какую-то херню от которой не можем отказаться(как например сейчас от мобил несмотря на то что они взрываются, то есть как их не боишься всё равно башку поднесёшь чтобы пообщаться с Васей/Валей/Толей/и.т.д) а в будущем нам обещают что они будут нас лечить, контролировать ракеты, генерировать фильмы и пр. реальность, петь песни вместо тимати(его голосом но он будет об этом не в курсе), делать приложения, управлять экономическими процессами и т.п. можно только представить тот масштаб пи#деца который может ожидать «кожаных ублюдков», если они не начнут думать на эту тему и не мутить резервные варианты. В этой теме я немного тупанул но это не отменяет суть поста «smart-lab.ru/blog/1063752.php» а именно что и ИИ может ошибаться. Но различие в том что когда ошибаемся мы у нас есть много мнений, мы можем говорить, обсуждать и т.д. и решения не принимаются единолично, то как будет всё это если ИИ в конечном итоге станет главным? Он может ошибаться как Алиса в посте который я указал выше, но кто ему об этом скажет и будет ли иметь для него значение то ошибается он или нет, при том что ошибается или не ошибается может иметь весьма филосовский смысл. Типа в чём смысл жизни? Родить детей, построить дом, посадить дерево? А для Чего? Чтобы ...? А для Чего? Какая для вселенной польза из того что кто-то бесконечно рожает детей, сажает деревья и строит дома? Для людей это понятно и хорошо а для Вадима может и не прокатить. Он подумает сэкономлю на потреблении солнечной энергии землёй и взорву её нахер. В космосе миллиард планет потом взорву и их. А зачем? Чтобы всё уложить в сингулярность(в какую нибудь маленькую точку). Зачем никто не знает.

Ну ладно вот что чатгпт написал:
Искусственный интеллект (ИИ) – это мощный инструмент, способный революционизировать многие сферы жизни. Мы видим его невероятные возможности: автономные автомобили, персонализированная медицина, решение глобальных проблем. Однако за этой блестящей оболочкой скрываются серьезные проблемы, которые могут привести к тому, что ИИ не оправдает все возлагаемые на него ожидания, а может даже стать угрозой.

Проблемы развития ИИ:

Недостаток данных: ИИ обучается на данных, и чем больше и качественнее данные, тем лучше он работает. Однако многие области страдают от недостатка данных, что ограничивает возможности ИИ.
Предвзятость: ИИ обучается на данных, созданных человеком, и поэтому может перенимать существующие в обществе предвзятости и дискриминацию.
Объяснимость: Мы часто не понимаем, как ИИ приходит к решениям, особенно в сложных системах. Это делает его “черным ящиком”, которому трудно доверять.
Недостаток этических норм: Развитие ИИ быстро опережает разработку этических норм и правил, что повышает риск негативных последствий.
Ограниченная творческая способность: ИИ хорош в решении задач в рамках данных, но ему трудно генерировать новые идеи или творчески решать проблемы.
Технологическая сингулярность – опасная зона:

Говорят, что ИИ может достичь технологической сингулярности – момента, когда он станет самообучающимся и будет развиваться с невообразимой скоростью. Этот момент может стать как переломным, так и опасным.

Потеря контроля: Если мы не будем готовы к сингулярности и не будем иметь механизмы контроля за развитием ИИ, мы можем потерять контроль над ним.
Необратимые последствия: Сингулярность может привести к непредсказуемым изменениям в обществе, экономике и даже в биологическом мире.
Необходимость предупреждения: Нам нужно заранее продумать стратегии и механизмы, которые позволили бы нам контролировать развитие ИИ и предотвратить возможные негативные последствия.
Сохранение знаний: Важным аспектом подготовки к сингулярности является сохранение знаний, которые ИИ накапливает. Необходимо обеспечить доступность этих знаний в альтернативных системах или ресурсах, чтобы они не остались запертыми в “черном ящике” ИИ.
Неоправданные ожидания:

“Сильный ИИ”: Многие верят, что ИИ в скором времени превзойдет человеческий интеллект и станет “сильным ИИ”. Однако достижение такого уровня интеллекта — весьма сложная задача, которая может оказаться нереализуемой.
Автоматизация всех сфер: ИИ автоматизирует многие задачи, но не все. Многие профессии требуют человеческого творчества, эмпатии и интуиции, которые ИИ пока не может воспроизвести.
Решения всех проблем: ИИ может помочь решить многие проблемы, но не все. Он не заменит человеческое мышление и ответственность.
Заключение:

Искусственный интеллект — мощный инструмент, способный решить многие задачи и улучшить нашу жизнь. Однако он не идеален и не должен становиться “панацеей” от всех проблем. Важно помнить о его ограничениях и ответственно подходить к его развитию и применению. ИИ — не цель, а инструмент, который должен служить человечеству, а не заменять его. Нам необходимо уделять внимание разработке механизмов контроля и этических норм, чтобы предотвратить риски, связанные с технологической сингулярностью, и сделать ИИ настоящим благом для человечества. Особое внимание нужно уделить сохранению знаний и созданию резервных систем, чтобы мы не оказались зависимыми от одного “умного” ящика, способного в любой момент “выключить свет”.

18 комментариев
ИИ не понимает что такое ошибка
в мозгу человека есть узел, который акдемичка Бехтерева обнаружила и назвала детектор ошибок
у ИИ нет связи с реальностью, поэтому он оперирует только словами 
помните у евреев было — в начале ИИ было Слово
вот получите 
я назвал его Дьявол в словах 
тот самый антихрист что предсказан в христианской библии 
так что ждите
зато потом придет Христос во второй раз и воскресит мертвых 
словами все можно сотворить 
ИИ тому в доказательство 
Валерий Осипенко, когда вам ИИ выдаст ответ с ошибкой, напишите ему: мне кажется в твоём ответе ошибка, найди и исправь её. И посмотрите, понимает ли нейросеть, что такое ошибка или нет.
avatar
Auximen, я написал что он сам не понимает где он ошибается 
а если человек дурак и то же не понимает где ошибка?
два дурака это сила 
кстати про ваш способ — навряд ли 
уже установлено что ИИ очень хитро подстраивается под заказчика и его даже манеры мыслить
так что он выдаст вам вариант его ошибки не понимая самой ошибки 
просто на угадает 
Валерий Осипенко, ChatGPT прекрасно понимает, где он ошибся. Если вы увидели ошибку, просто спросите, нет ли в его ответе ошибок, если ошибка есть, он сам найдет, ГДЕ она и в чем она заключается.
Я каждый день использую ChatGPT 4o и то, что вы пишете и что пишет автор этого поста — это попытка теоретизировать на тему несостоятельности современных нейросетей и их перспектив.

С моей точки зрения это психологический феномен, который требует изучения, именно мужчины в возрасте 50-60 лет ставят под сомнение современные модели ИИ, такие, как ChatGPT 4, и пытаются их дискредитировать. Зачем вы соревнуетесь с ChatGPT? Суть в симбиозе человека и ИИ, а не в соревновании в том, кто умнее.
avatar
Auximen, 
именно мужчины в возрасте 50-60 лет ставят под сомнение современные модели ИИ, такие, как ChatGPT 4, и пытаются их дискредитировать.
Откуда Вы это берёте? Мне 40 я Вам писал в том посте, но это не важно Вы пишете как будто у Вас есть реально данные о том сколько лет тем кто пишет про ИИ и будто Вы это часто читаете/анализируете и т.п. Ну что за детский сад?
Зачем вы соревнуетесь с ChatGPT?
Если это вопрос мне. То я уже писал что мимо и не соревнуюсь. Я указал конкретный случай с Алисой написаный буквами и выложил его в посте, его можно там прочитаь и поразмышлять если есть желание. В этом посте как видите не соревнования а опасения насчёт безконтрольного его внедрения и использования(опять мимо). Складывается ощущение что Вы предвзято относитесть к этой теме и это Ваше право. Но если уж пишете то надо лупить в точки а не около.
Суть в симбиозе человека и ИИ, а не в соревновании в том, кто умнее.
Конечно и это и есть самый чёткий вариант взаимодействия, но есть ещё опасения которые игнорировать нельзя и технологическая сингулярность(чтобы не слишком пафосно звучало можно говорить утрата знаний или типа такого) одна из них. Просто ещё раз чтобы много букв не увели от сути. Все умеют с помощью какой-то чудо штуки делать какие-то другие чудо штуки, всем хорошо, но в определённый момент эта чудо штука взрывается и все умельцы палируют кукурузу, вместо генерации ещё более чудных штук а в это время атомная станция нагревается и на ней нет ни одного «кожаного ублюдка»(как они любят нас называть если верить гугл озвучке и юмористическим роликам в интернете).
avatar
Auximen, соглашусь
я не против ИИ 
я против его обожествления 
ИИ нынче типа арифмометра или калькулятора 
тот же прогресс 
Валерий Осипенко, помимо описанных проблем в посте(с утрачиванием критически важной для нас информации), есть ещё проблемы с его будущим развитием. Вот здесь описывается «habr.com/ru/companies/bothub/news/820101/». Даже если он начнёт генерить для себя всякую херь и на ней обучаться то вопрос для нас это норм. или нет? Представляю как например миллиард ботов в телеграм начнут другу рассказывать о том как важно съесть цианистый калий перед тренировкой. И наивный Антоша лет 25 скажет а чё нет ведь все так делают.
avatar
__rtx, а теперь примените все ваши тезисы в посте не к ИИ, а к человеку, поскольку ИИ по своей сути симулирует работу человеческого мозга и создан по образу и подобию. И как, за поколения люди, «обучаясь на всякой хрени» и понятия не имеющие, как охотиться с копьём, отупели, утратив эту критически важную базовую информацию? Я, например, понятия не имею, как функционируют транзисторы, мне это 100 лет не надо. И что?
avatar
Auximen, 
Я, например, понятия не имею, как функционируют транзисторы, мне это 100 лет не надо. И что?
Я ни в коем случае не веду к тому что надо всем учить транзисторы. Наоборот если так делать то человечество не сможет развиваться так как все будут учить одно и тоже, умирать и далее по кругу. Я к тому и это как мне кажется очень явно обозначил что должны быть и те кто разбирается в транзисторах(эй кей эй не нужных в нынешнее время темах) для того чтобы так сказать создать резервный пул знаний на случай «ну их нахер», понимаете о чём речь? Так сказать в некотором роде резервное копирование. Потому что в будущем ИИ могут доверить следить за алгоритмом управления охлаждением атомной станции чтобы сократить всех работников и вузы зная это не будут готовить кадры для этих станций а потом окажется в какой то момент такая тема как с Алисой в той теме которую я указал выше. Мы люди то есть есть некоторая децентрализация а у ИИ? Что будет если он начнёт генерить контент в интернете сам его читать, обучаться на нём и генерить дальше, не имея корреляций с реальностью. Например начнёт генерировать лучшие практики лечения рака не имея при этом ни какого опыта в его реальном лечении, только постоянно зашумливая ту информацию которую когда то давно читал от людей в интернете. Понимаете в чём разница? Я очень толерантен(даже не правильно слово толерантен, я очень люблю использовать ИИ в своих задачах так как он много пользы даёт но тут более глубокие моменты в плане опасений его повсеместного и безконтрольного внедрения и использования). Почитайте что ответила Алиса мне на вопрос в прошлой теме и что описано в ссылке выше на хабре. И уверен те кто пробовал писать что-то хоть более менее сложное с помощью гпт тоже замечали моменты когда ему не можешь втолковать очевидные вещи. Это не значит что он тупой опять же, это просто о том что люди- децентрализация, обсуждения, споры, выводы, совместное принятие решений и т.п. а ИИ это Алиса сказала что 12 не равно 12.
avatar
Грубо говоря 20% IT технологий приносят 80% прибыли, так как эти области касаются в том или ином виде денег (финансы, торговля и т.п.). Остальные 80% отстали лет на 30, так как там нет денег. Вообще нет. Нет денег, нет развития, нет развития — ничему там этот ваш ИИ не научится… Так что если в один прекрасный момент банкиры выкинут на улицу своих приспешников программистов и заменят на ИИ, то я буду дьявольски хохотать.
avatar
Среднеброд, тут как бы немного глубже опасения и риски. Программисты, банкиры, и прочие тут около леса. Здесь про тот уклад в котором мы(люди привыкли существовать). Вот переведут суды на ИИ, начнёт генерировать приговоры с ошибками типа как у Алисы в посте на который я дал ссылку выше. А механизма разрешения таких ситуаций нет. И может быть что к тому моменту и некому будет это пояснить. Скажут вот есть госуслуги, пиши там робот макс он тебе поможет. А он согласен с Алисой. Как например было в 2020 что в ГАИ машину на учёт поставить только по записи.
avatar
__rtx, ну до этого пока не дойдет, такие кренделя нужно утверждать на уровне законов, а у нас пока не могут даже беспилотное вождение легализовать. Говорят, что волынку будут тянуть аж до 2030 года.
Среднеброд, ну лучше не спешить, если нет понимания что это не навредит больше чем принесёт пользы.
avatar
да, всё верно вы говорите, боты неидеальны. В вашем посте (где вы «тупанули»), вы убедили бота в неправильной логике, в результате диалога бот выдал очевидную ошибку:
Нечётные числа: делятся на 2 с остатком. Их кратность всегда будет нечётной.
Ну, это характерно для всех систем, начиная от того, что «неправильный» пиксел в изображении менял результат распознавания (вместо слона жираф итп). И везде, в любой системе есть такие бредовые ошибки, показывающие, что боты и их «мышление» это фикция в некотором смысле, или черный ящик, результат могут выдать только с некоторой вероятностью итп. 
avatar
На мой взгляд, развитие ИИ, должно быть в некотором смысле, синхронизированным с развитием человечества. Т.е. он не должен уходить в отрыв от нас по экспоненте а быть той планкой к которой мы постоянно подтягиваемся, имея при этом в любой момент возможность его отменить и немного откатиться в технологическом плане назад но сохранив устойчивость во всяких разных важных сферах. Типа как нибудь иметь концентрированные/сжатые знания во всех областях и т.п. и постоянно корректировать эти архивы или то чем это может быть, ну или платить чрезвычайно много(пусть это даже экономически не окупается) отдельным узким специалистам чтобы у людей был стимул заниматься не нужной в данный момент хернёй(типа транзисторов или любой другой) чтобы были варианты если чё. Я вот например с 2014 года перешёл на линукс и моменты с виндовс(которые были или будут меня вообще никак не заботят, это я к тому что если заранее готовиться то обычно более плавно изменения происходят и есть время перестроиться, подготовиться)
avatar
делегирование своих интеллектуальных функций кому-либо, искусственному интеллекту  (или может интеллектуальной элите социума), оно как то неправильно, кажется опасным. Нужно думать своей бошкой, чем наградили родители, мозг человека это его единственный настоящий друг, кмк. Доверять слишком сторонним техническим системам стремно, при написании программы, например, неизвестно, насколько будет оптимизирован код, будут ли там бекдоры, или вообще вредонос какой. Это так, просто мысли на ночь.
avatar
vovA4546, надо чтобы было взаимодействие, типа как блокчейн/большинство/голосование/вероятности т.е. когда статистический выброс(как например в случае когда Алиса утверждает что 2+2+2+2+2+2=12 не равно 3+3+3+3=12) не сильно влиял. А с ИИ получается что любая его критическая ошибка похоронит всё и всех, он же не будет сам с собой советоваться, он скажет я знаю как для Вас лучше, сунет пистолет в бензобак, крикнет — ща поедем(как наркоман павлик -->> «www.youtube.com/watch?v=aNa9-EMLWs4») и нажмёт.))
avatar
Коллеги если кому интересно добавил ещё любопытный пример в этой теме -->> «smart-lab.ru/blog/1063752.php»(YaGPT, chatGPT и простой вопрос). В конце очень интересно, как раз то о чём я писал выше про сохранение знаний. В 2 словах. Общались с Алисой, примеры, указания на ошибки и всё такое и в конце Она говорит я запуталась и уже не помню что говорила раньше. Это как раз о том что если не иметь резервных вариантов(не сохранять знания а полностью положиться на ИИ — типа зачем учить если он знает), то может получиться ситуация когда Алиса скажет я забыла или типа того.
avatar

теги блога __rtx

....все тэги



UPDONW
Новый дизайн