Тянет иногда порассуждать о судьбах человечества. Люди слишком порой зацикливаются на принадлежности к небольшим группам – ну там страны, национальности, а так-то мы все единый вид – мы человек! Я скорее одинокий волк, но единство с этой группой я ощущаю особенно четко.
Вообще кто-то любит вдаваться в детали, от абстракции уходить в конкретику, от общего уходить в частное, кто-то (я такой) от частного уходить в общее, обобщать, смотреть большими горизонтами, сущностями. Как говорит NLP – это предпочтения на уровне внутренних стратегий. Ну это так, к слову. Ещё в детстве я любил размышлять, мечтать про космос – о эти космические масштабы. Из той же серии – фундаментальная физика – там тоже все масштабно, фундаментально). А если про людей, то про человечество.
Что ждет человечество. Про это разрешено говорить футурологам, писателям фантастам и крутым чувакам, заработавшим много денег) – ну там Маску и прочим. И мне разрешено. Ладно, это шутки, всем можно, конечно. Но не всем это надо. Есть такой рассказ у Брэдбери – «Синяя бутылка», так вот многим нафиг это всё не надо, многие как будто бы выше нижней трети пирамиды потребностей вообще не поднимаются, не потому что не могут и т.д., как будто бы у них там просто предел. Не осуждаю. Наверно. А я люблю улетать в далекие дали, поразмышлять, пофилософствовать о масштабном. Сейчас меня очень триггернуло развитие генеративных нейросетей (да, снова про ChatGPT).
Немного контекста-предыстории. Наверняка слышали про понятие технологическая сингулярность и Artificial General Intelligence (AGI). Если нет – читканите слегка, дальше будет в том числе про это.
Ещё немного про внутренние предпочитаемые стратегии. Кто как любит/предпочитает – что-то новое он быстро принимает, иногда/часто быстрее чем следовало (потому что иногда это глупо/бессмысленно и/или опасно), другие — наоборот предпочитают инертную стратегию отношения к новому – «ой не, это фуфло, да это то же самое, что и … только под другим соусом»/ «вы немного подождите, щас ажиотаж сойдет» и т.д., у некоторых более сбалансированные стратегии – внутренняя готовность к новому, но осознанный и контролируемый подход. Если про меня – я наверно что-то типа сбалансированного с уклоном в пониженную инерцию.
В чем это проявляется – ну на примере глобальных вещей, появилась крипта, быструны – быстро залетели, нарубили бабла (условно), тупаны – тормозили-тормозили, возможно и не залетели. Конечно же не всё что выстреливает это то, во что нужно залетать быстро, поэтому быструны не значит хорошо, тупаны не значит плохо, равно как и наоборот.
Важно думать головой, взвешивать, анализировать.
Что? Набор несвязанных мыслей? Нет структуры? В чем логика? При чем здесь тема?
Легким движением руки сводим это всё в один поток (надеюсь, всё, потому что меня могло занести куда-то просто на вдохновении и для цели поста оно не имеет значения).
Вот мы (человечество) жили-жили, жили-жили, что-то у нас менялось, что-то изобреталось. О, калькулятор, о машина, о станок, о конвейер, о мобильник и т.д., что-то (иногда очень многое) менялось в жизни с новым открытием, изобретением. А вот теперь генеративные нейросети. Я воспринимаю эту тему очень серьёзно. Да, нейросети и ML в целом существует давно, да, развивалось, но сейчас эти генеративные нейросети, эти нейросети уровня ChatGPT3, ChatGPT4 как буто бы взялись из ниоткуда, я имею в виду величину скачка. Специализированные ML модели были хороши довольно давно – кошек на фотках находить хорошо – не вопрос, лучше людей, да тоже можем, прогнозировать временные ряды – не вопрос, рекомендации на основе предыдущих покупок – не вопрос, тональность текста – не вопрос. Artificial General Intelligence (AGI) всегда при этом было чем-то из книжек, причем фантастических. А тут бац, и модель может нехерово так во всех областях хорошо перформить – математика, физика, законы, медицина, «банальная эрудиция», логика, чё хочешь. Если задашь чат боту какой-то вопрос, сперва может показаться, что «ну он общими словами что-то ответил», но если начинаешь конкретизировать, уточнять, доп. вопросы задавать и т.д. ты понимаешь, что все вообще ни разу не так просто. В свежих релизах эта штука умеет картинки считывать, ещё чуть-чуть и видео сможет, причем опять же это не что-то типа: вот я могу текст, могу картинку, а это единая система – может с картинки считывать изображение, схемы, шаблоны, интерпретировать это всё, задействуя «языковой опыт». Разница между ChatGPT3 и ChatGPT4 – огромна, хотя время между релизами небольшое. Т.е. эти штуки ещё продолжат улучшаться. Если модель может получать на вход голос (и звуки в общем случае), изображения и видеопоток (считай, глаза) эта штука может перформить по тем же принципам, что и человек. Уже сейчас нейросети вида ChatGPT уделывают больше 70-90% людей в большинстве тестов (а модель под эти тесты специально не обучалась). Через пару поколений (а они, как мы видим, быстро сменяются и сильно прибавляют в качестве) эти штуки будут уделывать людей ещё сильнее.
Помните робота ASIMO от Honda? Тогда ходить на 2-х ногах для робота это было вау! Он что-то махал, танцевал, но это была программа, никакого «интеллекта» там не было. Сейчас есть Boston Dynamics с их офигенскими с точки зрения физических возможностей роботами. Но они тоже, вроде, не сильно умные пока. А теперь представьте, что у робота с такими возможностями в плане физики, есть такой интеллект, который позволяет считывать происходящее вокруг через видеопоток, позволяет считывать звуки, голоса, с интернетом конечно же может на ура и на скоростях работать, а внутри мозг уровня ChatGPT (например, текущий или там даже через пару поколений). Вот эта синергия это прям вау. Как будто мы шли-шли небольшими шажочками, а тут как херакс прыганули прямиком в фантастические книжки про далекое будущее. И тут нет преувеличений.
Да, многие в соответствии со своими внутренними предпочитаемыми стратегиями будут слоупочить, будут отрицать, в т.ч. и потому что это всё скоро может привести к колоссальным изменениям в жизни людей, в «жизни» всего человечества. Мозг не может просто так взять и пустить такое в себя. Книжки это одно, но чтобы это всё пришло в твою жизнь – нее, не готов.
А что придёт, собственно?
Как думаете, что будет если роботы или нейросети будут уметь всё то же самое, что и люди только лучше? А если будут уметь всё то же самое, что и люди, только намного дешевле?) Подскажу, из на поверхности: ценность человеческого труда упадет, вплоть до драматического падения. Ладно, Василий, мы, конечно, можем тебя оставить, всё таки ты с нами 10 лет, как родной нам, но и ты пойми, нейросеть «Егор» делает твою работу на 15% лучше и платим мы за неё по подписке всего 145 долларов. Давай так, ты оставайся, но платить я смогу только 175 долларов вместо 585 как раньше. По рукам?
Здесь я вижу очень-очень серьезные и уже совсем не далекие по времени риски. Думаю, если правительства не придут к схеме «тех кто получает выгоду от ML – пусть платят налоги и большие, а те кто страдают – им будем платить мы», например, здесь уже вообще не кажется странной тема с безусловным доходом. Когда тебе государство просто платит деньги, за то что ты есть, этого тебе хватает на базовый уровень потребления, или чуть больше. Эти деньги берутся из той добавочной стоимости, которая генерится за счет нефиговой производительности и эффективности тех, кто бенефитит от использования ML. Хочешь жить – мы даем тебе такую возможность, хочешь жить как-то классно или круто – уже крутись сам, как и в прошлом. Так можно избежать потрясений и в целом выглядит как норм схема мироустройства, вроде.
Глобальная мега потеря рабочих мест – это один риск. Обговорили. Другой риск – технологическая сингулярность. Обычную модель обучают на датасете. Если модель мультимодальная, имеет доступ в интернет, умеет получать видеопоток из окружающего мира, эта штука будет развиваться все быстрее. Да, сейчас только несмелые попытки сравнения, переходящие уже в дискуссии – а не AGI ли это уже. Через пару годиков дискуссии уже будут нешуточные. Скорость развития моделей ускорится. Прочитали определение технологической сингулярности, вот как будто бы это перестало быть чем-то фантастическим, далеким и не страшным. Предыдущий риск мы придумали как перекрыть. А с этим как? Ну тут, наверно, два варианта: зарегулировать, жестко, на международном уровне. Вот прям как ядерные всякие технологии или даже сильнее. Зарегулировать и, возможно, снизить темпы развития. Второй вариант – прыгнуть в омут с головой с идеей: ну, технологическая сингулярность это же не прям про плохо, это скорее про неопределенно, а вдруг это «неопределенно» выльется в позитивные или даже в мегапозитивный сценарий. Этакая позиция на все плечи без стопов для всего человечества. Ну такое, на любителя, лучше по первому варианту идти.
Можете называть меня слишком впечатлительным, но я вижу эти риски, я вижу, что это не просто очередной хайп и пузырь.
Можно провести опыт, взять группу приматов (втч, человека, или других животных) и поставить перед ними ящик с бесконечными бананами. Печальный исход такого эксперимента известен и вполне предсказуем.
Скачок заключается в открытии архитектуры трансформеров.
Эта архитектура, благодаря своим свойствам, позволила ускорить развитие.
Но весьма желательно понимать принцип работы архитектуры GPT (Generative Pretrained Transformer), и что она имеет свои ограничения.
Нет, не сможет.
Вы, кстати, можете сами побеседовать об этом с ChatGPT, это не запрещённая тема.
Помните луддитов?
Вы пытаетесь совершить ту же ошибку.
Что произошло, когда появились станки?
Стал ли Вася получать 175 вместо 585?
И да, и нет.
Тот Вася, который пытался продолжать вручную работать, действительно, стал получать 175. А другой Вася, который переучился для работы на станке, не только продолжил получать 585, но и вскоре стал получать больше.
Примерно то же самое нас ожидает и здесь.
Некоторые люди уже пытаются применять ChatGPT в своей работе по назначению.
Что такое ChatGPT?
Это — эрудит, но без критического мышления.
Тот массив информации, на котором он обучен, является для него догмой.
Условно можно считать, что религиозной.
Если так к нему относиться, то он может быть применён с пользой.
Как знаток из «Что? Где? Когда?», но с особенностями.
Вряд ли кто-то рискнёт заменить Васю таким догматиком до мозга костей, хоть и сверхэрудированного, да ещё при условии, что часть догм у него неверные, и неизвестно, какие из всех — неверные.
Скорее Васю переучат «пользоваться» догматиком, чтобы Вася «фильтровал» то, что получает от догматика.
Но, поскольку производительность системы Вася-догматик вырастет, можно продолжить платить Васе его зарплату.
По поводу переучивания.
Лет 25 назад от человека не требовалось иметь «компьютерную грамотность» на уровне простого пользователя. А сейчас с этим всё по-другому.
Так же будет и с ИИ.
Произойдёт переквалификация.
Скорость развития этого всего не настолько высока, чтобы создать существенные проблемы здесь.
Условно, те же самые 25 лет.
Как правило в таких вещах ошибочно полагают, что имеющаяся архитектура — универсальна, что её достаточно отмасштабировать, чтобы получить любой уровень интеллекта, и что масштабирование не встретит на своём пути такого перехода количества в качества, которое может стать препятствием к дальнейшему масштабированию.
Модель, всё-таки, достаточно ограничена.
Все страхи проистекают от впечатления, которое она производит, а не от чего-то, действительно, реального, чего следовало бы опасаться.
А может поздно уже 'боятся'? Раньше люди учили сети, а теперь сети учат людей. Посмотрите, что вокруг в мире творится...