Рецензии на книги

Рецензии на книги | Рецензия 2.0: В начале были слова...

Прогресс цивилизации заключается в увеличении количества важных действий, которые мы выполняем не думая. © Альфред Норт Уайтхед

/*
Автор Pedro Domingos — профессор Вашингтонского университета. Он является исследователем в области машинного обучения и известен марковской логической сетью, обеспечивающей неопределенный вывод.

Данная книга является КВИНТЭССЕНЦИЕЙ знаний. С ней вы пройдёте по истории мысли за последнюю сотню лет! Книга даёт ответы на важные для всех нас вопросы: Как мы учимся? Можно ли учиться эффективнее? Что мы способны предсказать? Можно ли доверять полученному знанию?
Лично я прочитал книгу дважды (первый раз в жизни) с перерывом около месяца. При первом прочтении первые 100 страниц я «проглотил махом», потом прочитав ещё страниц 60 (это уже была половина всей книги) я осознал, что перестал понимать суть прочитанного. И тут передо мной встал выбор: вернуться к тому моменту откуда я перестал понимать (60 стр. назад) или читать дальше. Я последовал совету автора, который рекомендовал пропускать те моменты, которые будут непонятны, так сказать для осознания  «концептуальной модели».

Некоторые мыслители подобны лисам и знают много разного, а некоторые — ежам, которые знают что-то одно, но важное © Исайя Берлин


После первого прочтения мне пришлось пересматривать своё мировоззрение, от чего, скорее всего, усваиваемость материала была ещё ниже. Также стало ясно что книга несёт в себе объединение знаний из физики и молекулярной биологии. Поэтому после, я решил «подтянуть» свои знания в области биологии и прочёл дополнительно пару книг, чтобы потом вернуться к этой, так как мне было недостаточно того что я узнал.
На втором чтении я с лихвой преодолел уже 200 страниц текста, хоть я и недавно уже читал эти строки, я всё равно не пропустил ни одной при повторном ознакомлении, но последние 100 страниц так и не стали мне подвластны. Но на этот раз знания, которые я получил считаю достаточными.

Я не понимаю того, чего не могу создать © Ричард Фейнман

Итак, о чём же книга: О машинном обучении. Его часто путают с искусственным интеллектом. Хотя оно и входит в область изучения и разработки ИИ. Инженеры знаний (истинный ИИ) против машинного обучения, но они не могут отрицать достигнутого прогресса в этой области. Машинное обучение — это алгоритм, а любой алгоритм сводится к трём операциям: И, ИЛИ, НЕ. Подсознательные навыки нельзя запрограммировать, но это может сделать сама программа. Машинное обучение — это как посадка семечка. Но по каким законам растёт алгоритм?
Нельзя контролировать то, чего не понимаешь, и именно поэтому вы должны понимать машинное обучение — как гражданин, как специалист и как человек, стремящийся к счастью.
Центральная гипотеза книги: Всё знание — прошлое, настоящее и будущее — можно извлечь из данных с помощью одного универсального обучающегося алгоритма. Но цель эволюции как таковая неизвестна!
Данное произведение сложно переоценить, автор попытался донести передовые знания языком, понятным простому обывателю, попутно используя художественные приёмы и я считаю что он прекрасно справился с этой задачей (хоть я и не всё понял даже со второго раза, но проще изложить такой материал мне кажется нереально). Моя оценка стремится к бесконечности...
*/

Жизнь — это игра между вами и окружающими вас обучающимися алгоритмами. Можно отказаться играть, но тогда в двадцать первом веке вам придётся жить как в двадцатом. А можно играть и выиграть!

Остальная часть рецензии не стоит затрат вашего времени на прочтение. Если Вас заинтересовало, то стоит сразу начать читать книгу!

function create (v.00026)
{
           recursiō();

Всего 5 научных течений по изучению «ИИ»
«Верховный алгоритм» пяти направлений:
   Символисты — обратная дедукция (проблематика: строгие логические выводы — всё или ничего), дерево решений — добавлено, синхронизировано
/* Классификатор (наборы классов по типу древа решений)
DeepMind научила играть в шахматы с помощью дерева решений. Дебютная книга — так-ли важен первый ход? В ходе матча 1997 года общая средняя скорость системы составляла 126 миллионов позиций в секунду. Максимальная установившаяся скорость, наблюдавшаяся в матче, составляла 330 миллионов позиций в секунду. */
   
   Коннекционисты — обратное распространение ошибки, весА (изменение силы соединения между нейронами) — добавлено, синхронизировано
/*Перцептрон (обучение отдельного нейрона), машина Больцмана (на нейрон также воздействуют соседние нейроны с вероятностными значениями, и периодами бодрствования и сна), многослойный перцептрон (сигнал проходит через все нейроны на выход, потом от конечного нейрона распространяется назад, по методу обратного распространения ошибки), автокодировщик (скрытый слой намного меньше чем входной и выходной)*/
Глубокое обучение этого метода: многоярусные разреженные автокодировщики (скрытый слой больше входных и выходных, но не копирует информацию), также в этой цепи могут участвовать и многослойные перцептроны. — добавлено, синхронизировано
//AlphaGO — обратное распространение ошибки с глубоким обучением.
   Эволюционисты — генетическое программирование, структуры — добавлено, синхронизировано
/*Системы классификаций (например: все письма со словом «бесплатно» — спам, все письма со словом «кредит» — мошенничество, мошенничество = спам, какой коэф. доверия к этому классу?)
Программа с подпрограммами (меняющимися с помощью мутаций и кроссинговера, по методу генетического программирования) */


                             P (a|b) = p(a) p(b|a) / p(b)

Сэр Гарольд Джеффрис писал, что теорема Байеса «для теории вероятности, то же, что теорема Пифагора для геометрии»

   Байесовцы — байесовский вывод, наивный Байесовский классификатор — добавлено, ошибка[высказывание А. Эйнштейна]  — обновлено, синхронизировано~80%.
Наивный Байесовский классификатор (Если известно следствие, то причины не взаимосвязаны) Широко распространён в Google, по сравнению с другими алгоритмами — добавлено, синхронизировано
Такое допущение создают потому что даже данных Big Data недостаточно, для вычисления всех вероятностей. — добавлено, десинхронизация[v.00025]  — обновлено, синхронизировано

Все модели не верны, но некоторые полезны. © Джордж Бокс


/*Байесовские сети (цепи Маркова 1-1-1 с не прямыми взаимосвязями 2-1-2) Используется в распознавании речи Siri, изначально работало на основе простой цепи Маркова*/
   Аналогисты — метод ближайшего соседа, метод опорных векторов, аналогическое рассуждение — добавлено, синхронизировано~60%
/*Метод ближайшего соседа -> метод к-ближайших соседей -> взвешенный алгоритм к-ближайших соседей
Метод опорных векторов — благодаря «зазору» более устойчив к проклятью размерности и "плевал" на принцип «бритва Оккамы», границы — всегда прямая линия, достигается это с помощью добавления измерений*/


Всё что существует — это прогрессирующее решение проблемы всеобщей оптимизации.
}


var cognitionis = new Array();

Эксперимент в МИТ 2000 г. — изменение структуры мозга (глаза<-нейроны->уши)(Бен Андервуд) — добавлено, синхронизировано
Принципы строения мозга животного и человека одинаковы — добавлено, синхронизировано
Бедность генома — количество «букв» в геноме, в миллион раз меньше, количества соединений в мозге — добавлено, синхронизировано
С теорией единого строения коры согласны не все нейробиологи. — добавлено, синхронизировано
Обратный инжиниринг головного мозга — добавлено, синхронизировано
Биология и социология никогда не будут такими простыми как физика. — добавлено, синхронизировано
Множество Мандельброта добавлено, синхронизировано
P и NP — задачи добавлено, синхронизировано
Провальный эксперимент «Сайк» (англ. Cyc) — добавлено, синхронизировано
[Ноам Хомский утверждает что языку нельзя научить — он заложен эволюцией
"Бедность стимула
В 1969 году Джим Хорнинг опроверг теорию Хомского
Нассим Талеб "кидает камень в огород" опровержения Хорнинга «Лебедь кусает робота»]добавлено, синхронизировано
Вопрос Юма — Как в принципе можно оправдать экстраполяцию того, что мы видели, на то, чего мы не видели? — добавлено, синхронизировано
Теорема Беплатных обедов не бывает — ? — добавлено, синхронизировано
Когда мы получаем новую частицу знаний, она становится основой для логической индукции ещё большего знания. Единственный вопрос — с чего начать.добавлено, синхронизировано
Принцип Ньютона: то, что верно для всего, что мы видели, верно для всего во Вселенной (работает уже более 300 лет) — добавлено, синхронизировано
Комбинаторный взрыв — геометрическая прогрессия — добавлено, синхронизировано
Спиновое стекло (если «спин» всех частиц в материале одинаков, то это магнит) — добавлено, синхронизировано
Смещение и дисперсия — добавлено, синхронизировано
При дедуктивном подходе мы из общего выводим правило(1), при индуктивном — из отдельного выводим правило(1) и общее(2)
22 =(-2)2= 4 — добавлено, ошибка[информация потеряна]  — обновлено, синхронизировано
Проблема переобучения — так-ли важен последний ход? проклятье размерностидобавлено, синхронизировано
Сигмоида — самая важная кривая в мире.  — добавлено, синхронизировано
Фазовый переход добавлено, ошибка["технологическая сингулярность" Р. Курцвейл]  — обновлено, синхронизировано
Градиентный спуск — локальные и глобальные минимумы гиперпространства — добавлено, синхронизировано
Нервная система червя из 302 нейронов картирована в 1986 г. — до сих пор до конца не понята — добавлено, синхронизировано
Кроссинговер — причины его существования в живых организмах и нужен ли он в не живых? (вирусы) — добавлено, синхронизировано
Тест Тьюринга — в отдельных сферах уже пройден и стандартный пройден в 2014 году Русскими из Питера -добавлено, синхронизировано
Дилемма изучения-применения — пользоваться верным решением, экспоненциально увеличивая частоту применения этого решения, одновременно с другим.  — добавлено, синхронизировано
Проблема наследственности и воспитания (одно не предшествует другому, проходят циклические раунды — добавлено, синхронизировано)
Априорная вероятность в действии — в Америке 0,3% населения болеют СПИДом, погрешность теста 1%, если тест положительный, то это означает вероятность заболевания ~ 30% (0,003*0,99 / 0,01 = 0,297) — добавлено, синхронизировано 
Вероятность — это субъективная степень убеждённости, по Байесу. (Вся проблема вначале, почему первое событие равно 1/2 — Вера!) — добавлен отдельный фрагмент, синхронизировано.
Цепь Маркова
добавлено, синхронизировано
СММ — скрытая Марковская модель (есть внешняя(наблюдаемая) модель и внутренняя(истинная), которую следует определить) — добавлено, синхронизировано
Фильтр Калмана (используется при непрерывном потоке) — добавлено, синхронизировано
МСМС — метод Монте-Карло в Марковских цепях стр 187 - добавлено, ошибка считывания[неизвестный формат файла]  — десинхронизация = undefined;
Байесовская идея — объективной реальности вообще не существует. — добавлено, синхронизировано
Частотный и байесовский типы мышления — алгоритмы почти не различимы, но теоретически, в некоторых ситуациях один из методов нельзя использовать, хотя другой — можно. — добавлено, синхронизировано
Рей Курцвейл считает, что сингулярность начинается, когда люди перестают понимать, что делают компьютеры. По этому стандарту не совсем преувеличением будет сказать, что это уже происходит и началось ещё в 1951 году, когда Фикс и Ходжес изобрели метод ближайшего соседа — самый маленький алгоритм, какой только возможно изобрести. — добавлено, синхронизировано
Далее начинается область гиперпространства примерно с 200 стр. - десинхронизация = undefined;
Проклятье размерности — «благословение неравномерности»(природное) (из 3D можно сделать 2D) — добавлено, синхронизировано
Кластеризация — понижение размерности — добавлено, синхронизировано
Обучение с подкреплением — способность алгоритма оценивать текущие события исходя из конечного результата. Текущее состояние переходит в «более выгодное» к конечному. Весьма похоже на дерево решений, но близко к "настоящему" обучению. — добавлено, синхронизировано
Можно обернуть «обучение с подкреплением» в «обучение с учителем» для предсказания будущих неизвестных состояний на основе аналогии — добавлено, синхронизировано
Степенной закон — время затраченное на обучение вначале даёт более весомые результаты, первые 20% дают 80% результата (Благодаря образованию фрагментов) — добавлено, синхронизировано
Реляционное обучение — объединение всех данных в одну общую сеть и выделение из неё частых случаев (более мелких групп) добавлено, синхронизировано
Метаалгоритмы: стэкинг, бэггинг, бустинг. добавлено, синхронизировано
Дети до 3-х лет и дуализм
Логическая сеть Маркова
добавлено, синхронизировано

P = ewn / Z                       стоит иметь ввиду (R/η) * ml = (rc2) / (2G), где  R — внешняя информация, η — внутренняя информация, ml — масса частицы Планка           futurict.inn.ac

Запустить симуляцию                  Удалить алгоритм 
                                  recursiō(1);

Доп. литература: Об интелекте 2016 Джефф Хокинс
Эволюция разума 2015 Р. Курцвейл
Переломный момент: Как незначительные изменения приводят к глобальным переменам. М. Гладуэлл
Непротиворечивость (Consilience) Эдвард Уилсон — всеобщая взаимосвязь
Гёдель, Эшер, Бах: эта бесконечная гирлянда 2001 Д. хофштадтер — всеобщая взаимосвязь


P.S. Мы как слепцы рядом со слоном: один щупает хобот и думает что это змея, другой прислонился к ноге и считает что это дерево, ещё один потрогал бивень и считает что это бык.

1.3К | ★4
2 комментария
толково структурировано. 

Читайте на SMART-LAB:
🖥 В2В-РТС в гостях у Market Power
Уже 10 апреля — то есть завтра! — мы поговорим с компанией перед IPO.      🔶 Обсудим: • Планы на IPO и мотивацию: зачем компания выходит на...
Рентабельность на рынке МФО и в Займере
Банк России в своем ежеквартальном обзоре  ключевых показателей МФО указывает на важную тенденцию: на рынке растет разрыв в рентабельности...
Фото
«Норникель»: есть ли потенциал?
Конфликт на Ближнем Востоке привел к коррекции цен на никель, медь и металлы платиновой группы, так как создал угрозу снижения...
Фото
Кто сейчас самый дешевый сбыт? Сводный пост по сбытовым компаниям по отчетам РСБУ за 2025г.
Волгоградэнергосбыт Ставропольэнергосбыт Самараэнерго Мордовэнергосбыт Пермэнергосбыт Новосибирскэнергосбыт...

теги блога Иван Донских

....все тэги



UPDONW
Новый дизайн