arech: (Default)
КДПВ (моя): Внутри крутейшего творения гениального Антонио Гауди, Собора Святого Семейства, Барселона, Испания.



Увы и ах, но с заморозкой своей вундервафли nntl я совершенно перестал читать и изучать новые веяния в Машинном Обучении. К счастью, время от времени твитырь приносит что-нить любопытное, и я не просто не могу не заглянуть внутрь. И вот сейчас принес вообще нечто особенное, чего я ранее вообще не встречал (возможно подход не нов, но см. дисклеймер выше).

А именно, трое сотрудников Гугла опубликовали препринт папира с неброским названием "Neural reparameterization improves structural optimization" [arxiv:1909.04240], что в вольном переводе может звучать как "Нейронная репараметризация улучшает оптимизацию структуры".

Шта?

далее на Хабре.
arech: (Default)
Слайд со свежей конфы EMNLP (Empirical Methods in Natural Language Processing, где Natural Language Processing - подраздел Машинного Обучения, посвящённый работе с естественными языками)



(а дядечка-презентер за столом, - знаменитый Dan Jurafsky, - один из самых передовых учёных в области)

Всё таки не правы те горячие головы, кто говорит, что мы никакого вклада в человечество не делаем! Делаем, оказывается, и ещё какой! Качественные исходные данные предоставить - это вам не в тёпленьком кабинете сидеть и модельки крутить!
arech: (Default)
Некоторые причины для отказа в публикации статей, которые получали награждённые в этом году премией имени Алана Тьюринга Geoffrey Hinton, Yoshua Bengio и Yann LeCunn (все трое учёных, в принципе, и так уже давным давно заработали себе такие имена, что для них эта награда практически ничего не значит. Мой любимый Хинтон так и вовсе по рассказам периодически ворчит что-то вроде: "да уже достали с этими премиями, дали б лучше поработать спокойно")



(красным указаны названия конференций, места на которые нонче выкупаются за ~11 минут с момента начала продажи - так было с NIPS)

Отдельно доставляет последний пункт. В начале 20 века так говорили про физику. Ничего не меняется... Люди, в общем, тоже.
arech: (Default)
Очень полезный и удобный интерфейс к хранилищу Arxiv от Andrej Karpathy: arxiv-sanity.com.

arech: (Default)
Оказывается, Джефф Хинтон (живая легенда современной Computer Science масштаба если не Эйнштейна в физике, то не меньше Фейнмана точно, о котором дорогая редакция этого бложека уже как-то писала) 3 месяца назад делал сессию AMA на Реддите. А такие Амы интересны тем, что там герой может отвечать не только на чисто рабочие вопросы, но и вообще на всё, что посчитает интересным ответить (Ask Me Anything). А это, учитывая персону отвечающиего, в ряде случаев может быть исключительно интересно и поучительно, ибо это первоклассные мозги.
К сожалению, на не относящиеся к работе вопросы мэтр отвечал очень не часто, но многое из того, что он всё же освещал мне показалось достойным внимания. Делюсь.

Read more... )
arech: (Default)

Я всё жду, когда уже оно научится разворачиваться и лупить обидчика с ноги)

Но шутки шутками, а вот система управления такой штуковиной должна быть просто потрясающей. Двигается во многих аспектах уже как живое, очень естественно. Безумно интересно было бы узнать, как оно там изнутри устроено. Вангую, что там чуть менее чем всё работает на алгоритмах машинного обучения. Иначе, по моему, подобных результатов не добиться.
arech: (Default)
Juergen Schmidhuber, один из зубров современной Computer Science и Искусственного Интеллекта, рассуждает на занятную тему о том, а что если весь наш (и ваш) мир является следствием работы компьютерной программы. По моему, весьма любопытно, хотя я из-за акцента Юргена не всё понял.



UPD: аннотированный транскрипт лекции http://www.kurzweilai.net/in-the-beginning-was-the-code
arech: (Default)
Тут в коменте к прошлому посту [livejournal.com profile] robomakerr поднял интересную тему о том, что такое "обучение с учителем" и "обучение с подкреплением" и не является ли второе подвидом первого? Я было полез в википедию, чтобы дать ссылки в качестве обоснования, но чуть посмотрев на там написаное понял, что нифига оно там не полезно и не понятно (и что-то ещё и устарело лет на много). Поэтому и чтобы привести в порядок собственные мысли, решил описать вопрос самостоятельно. Текста получилось много, отсюда и родился этот пост. Надеюсь, что кому-то это окажется полезным (ну, мне так было точно полезно это написать и обдумать ещё раз :) )

Поехали.
Если кратко, то "обучение с учителем" и "обучение с подкреплением" это два совершенно различных класса алгоритмов искусственного интеллекта, решающих совершенно разные задачи. Дело в чём.
Read more... )

PS к осилившим опус: пожалуйста, если кому-то это интересно - мяукните, штоль) Мне будет смысл написать что-нить ещё интересное в этом направлении. Если не интересно - тоже мяукните, не держите в себе :)
arech: (Default)
we1.jpg

В догонку к прошлому посту вдруг подумалось, что прошлый пост на тему Artificial Intelligence я писал ровно год назад. Многовато... Но это кому-нибудь кроме меня интересно?

Про картинку во врезке справа: много лет назад я нашёл её где-то в сети. Увы, имени автора этого шедевра (по клику большая версия) у меня не сохранилось. А картинка-то не просто реальная, она для нас, жителей 1/7 части суши является в некоторой степени пророческой. Прямо сейчас она отражает положение вещей между нормальными странами и, например, тупым гордым государством Северная Корея. Учитывая нынешнее положение в нашей стране, дибилов с мозгами динозавров во власти (которых, кстати, мы сами так или иначе выбрали или позволили им "выбраться") и нарастающую скорость деградации образования и науки, через десяток-другой лет это и наша участь.

Пока весь нормальный мир развивается, у нас просто по прежнему воруют. Деньги из бюджета или чужие идеи разработки (идеи уже и своровать не могут, их же ещё суметь воплотить надо)...
В течение нескольких лет скорее всего будут сделаны очень крутые новые изобретения, которые продвинут цивилизованный мир далеко вперёд. Цивилизованный мир, но не нас... Нам даже "руки не подадут" и будут, увы, правы.
Короче, запомните эту картинку...


К чему это я всё... Да ни к чему. Щас же праздник типа? Ну вот и с праздничком.
arech: (Default)


Ребята из DeepMind cделали такую вот интересную штуковину: взяли семь старых игр для Atari и подали картинку с экрана на вход свёрточной нейросети, обучаемой несколько модифицированным алгоритмом Q-Learning. На выходе ждали сигнал, грубо говоря, какую кнопочку на клавиатуре нажимать. А скалярный сигнал {"умер", "выжил", "победил"} использовали для докрутки обучения сети...

"Сначала работало никак.
Через час тренировки - вроде как "понимало, чо надо делать".
Через два - играло лучше, чем любой известный человек.
Через четыре - открыло и стало использовать самую эффективную стратегию игры"

Read more... )
arech: (Default)
Есть такой дядька Geoff Hinton, настоящий зубр и легенда Computer Science, изобретатель многих очень важных в машинном обучении концептов. Кроме прочего, в прошлом году он со своей командой с помощью Deep Learning Network с большим отрывом выиграл ILSVRC2012 (Large Scale Visual Recognition Challenge 2012) - очень крутой конкурс по созданию систем распознавания образов (это такие компьютерные программы, которые могут, например, посмотреть на картинку, и сказать, что на ней изображено). В следующем видео он презентует кое-какие аспекты этой работы и рассказывает о других успехах Deep Learning. В частности, рассказывает, как один из его студентов/коллег натренировал на данных Википедии большую рекуррентную нейросеть, которая по 10 входным символам текстовой последовательности предсказывает следующий символ (точнее, предсказывает распределение символов, а уже из этого распределения берётся символ. Это != самому вероятному символу). Соответственно, понятно, что в этом случае предсказанный символ можно снова подать на вход и получить 12 символ и т.д. и т.п. и так генерировать текст в соответствии с той моделью языка и семантики, которая выучила нейросеть.

Так вот, они там тоже любят поприкалываться (а Хинтон так вообще старый опытный тролль). Они подали на вход нейросети фразу "The meaning of life is" и вот, что из этого получилось (должно начаться с 52:38, это чуть раньше ответа для контекста. Торопыгам мотать на 54:08):


So, it's almost there!


Возможно, действительно сингулярность ближе, чем это принято думать. За последние несколько лет были созданы совершенно потрясающие алгоритмы...
arech: (Default)
Довольно случайно наткнулся на ютубе на курс по Машинному Обучению, который читал Nando de Freitas в Университете Британской Колумбии (Канада) весной этого года. Посмотрел пока лекцию по Нейросетям и очень впечатлился. Материал изложен хорошо и понятно, причём с довольно неожиданной стороны: для вывода некоторых свойств MLP и его стоимостной функции используются методы теории вероятностей. Это, например, сразу объяснило, почему для выполнения многоклассовой классификации для MLP нужно использовать по одному нейрону для каждого класса, а не пытаться запихнуть всё в один нейрон (потому что каждый нейрон моделирует распределение вероятностей над входными данными и если в один нейрон запихивать несколько классов, распределение получится мультимодальным, а один нейрон нормально моделирует лишь унимодальное распределение). Короче, понял кое-что новое, чего "Профессор Нг нам не объяснял" :) Кстати, уровень изложения, стройность и логичность вполне соответствуют уровню Andrew Ng, что необычайно здорово и круто.
Думаю, что и другие лекции Nando de Freitas не хуже, поэтому если кому интересно - http://www.youtube.com/playlist?list=PLE6Wd9FR--EdyJ5lbFl8UuGjecvVw66F6&feature=c4-feed-u

Profile

arech: (Default)
arech

October 2021

S M T W T F S
      12
3456789
10111213141516
17181920212223
24252627282930
31      

Syndicate

RSS Atom

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Dec. 24th, 2025 08:36 am
Powered by Dreamwidth Studios