Nov. 2nd, 2013

arech: (Default)
Довольно случайно наткнулся на ютубе на курс по Машинному Обучению, который читал Nando de Freitas в Университете Британской Колумбии (Канада) весной этого года. Посмотрел пока лекцию по Нейросетям и очень впечатлился. Материал изложен хорошо и понятно, причём с довольно неожиданной стороны: для вывода некоторых свойств MLP и его стоимостной функции используются методы теории вероятностей. Это, например, сразу объяснило, почему для выполнения многоклассовой классификации для MLP нужно использовать по одному нейрону для каждого класса, а не пытаться запихнуть всё в один нейрон (потому что каждый нейрон моделирует распределение вероятностей над входными данными и если в один нейрон запихивать несколько классов, распределение получится мультимодальным, а один нейрон нормально моделирует лишь унимодальное распределение). Короче, понял кое-что новое, чего "Профессор Нг нам не объяснял" :) Кстати, уровень изложения, стройность и логичность вполне соответствуют уровню Andrew Ng, что необычайно здорово и круто.
Думаю, что и другие лекции Nando de Freitas не хуже, поэтому если кому интересно - http://www.youtube.com/playlist?list=PLE6Wd9FR--EdyJ5lbFl8UuGjecvVw66F6&feature=c4-feed-u

Profile

arech: (Default)
arech

October 2021

S M T W T F S
      12
3456789
10111213141516
17181920212223
24252627282930
31      

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Dec. 16th, 2025 12:08 am
Powered by Dreamwidth Studios