<?xml version='1.0' encoding='utf-8' ?>

<rss version='2.0' xmlns:lj='http://www.livejournal.org/rss/lj/1.0/' xmlns:atom10='http://www.w3.org/2005/Atom'>
<channel>
  <title>Своя колея</title>
  <link>https://arech.dreamwidth.org/</link>
  <description>Своя колея - Dreamwidth Studios</description>
  <lastBuildDate>Sun, 29 Sep 2019 10:54:03 GMT</lastBuildDate>
  <generator>LiveJournal / Dreamwidth Studios</generator>
  <lj:journal>arech</lj:journal>
  <lj:journaltype>personal</lj:journaltype>
  <image>
    <url>https://v2.dreamwidth.org/11191108/2616238</url>
    <title>Своя колея</title>
    <link>https://arech.dreamwidth.org/</link>
    <width>100</width>
    <height>100</height>
  </image>

<item>
  <guid isPermaLink='true'>https://arech.dreamwidth.org/94438.html</guid>
  <pubDate>Sun, 29 Sep 2019 10:54:03 GMT</pubDate>
  <title>Такого использования нейросети я ещё не видел!</title>
  <link>https://arech.dreamwidth.org/94438.html</link>
  <description>КДПВ (моя): Внутри крутейшего творения гениального Антонио Гауди, Собора Святого Семейства, Барселона, Испания.&lt;br /&gt;&lt;br /&gt;&lt;img src=&quot;http://images.vfl.ru/ii/1569752763/30dee382/28012095.jpg&quot; alt=&quot;&quot; /&gt;&lt;br /&gt;&lt;br /&gt;Увы и ах, но с заморозкой своей &lt;s&gt;вундервафли&lt;/s&gt; &lt;a href=&quot;https://github.com/Arech/nntl&quot;&gt;nntl&lt;/a&gt; я совершенно перестал читать и изучать новые веяния в Машинном Обучении. К счастью, время от времени твитырь приносит что-нить любопытное, и я не просто не могу не заглянуть внутрь. И вот сейчас принес вообще нечто особенное, чего я ранее вообще не встречал (возможно подход не нов, но см. дисклеймер выше).&lt;br /&gt;&lt;br /&gt;А именно, трое сотрудников Гугла &lt;a href=&quot;https://arxiv.org/pdf/1909.04240.pdf&quot;&gt;опубликовали&lt;/a&gt; препринт папира с неброским названием &amp;quot;Neural reparameterization improves structural optimization&amp;quot; [arxiv:1909.04240], что в вольном переводе может звучать как &amp;quot;Нейронная репараметризация улучшает оптимизацию структуры&amp;quot;.&lt;br /&gt;&lt;br /&gt;Шта?&lt;br /&gt;&lt;br /&gt;&lt;a href=&quot;https://habr.com/ru/post/469389/&quot;&gt;далее на Хабре&lt;/a&gt;.&lt;br /&gt;&lt;br /&gt;&lt;img src=&quot;https://www.dreamwidth.org/tools/commentcount?user=arech&amp;ditemid=94438&quot; width=&quot;30&quot; height=&quot;12&quot; alt=&quot;comment count unavailable&quot; style=&quot;vertical-align: middle;&quot;/&gt; comments</description>
  <comments>https://arech.dreamwidth.org/94438.html</comments>
  <category>круто</category>
  <category>machine learning</category>
  <category>оптимизация</category>
  <category>convolutional neural networks</category>
  <lj:security>public</lj:security>
  <lj:reply-count>0</lj:reply-count>
</item>
<item>
  <guid isPermaLink='true'>https://arech.dreamwidth.org/93314.html</guid>
  <pubDate>Fri, 06 Sep 2019 07:27:43 GMT</pubDate>
  <title>Всемирная клоунада</title>
  <link>https://arech.dreamwidth.org/93314.html</link>
  <description>Слайд со свежей конфы EMNLP (Empirical Methods in Natural Language Processing, где Natural Language Processing - подраздел Машинного Обучения, посвящённый работе с естественными языками)&lt;br /&gt;&lt;br /&gt;&lt;img src=&quot;https://pbs.twimg.com/media/EDwG-M9U0AEWeoS?format=png&amp;amp;name=900x900&quot; /&gt;&lt;br /&gt;&lt;br /&gt;(а дядечка-презентер за столом, - знаменитый Dan Jurafsky, - один из самых передовых учёных в области)&lt;br /&gt;&lt;br /&gt;Всё таки не правы те горячие головы, кто говорит, что мы никакого вклада в человечество не делаем! Делаем, оказывается, и ещё какой! Качественные исходные данные предоставить - это вам не в тёпленьком кабинете сидеть и модельки крутить!&lt;br /&gt;&lt;br /&gt;&lt;img src=&quot;https://www.dreamwidth.org/tools/commentcount?user=arech&amp;ditemid=93314&quot; width=&quot;30&quot; height=&quot;12&quot; alt=&quot;comment count unavailable&quot; style=&quot;vertical-align: middle;&quot;/&gt; comments</description>
  <comments>https://arech.dreamwidth.org/93314.html</comments>
  <category>machine learning</category>
  <category>дебилы</category>
  <category>nlp</category>
  <category>наука</category>
  <lj:security>public</lj:security>
  <lj:reply-count>0</lj:reply-count>
</item>
<item>
  <guid isPermaLink='true'>https://arech.dreamwidth.org/92327.html</guid>
  <pubDate>Thu, 27 Jun 2019 07:23:21 GMT</pubDate>
  <title>Это так прекрасно, что невозможно пройти мимо</title>
  <link>https://arech.dreamwidth.org/92327.html</link>
  <description>Некоторые причины для отказа в публикации статей, которые получали награждённые в этом году премией имени Алана Тьюринга Geoffrey Hinton, Yoshua Bengio и Yann LeCunn (все трое учёных, в принципе, и так уже давным давно заработали себе такие имена, что для них эта награда практически ничего не значит. Мой любимый Хинтон так и вовсе по рассказам периодически ворчит что-то вроде: &quot;да уже достали с этими премиями, дали б лучше поработать спокойно&quot;)&lt;br /&gt;&lt;br /&gt;&lt;img src=&quot;https://pbs.twimg.com/media/D-CSwpaXUAAkKGX?format=jpg&amp;amp;name=large&quot; /&gt;&lt;br /&gt;&lt;br /&gt;(красным указаны названия конференций, места на которые нонче выкупаются за ~11 минут с момента начала продажи - так было с NIPS)&lt;br /&gt;&lt;br /&gt;&lt;small&gt;Отдельно доставляет последний пункт. В начале 20 века так говорили про физику. Ничего не меняется... Люди, в общем, тоже.&lt;/small&gt;&lt;br /&gt;&lt;br /&gt;&lt;img src=&quot;https://www.dreamwidth.org/tools/commentcount?user=arech&amp;ditemid=92327&quot; width=&quot;30&quot; height=&quot;12&quot; alt=&quot;comment count unavailable&quot; style=&quot;vertical-align: middle;&quot;/&gt; comments</description>
  <comments>https://arech.dreamwidth.org/92327.html</comments>
  <category>machine learning</category>
  <category>дебилы</category>
  <category>круто</category>
  <category>наука</category>
  <category>nn</category>
  <lj:security>public</lj:security>
  <lj:reply-count>0</lj:reply-count>
</item>
</channel>
</rss>
