<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom" xmlns:dw="https://www.dreamwidth.org">
  <id>tag:dreamwidth.org,2016-12-25:2616238</id>
  <title>Своя колея</title>
  <subtitle>arech</subtitle>
  <author>
    <name>arech</name>
  </author>
  <link rel="alternate" type="text/html" href="https://arech.dreamwidth.org/"/>
  <link rel="self" type="text/xml" href="https://arech.dreamwidth.org/data/atom"/>
  <updated>2019-09-29T16:02:15Z</updated>
  <dw:journal username="arech" type="personal"/>
  <entry>
    <id>tag:dreamwidth.org,2016-12-25:2616238:94438</id>
    <link rel="alternate" type="text/html" href="https://arech.dreamwidth.org/94438.html"/>
    <link rel="self" type="text/xml" href="https://arech.dreamwidth.org/data/atom/?itemid=94438"/>
    <title>Такого использования нейросети я ещё не видел!</title>
    <published>2019-09-29T10:54:03Z</published>
    <updated>2019-09-29T16:02:15Z</updated>
    <category term="convolutional neural networks"/>
    <category term="круто"/>
    <category term="оптимизация"/>
    <category term="machine learning"/>
    <dw:security>public</dw:security>
    <dw:reply-count>0</dw:reply-count>
    <content type="html">КДПВ (моя): Внутри крутейшего творения гениального Антонио Гауди, Собора Святого Семейства, Барселона, Испания.&lt;br /&gt;&lt;br /&gt;&lt;img src="http://images.vfl.ru/ii/1569752763/30dee382/28012095.jpg" alt="" /&gt;&lt;br /&gt;&lt;br /&gt;Увы и ах, но с заморозкой своей &lt;s&gt;вундервафли&lt;/s&gt; &lt;a href="https://github.com/Arech/nntl"&gt;nntl&lt;/a&gt; я совершенно перестал читать и изучать новые веяния в Машинном Обучении. К счастью, время от времени твитырь приносит что-нить любопытное, и я не просто не могу не заглянуть внутрь. И вот сейчас принес вообще нечто особенное, чего я ранее вообще не встречал (возможно подход не нов, но см. дисклеймер выше).&lt;br /&gt;&lt;br /&gt;А именно, трое сотрудников Гугла &lt;a href="https://arxiv.org/pdf/1909.04240.pdf"&gt;опубликовали&lt;/a&gt; препринт папира с неброским названием &amp;quot;Neural reparameterization improves structural optimization&amp;quot; [arxiv:1909.04240], что в вольном переводе может звучать как &amp;quot;Нейронная репараметризация улучшает оптимизацию структуры&amp;quot;.&lt;br /&gt;&lt;br /&gt;Шта?&lt;br /&gt;&lt;br /&gt;&lt;a href="https://habr.com/ru/post/469389/"&gt;далее на Хабре&lt;/a&gt;.&lt;br /&gt;&lt;br /&gt;&lt;img src="https://www.dreamwidth.org/tools/commentcount?user=arech&amp;ditemid=94438" width="30" height="12" alt="comment count unavailable" style="vertical-align: middle;"/&gt; comments</content>
  </entry>
  <entry>
    <id>tag:dreamwidth.org,2016-12-25:2616238:93314</id>
    <link rel="alternate" type="text/html" href="https://arech.dreamwidth.org/93314.html"/>
    <link rel="self" type="text/xml" href="https://arech.dreamwidth.org/data/atom/?itemid=93314"/>
    <title>Всемирная клоунада</title>
    <published>2019-09-06T07:27:43Z</published>
    <updated>2019-09-06T07:27:43Z</updated>
    <category term="machine learning"/>
    <category term="nlp"/>
    <category term="наука"/>
    <category term="дебилы"/>
    <dw:security>public</dw:security>
    <dw:reply-count>0</dw:reply-count>
    <content type="html">Слайд со свежей конфы EMNLP (Empirical Methods in Natural Language Processing, где Natural Language Processing - подраздел Машинного Обучения, посвящённый работе с естественными языками)&lt;br /&gt;&lt;br /&gt;&lt;img src="https://pbs.twimg.com/media/EDwG-M9U0AEWeoS?format=png&amp;amp;name=900x900" /&gt;&lt;br /&gt;&lt;br /&gt;(а дядечка-презентер за столом, - знаменитый Dan Jurafsky, - один из самых передовых учёных в области)&lt;br /&gt;&lt;br /&gt;Всё таки не правы те горячие головы, кто говорит, что мы никакого вклада в человечество не делаем! Делаем, оказывается, и ещё какой! Качественные исходные данные предоставить - это вам не в тёпленьком кабинете сидеть и модельки крутить!&lt;br /&gt;&lt;br /&gt;&lt;img src="https://www.dreamwidth.org/tools/commentcount?user=arech&amp;ditemid=93314" width="30" height="12" alt="comment count unavailable" style="vertical-align: middle;"/&gt; comments</content>
  </entry>
  <entry>
    <id>tag:dreamwidth.org,2016-12-25:2616238:92327</id>
    <link rel="alternate" type="text/html" href="https://arech.dreamwidth.org/92327.html"/>
    <link rel="self" type="text/xml" href="https://arech.dreamwidth.org/data/atom/?itemid=92327"/>
    <title>Это так прекрасно, что невозможно пройти мимо</title>
    <published>2019-06-27T07:23:21Z</published>
    <updated>2019-06-27T07:23:21Z</updated>
    <category term="наука"/>
    <category term="machine learning"/>
    <category term="круто"/>
    <category term="nn"/>
    <category term="дебилы"/>
    <dw:security>public</dw:security>
    <dw:reply-count>0</dw:reply-count>
    <content type="html">Некоторые причины для отказа в публикации статей, которые получали награждённые в этом году премией имени Алана Тьюринга Geoffrey Hinton, Yoshua Bengio и Yann LeCunn (все трое учёных, в принципе, и так уже давным давно заработали себе такие имена, что для них эта награда практически ничего не значит. Мой любимый Хинтон так и вовсе по рассказам периодически ворчит что-то вроде: "да уже достали с этими премиями, дали б лучше поработать спокойно")&lt;br /&gt;&lt;br /&gt;&lt;img src="https://pbs.twimg.com/media/D-CSwpaXUAAkKGX?format=jpg&amp;amp;name=large" /&gt;&lt;br /&gt;&lt;br /&gt;(красным указаны названия конференций, места на которые нонче выкупаются за ~11 минут с момента начала продажи - так было с NIPS)&lt;br /&gt;&lt;br /&gt;&lt;small&gt;Отдельно доставляет последний пункт. В начале 20 века так говорили про физику. Ничего не меняется... Люди, в общем, тоже.&lt;/small&gt;&lt;br /&gt;&lt;br /&gt;&lt;img src="https://www.dreamwidth.org/tools/commentcount?user=arech&amp;ditemid=92327" width="30" height="12" alt="comment count unavailable" style="vertical-align: middle;"/&gt; comments</content>
  </entry>
</feed>
