好口語化的標題,不是太滿意
會有這個想法除了自己因為背景的關係會比較有興趣外,主要是因為上個月看到了這篇 Mashable 的文章:Of course Parisian Google is developing AI experiments for the art world。文中介紹了一些 Google 位於巴黎的 Art & Culture 實驗室如何使用機器學習,增進我們對於藝術作品的理解與接觸。
文中介紹了影片裡提到的幾個應用
以上連結都來自一個名為 https://experiments.withgoogle.com 的網站,其中的 Art & Culture Experiments 分類,其他分類還有
裏頭滿多有些知名度的專案,例如 AI 的 Teachable Machine 或是 AR 的 Draw Anywhere with AR。
看完以後當然立馬追蹤實驗室負責人 Damien Henry 的推特,馬上就看到一個有趣的實驗:用 AI 去畫人物畫像,學習的圖像是來自 1900 以前的油畫。作者是這位 Mario Klingeemann,不得了啊,followers 包含 Andrej Karpathy 、Keras 作者 François Chollet、distill 的 Chris Olah 這些大神們!自我介紹寫著:『Artist, Coder, Data Collector, Archivist, Speaker, Obsessive Compulsive Orderer, #AI #ComputationalArt #Glitch #MachineLearning Artist in residence @googleart』難道是一種駐村藝術家的概念?
看下來感覺 Google Art & Culture 比較著重在影像方面,AI 與音樂方面有TensorFlow 的 Magenta 還算是有個開端,看之後有沒有什麼突破性的專案。相較前面兩種型態,AI 與文學方面的規模就都比較小,寫寫藏頭詩,或是學學金庸、紅樓夢、莎士比亞之類的,台灣本土最近看到的應該就屬致敬張雨生歌詞產生器了。
一時興起了解一下 Google Art & Culture 都在幹嘛,Mashable 文中提到一點我覺得滿喜歡的,就是這些專案除了跟藝術結合,需要用到新的人工智慧技術之外,還有一個共通點就是都很有趣(Fun),以推廣為目的來說,這點是真的很重要。未來有機會的話會持續關注這個領域。
這篇文章本身就是很多東西的摘要了,要給一篇滿滿摘要的文章再寫摘要,感覺就剩下沒什麼東西了,不過還是試試看吧,先來列一下大綱:
原文有非常多的連結,包含論文或是網站,看完不知道都 2018 年幾月了啊!下面列一些我有興趣的點,其他看標題就可以猜內容的就不寫了。
這個中文副標故意下地比較誇張了,當然這部分原文把 AlphaGo 系列都提了一遍,後面提了一些其他棋類、撲克比賽或是其他遊戲競賽,總歸一句話就是說呢,現在電腦跟人只有一對一的遊戲是會贏的,但是多 …
這篇文章比較新,因為其實是 PyTorch 一週年文,不過 PyTorch 是在 2017 一月發佈的,所以 PyTorch 一週年紀念文,跟 PyTorch 2017 回顧文其實差不多意思,所以也就一起寫在這個系列。一樣先列一下大綱
演算法實作
視覺化
這個段落主要是一些 pytorch 使用性的增強以及效能提升的描述,這部分我就不再列一次了。
最後引用的 Karpathy 大大的一則搞笑推廣文引起的一連串 retweet
我想對於想要開始學習 PyTorch 的人來說,這篇會是一個很好的資源,可以判斷用這個框架的優勢,以及目前各種相關的輔助套件。我自己是覺得目前 PyTorch 的 ecosystem 還是不如 TensorFlow / Keras 完整,但是在 NLP 相關研究上的使用相對於其他研究或是其他框架是有比較多的趨勢。
第一部分是核心研究
第二部分是特殊領域研究
大綱就以跨頁了,內容我就隨自己的喜好意思意思寫了XD
2017 最後一天,把 Kaggle 12 月的文章看一看,扣掉之前提前一篇跟11 月的一起看了,目前有三篇新的:
最近公佈結果的折價券競賽,使 Kaggler 排行產生新的冠軍,bestfitting!
在閱讀十月 Kaggle 官方網誌的時候,讀到 bestfitting 的亞馬遜競賽冠軍分享就有注意到他的戰績簡直嚇人,沒想到這麼快就看到他成為新的冠軍的消息。僅僅用了 15 個月 10 場比賽就登上冠軍寶座,以前沒有這麼認真關注 Kaggle,所以不知道有沒有破紀錄,但是光看他的競賽成績頁面,下巴就是合不起來。
那這篇文,就來收集整理一些 bestfitting 的分享吧!
感覺從第一次聽到 GAN 這個詞到現在也很久了,尤其過去一年台灣資料科學年會也邀請台大李宏毅教授給過很多次的分享以及課程,所以這個詞在同溫層裡一直沒消失過,直到這幾天因為工作上需要才認真學習了一下,這邊紀錄一下找到的資源,以及我閱讀、觀看的順序給大家參考。
接續把 11 月 Kaggle 官方網誌看完,總共五篇:
從 11/15 開始,使用者可以在 Kaggle 上面分享資料集的限制修改了。
第一名的 Dataset 是美國過去 50 年的大規模槍擊事件,數量從數據的角度來說不多,但是從悲劇的角度來說算滿多的,398 起。第二名是法國勞工薪資以及城鎮人口數據。第三名是巴 …
恩,十一月初忘了看 Kaggle 十月的網誌了。總共四篇:
這是 Kaggle 的工程師發表的一篇教學,用美國 1989 ~ 2017 年的國情咨文資料庫來做文本情感分析。除了 Kaggle 官方網誌以外,該文在 Kaggle 上也有一個 Kernel 讓你可以直接跑跑看,或是 Fork 出來做練習。主要是使用一個叫做 tidytext 的 R 套件,不過我不會寫 R,自己寫了一份 python 的版本,對照看一下,覺得 R 語法有點神奇。文末附上了三個練習題,以及其他在 Kaggle 上面語言相關的資料集,還有外部的資料 …
因為買了 kindle 閱讀量有稍微多一些,但是因為不在電腦前面閱讀,其實寫得比較少。這個月比較空窗,大事件都結束了,心思稍微往其他地方多放了一些,在社群上的動作比較少。
這個月有點混亂。還在重新規劃在社團、粉專、碼天狗週刊等不同渠道分享的內容,資訊的來源,以及自己的筆記。其實這個月因為買了 Kindle,閱讀量比過去都大,但是也因為用 Kindle 看,閱讀的情境以及裝置都不適合做進一步的筆記。為了練習,也另外找地方開始寫筆記,結果寫了一次就懶得再發一次,導致分享出來的東西,有點失焦、有點混亂、有點少。
Kaggle 在 12/4–8 會有兩個入門級的 Data Challenge,有興趣的可以參考