學渣-雜學誌
Published in

學渣-雜學誌

科創講堂-AI人工智慧

社群大數據、深度學習、智慧應用

【渣筆記】
希望每次參加完活動都可以留下一點記錄給我的金魚腦
若有遺漏或錯誤純屬個人缺陷還請見諒~

身為科學人雜誌的忠實訂閱戶、科幻迷和腦神經科學讀書會的小組長,在科學人的粉絲團一看到活動當然是二話不說馬上報名兼推廣XD
這個活動由科學人雜誌與國立清華大學主辦、科技部指導,安排12講者精實的演說從星期天早上9:30~下午6:00,整場下來實在有夠燒腦!但心靈非常滿足XD 每一位講者都實力堅強台風穩健口條清晰,是近期參加過最有收穫的活動!非常佛心的是——免費!(這如果是業界活動大概要幾千幾萬吧~

#警告# 此篇文超長!請直接點目錄連結看有興趣的就好了XD
,或是直接 END 看我的心得給個拍手也行 😃(app無法使用目錄連結)

∎ 講堂一 - 資料背後的群眾智慧:社群大數據

∎ 講堂二 - 讓機器跟人同等智慧:深度學習

∎ 講堂三 - AI的更多可能:智慧應用

心得

講堂一- 資料背後的群眾智慧:社群大數據

專題一:解碼 i 世代-社群大數據的探索與應用

講者:中央研究院民族學研究所-張仁和

  • 研究顯示輕度網路使用者心裡最健康
    (完全不用網路心理也會不健康,想當然爾,現在人際關係都脫離不了網路了)
  • 以新聞為例,研究顯示在社交軟體上,對於好友轉貼的新聞普遍查證的意願低
  • 經過測試,假新聞的傳播速度比機器人還快
  • 會造成爭議議題情緒極化的風險
  • ex: 19–22 集體文字雲
    隨著年齡的提升,第一人稱的單數使用 I 比例越低,第一人稱複數形式 WE 越高(這是從小屁孩自我中心時期逐漸社會化的過程嗎?)
  • 過度的自我揭露可能顯示的風險
    在網路上過度自我揭露可能是某種精神疾病
  • 研究發現,顯露負向情緒與自殺成功率無關
  • 自殺成功的詩人使用I比例較高、未成功的使用 We 較高
  • We 的使用率提高
    在911恐攻之後,美國網路上使用 We 的比例提升。或許 We 較具有人際連結效果
  • 化解衝突可以多使用 We 、我們、大家之類的用詞
  • 直覺VS分析
    研究顯示民眾認為川普的演說較真誠
    (情緒果然是帶動行動的重要因素…)
  • 跟家庭有關的詞下降
  • 髒話比例上升
  • 與性有關的詞彙比例上升
  • ex: 快速聯誼兩人對話的適配性
    高語言適配的成功機率較高
  • ex: 分析情侶通訊軟體中的對話
    三個月之後,高語言適配的情侶分手機率較低
  • 若用機器學習去分析用詞,是不是就可以準確預測人與人的互動?
    答案是:實際互動之後的分析結果不會準確,因為實際互動除了語言之外還有很多其他因素。

Q:政府可否使用這些方法來降低網路上髒話使用頻率?
A:有些網路遊戲已有管制,但不知道此效應是否可以擴大到整個社會,也關係到言論自由。另一個問題是不帶髒字的酸言酸語如何解?

Q1:可否針對「同溫層效應會導致爭議議題情緒極化」詳細說明?
A1:因為對同溫層以外的人的回覆意願較低
Q2:如何遏止假新聞
A1:通常這些傳得很快的假新聞新奇性都很高、很聳動,應該建立自我判斷。

Q:台灣社會髒話與性的用字頻率逐年升高,是否跟壓力增加有關?如何解決這樣的問題?
A1:現象出來之後難的是該如何介入,其中牽涉治療倫理問題,若民眾不想接受治療也沒辦法,而且適當的壓力釋放是好事,代表有宣洩管道。而且每個世代用字習慣不一樣,以前可能用 F 開頭的髒話是不得了的是,但對現在這個世代來說 F 開的髒話只是語助詞。

Q:藉由人工智慧應用在尷尬的人際溝通上是否有可能? ex: 讓聊天機器人提醒主管不要再說幹話
A:非常實惠的想法XD

Q:語言分析的效果如何?
A:語言分析需要一定數量的辭彙庫,資料越少越不準

⬆︎返回目錄

專題二:微股力-金融社群對話機器人

講者:台北商業大學商業設計與管理系助理教授-溫明輝

創業項目-微股力:最大金融聊天社群 https://quants.ai/

服務:機器人幫你盯盤中,提供指標及訊號、跟買法人、資訊圖像化

  • Line 投資群組的推動力:輔助討論、提供資訊
  • Line 上集結了成千上萬個投資理財社群
  • 服務使用族群以年輕投資族群為主、目前四十五萬人次(有重複)
  • 留存率非常高
  • 每天一百多萬筆對話次數
  • 被封鎖的數目非常低、正面回饋多
  • 每人平均加入2.49個群組
  • 團隊做了預測股市的小遊戲,來分析加入群組對投資到底有沒有用
    結果:贏家群組較多
  • 分享自選股-找出市場最厲害的投資人
    分享自己的投資組合(有實單)
  • 未來開發語音機器人多元互動

Q:會不會操作特定商品的曝光量而容易有錯誤或引導的風險?
A:內部天條-不推薦任何投資選項,做公正的客觀的平台

Q:群組內會不會有公司或假新聞洗版的情況?
A:假新聞來源絕不會是微股力、但的確有人會在群組貼廣告

Q:美股大跌一千點的原因是因為交易機器人出錯,微股力會有這樣的風險嗎?
A:微股力的定位是社群工具不是投顧工具,目標是提供客觀的資訊、維護服務的信任感,未來可能讓優質的投顧工具進入平台供選擇。

⬆︎返回目錄

專題三:社群大數據的情緒分析

講者:清華大學資訊工程系副教授-陳宜欣

  • 許多小細節會被傳統研究忽略
  • 人的表達充滿錯誤
  • 情緒表達沒有邏輯(機器無法分析詩意與想像力)
  • 從人們的日常紀錄中,擷取共同記憶
  • 潛意識情緒資料(從網路社群上來看)
    - 比對情緒資料(網路社群中自己有下心情標籤的資料)跟非情緒資料(新聞)
    - 去蕪存菁之後留下的字詞來做分析
    - 不使用傳統語意詞典的結果較準確
數據來自總統大選之後XD

Q:有沒有特定詞彙可以增加回信滿意度?
A:人類的表達非常有創意,很難在特定情境有標準答案。不同年代、不同社會脈絡、不同工作環境下,用語的表達都不同。個案非常難

Q:中文情緒表徵那張圖是來自PTT嗎?感覺用詞很像似。
A:其實是來自FB,那時後資料是公開的。同一個人在不同群體、不同媒體上的情緒用詞都不一樣。

Q:說話的音調也有不同,這部分有研究嗎?
A:我自己是比較專注在文字的方面。

Q:如何避免取樣偏差?
A:會使用統計學方法避免,時間及範圍都會有限制。

Q:沒有使用傳統語意詞典,那怎麼判斷資訊的情緒?
A:是使用使用者自己有標上關鍵字的資訊。好處是在社群上較能跟得上時代及流行。

Q:是否不使用詞典的成效會比較好?
A:在社群上不使用詞典的表現會比較好,其他領域例如專業書籍就不適用了。

Q:請問使用的資料量大嗎?
A:兩三千筆的資料而已,資料量不大,因為必須人工再進行處理。

⬆︎返回目錄

專題四:看不見的機器人-社群網路背後的語意理解智慧

台灣大學電機工程學系教授-黃鐘揚

什麼是機器人?
這是一個大哉問,每個人心中對”機器人”的定義可能都不相同。
在這裡姑且把機器人定義為——
可以聽得懂人類的語言而做出相對應服務的應用。
它是軟體服務溝通的新媒介

目前就算是類神經網路技術,依然是弱人工智慧。所以必須限縮問題、分類問題!

建制方式:

  • 非監督式學習
  • 所有字、詞、句,都被轉換成高維向量(用向量相似度來評估)
  • 不同語意問題將其劃分為獨立空間
  • 依照信心指數不同來回答問題
  • 土法煉鋼太辛苦了(窮取),非監督式學習使用大量語料庫,因此少量訓練資料即可達成高準確率
  • 文字語料庫可利用爬床技術大量從公開網佔取得
  • 在地化很重要
  • 延伸不同語意也相對容易

Q:有人說若問題三秒鐘 google 得到,就不要用聊天機器人,那聊天機器人要怎麼用才會有商業價值呢?
A:視為新的媒體、新的管道。在社群上直接使用,是使用情境上的優化。好的教材才能交出好的AI。

Q:能夠訓練AI回化更人性化嗎?
A:這是科學界大家追求的聖杯、一門藝術。但目前要讓使用者知道他是在跟機器人對話,其中的設計是非常高深的技術。

Q:有解析問題相關的研究嗎?
A:還是必須花時間去定義你想要看的東西、要花力氣教,跟用大量資料去標籤不太一樣,有機會讓他舉一反三。

Q:能不餵資料,讓AI自己爬資料嗎?會不會比較有效率?
A:技術上都可以,但實際上還是得人工去篩選要餵給他的資料,不然之前 google也有做過它半天就學壞了XD

Q:能給非資訊科背景的民眾解釋一下什麼是類神經網路嗎?
A:類神經網路的“類”就是類似的意思,用電腦數據模擬類似人類腦神經的迴路,它就像嬰兒一樣是一張白紙,我們必須給他資料讓他學習。用相似人類的機制,相信他會發展出類似人類的智慧。

⬆︎返回目錄

講堂二- 讓機器跟人同等智慧:深度學習

專題一:機器透過互相砥礪來學習如何創造-對抗式學習

講者:台灣大學電機系助理教授-李宏毅

如果機器可以創造-作畫、寫文章?
ex: 看圖畫圖、依照文字畫圖

  • 傳統生成者生成的作品,都是從大量數據中訓練出來的,談不上創造
  • 對抗式學習,不給範例,讓電腦自己一人分飾二角:
    鑑別者(有範例資料訓練過、但不畫圖)
    生成者(沒有範例、只負責畫)
    生成者VS鑑別者:寫作朋友,唸成敵人(XD
  • 鑑別者來比對生成者的產出與預期的差異,歸納、找出規則
  • 目前可以做到:
    - 以圖畫圖
    - 依文字敘述畫圖
    - 風格轉換
AI 運算成果
  • 以翻譯為例(google 翻譯已經在做)
    以往都是督導式學習(有人類老師),對抗式學習(從鑑別者那邊學新語言)機器完全自己學=人教十萬句

Q:怎麼區分機器是抄襲還是創作?
A:檢視成品跟訓練資料是否有出現過、讓機器來檢視成品跟訓練資料

Q1:怎麼建立鑑定者的架構?
A1:慢慢試錯、但沒有正確答案
Q2:深度學習跟對抗是學習的差別?
A2:其實都是深度學習的一種,跟傳統深度學習的差異是:傳統身成者只有一個目標。深成者跟鑑別者都是機器,彼此目標不一樣(電腦自己分飾二角)

Q1:跟 reinforcement Learning(強化學習) 有什麼不一樣
A2:兩者非常相似,只有差異在 reinforcement Learning 通常有一方會是固定住的,對抗式學習兩方都沒有固定住

Q:讓生產者跟不同鑑別者訓練的話,技術有可能加強嗎?
A:有的!已經有文獻了

Q:例如人臉辨識,可以有不用寫程式或是串串API就好的解決方案嗎?
A:理論上可以,網路上有很多平台跟服務有提供資料庫訓練。但最後能不能解決問題是另一回事。實際應用上總會出很多事XD

Q:有對抗式學習在於自駕車的應用?
A:是有應用的,還有 imitation learning (模仿式學習)的技術,有可能可以達成。

⬆︎返回目錄

專題二:小APP背後的大數據與人工智慧

清華大學資訊工程系副教授-吳尚鴻

主要會介紹數據與 AI 在 APP 跟 WEB 上的應用

  • 專注力-人類回復專注力平均要20分鐘
    怎麼解決專注力被社群分散的問題
  • 利用遊戲化
  • 創業項目:Flora、Forest
  • 如何減少成本:
    精準投放廣告、有創意
  • 如何讓機器學會銷售?
    研發業配文產生器(X
  • 分析市面上的廣告,與內容的關係
  • 投放廣告(文案訓練)
  • 做功能測試、UI測試
  • 分析付費使用者

(抱歉這位講者中英混雜我實在有點恍神XD 後面的沒記錄到)

⬆︎返回目錄

專題三:AI並不神秘,不過就是要問個好問題

講者:政治大學應用數學系副教授-蔡炎龍

把問題化為函數,然後用深度學習找到這個函數。
函數其實是一個解答本
所有的問題都有一個答案

我們都有部分解答,但我們沒碰過的問題有無數題
我們希望的就是讓AI找出所有問題

  1. 我們先問一個問題
  2. 化成函數的形式
  3. 準備考古題
  4. 架構我們的神經網路、調整參數
  • ex: 想知道明天股票的收盤價
    遇到的問題是:問不出好問題(金融專家太天馬行空、AI專家問不出實際需要的問題)
  • ex: 想知道大聯盟裡某位選手2018年球季會打出多少全壘打?
    不要猜精準數目,猜區間即可。

訓練聊天機器人:

訓練聊天機器人

Q:假設 AI 跟30年投資顧問相比的優勢在哪裡?
A:若 AI 經過30年投資顧問的調教,可以獨立作業,它會比較便宜

Q:有沒有辦法知道一首歌發出去會有多少點擊?
A:需要過去資料,這是困難點。

Q:人腦跟大腦處理過後的資料是等價的嗎?
A:目前電腦沒有辦法取代人問問題、且侷限在某個範圍之內的

⬆︎返回目錄

專題四:人工智慧在影像處理與電腦視覺上的應用

講者:台灣大學資訊工程學系暨研究所教授兼系主任-莊永裕

用攝影機模擬眼睛、用電腦模擬人腦
相機、數位相機:成像原理符合物理定律、透過感光元件及影像處理晶片來產出影像
但真實世界人為及硬體都有因素讓影像不完美

  • 提高解析度
  • 減少雜訊
  • 調整顏色
  • 影片、照片的美化
  • 自動駕駛
  • 無人商店

Q:超出人類感知的資訊有發展可能嗎?
A:有的,對電腦來說只是多一個頻道的資訊要處理,這些額外的感知可以幫助辨識

Q:電腦發展的目的,人類的目的是被設定為繁衍跟生存、但我們發展到這個階段卻會想要探究自身的意識、機器的生存目的…..(等等大哉問)
A:牽涉到意識跟倫理之間的關係,身為人都很難回答。而目前我們還離那一步很遠,或許在接近要發展成熟的時間點大家才會開始真正討論。

⬆︎返回目錄

講堂三- AI的更多可能:智慧應用

專題一:台灣蛾類顏色多樣性的人工智慧分析

講者:中央研究院生物多樣性研究中心-沈聖峰

生物顏色與環境的關係有各種假說,很難測試、資料難累積

問題太大了,先限縮範圍!
專注研究環境溫度與動物體色深淺的關係

  • 問題比想像中複雜
  • 結果
    冷的地方溫度越低顏色越淡
    熱的地方溫度越高顏色越深
    (痾…我有點恍神,不太確定是不是對的,想想我自己無法邏輯自洽就當機了)
  • 了解環境溫度與動物體表顏色的理論
  • 環境變遷對動物可能的衝擊
  • 有助於未來設計利用顏色調節溫度的仿生材質

⬆︎返回目錄

專題二:從分析到創作-談人工智慧應用於音樂的想像與真實

講者:中央研究院資訊科學研究所-蘇黎

人工智慧在音樂的應用
希望讓機器具備如音樂家一般「理解音樂」的能力

  • 採譜跟下棋、駕駛一樣,是一種高超的技藝
  • 世界上有很音樂只是口耳相傳,沒有記譜
  • 很多音樂特徵只存在於表演中,不存在樂譜上
    以布農族八部合音為例:
    異聲部
    微分音
    泛音唱法
  • 對譜是人機互動演奏音樂的基礎
    即時偵測演奏進度、即時偵測細微的速度變化
  • 走音救星
    從美圖修修到走音救星
    原本的 Auto-tune:校正音高,但聲音顯得不自然
    如何擁有專業的聲線又保有原出的唱腔
    人聲旋律偵測+自動同步
  • 風格轉換
    將一種風格的樂曲轉成另一種風格
    ex: 將???(我忘了)轉成巴哈風格

大眾第一時間的反應之一

  • 面對焦慮感:取代與毀壞
    - 藝術創作的「天動說」:覺得只有以人為中心的創在才是創作
    - 藝術創作的「永動機假設」:機器學會了之後就會有源源不絕的機器創最了嗎?
    - 人工智慧與 Cargo cult science(R.Feynman)
  • 反思人工智慧建立的條件
    資料、標記、模型、目標函數
  • 回歸工程科學的目的
    通常還是在做工具,來幫助音樂家意識到創作表演現場的勞動事實,重視有利於音樂產業的工具智慧。

Q:?(太冗長聽不懂發問者說什麼)
A:的確google已經在做這個項目了,但目前研發這個科技的阻礙在於:你怎麼說他是一個好作品?我想這個問題是反過來要問人類聽眾的。

Q:人工智慧做出來的產品的著作權?
A:學術圈討論也蠻興盛的,回答我一些同溫層的觀點,關於這個問題最主要的目的。因為大部分人的假想敵是唱片公司,這反而是創作者的機會,他的應用不一定會是主流音樂,最後可能受益的還是音樂圈的創作人。

Q:用少量資料訓練自動標記有可能嗎?
A:理論上有可能,不過以海飛茲來說,已有的標記已經很少很少了,幾乎沒有足夠的資料可以訓練電腦。

⬆︎返回目錄

專題三:AI在心理學研究與相關產業的應用

講者:台灣大學心理學系助理教授-黃從仁

AI從以往的歸納演繹到現在深度學習
心理學是人類心智與行為歷程的科學
它的發展與腦科學、心理學息息相關,受到這兩個學科的啟發

  • 機器學習與腦科學研究相輔相成
  • 當代讀心術的基礎-
    解讀你的腦訊號知道你現實中發生了什麼,甚至到預測你的行動
  • 醫療方面的應用(義肢)
  • 用來研究了解人類的各種認知能力(成果可以用來研發更好的機器人)
  • 用來了解人類社會的互動能力
  • 嬰兒哭聲翻譯機
  • 自動化人員招聘、自動化面試、
  • 社交老師機器人(幫助自閉兒童、小孩、老人)
  • 認知行為治療機器人(CBTP 治療口吃、感慎憂鬱焦慮、陪伴機器人)

Q:?(太小聲沒聽到)
A:這是機器學習中的傲慢與偏見…

Q:是否可以用AI來觀察人類行為從得之真正的意圖
A:可以,但這通常是分析大量數計結果

Q:AI與人類自我探尋
A:這其實是相輔相成的,從其中的相同或相異之處來了解自己。目前機器學習的速度比起人類是很慢的,人類的學習都是基於語言傳遞,而機器是經由試錯學習。人類一直想要有更快的方式來學習知識,雖然電腦現在是慢速學習,但人類的學習是有缺點的,而機器學成之後就沒有。

機器的快思(演繹法)慢想(歸納法)

⬆︎返回目錄

專題四:從手機解讀人類行為與心理-以成癮為例

講者:台大醫院主治醫生、國家衛生研究院-林逸軒

  • 可以自動化大規模的得到研究資料嗎?
    — 自己寫了一個 APP :Know Addiction APP(真是強者@@
  • 與其他成因品菸、酒的成癮模式是一樣的嗎?
    結果是高度相似!
  • 了解手機成癮是一個很重要的心理學入門磚,對於了解人類成癮與科技產品的使用上很有幫助
Know Addiction APP
  • 時間扭曲效應(實際花費的時間平均是自己感知時間的1.5倍)
    使用者告訴你的資料並不準確
  • 找出失控的現象、並提醒改善
  • 精準化治療
成癮的核心是失控

Q:ios 手機版會上線嗎?
A:因為 iPhone 的一些限制所以暫時不會有 ios 版本(QQ

Q:app 有改善使用者的行為嗎?
A:第一個月與第二個月都有顯示顯著的改善。

Q:如何改善手機成癮?
A:有兩種情況,一種是現實世界中遇到問題、一種是使用上的失控。兩種解決方法不一樣。

Q:會研究其他成癮領域嗎?
A:目前沒有、但就像前面說到的,這個研究會是一個敲門磚,會套用手機成癮的研究結果來改善其他的成癮行為。

Q:時代進步了,很多人會使用手機去替代看書之類的事情,這不算是成癮,要怎麼排除?
A:成癮的核心是失控,而不是使用時間多長(有人覺得一天用手機兩小時就是失控、有人覺得五小時才是)

⬆︎返回目錄

心得:

面對主辦單位來勢洶洶的U質活動,我老早就打算要邊聽邊寫速記。
起了個大早 9:15 到場想選個好位子,沒有想到星期日這個時間居然幾乎滿座@口@”
12 位講者,每位講15分鐘、提問15分鐘。算是很恰到好處的節奏,只是從早上到晚上每場都聚精會神,到最後幾場難免有點注意力渙散。(可能主辦單位覺得會每場都聽的人不多吧XD)休息時間碰到幾位認識的朋友,還有讀書會的朋友~太開心了

每位講者講的都很深入淺出,即使不懂專有名詞也能聽得懂比喻。Q&A時間更是顯現出講者厲害的理解歸納能力XD(就算聽眾提問很外星人或是很冗長,都能給出切中要點的回覆,太厲害了)
而主持串場的功力也是一流、還有幫忙補沒有人提問的空白時間,問的問題也都很棒~非常佩服這樣思考迅速的人

最重要的是…以往大家對於專家學者尤其是中研院的研究員、學校教授之類的都會有一種刻板印象:覺得他們就是老學究、一群領著政府預算不食人間煙火、沒有商業實戰經驗的學術人員。
但我今天見識到完全不是這麼一回事!在場非常多講者都有創業、運營經驗、或是正在創業中有著驚人成績。他們兼顧研究與事業,把 AI 的研究成果投入實戰,什麼敏捷開發、數據驅動、行銷策略,他們比數位產業人員還溜,而且是玩真的、有實力自己開發…根本神人啊 இдஇ (不怕別人智商高,就怕人家智商比你高還比你努力 (;´༎ຶД༎ຶ`)

總之就是…台灣在人工智慧實際投入的程度比我想像中的多很多,成果也比我想像中的大很多(儘管我已經算是抱著非常樂觀的態度了…真希望在我有生之年可以看到機器人滿街跑的科幻場景呀~)
另一點就是,現在這個階段好像很多人急著想知道 AI 到底能不能更聰明?會不會有下一個階段的突破?能不能用在商業上?
有趣的是,大家生養小孩都有耐心等他慢慢成長學習,血本無歸的栽培才藝、唸書到22歲大學畢業才投入社會。但為何對剛出生的 AI 技術這麼焦急、這麼嚴苛啊XD 這可是成長一次就可以無限使用的孩子啊

個人覺得未來最擔心的隱憂是「壟斷」,現在大家都是軍備等級的研發競賽,就是希望自己可以成為技術突破的領頭羊。尤其以 AI 這麼有領先者優勢的項目,會不會一旦技術領先就乘著優勢一夕壯大而後壟斷整個市場?除了獲得龐大利益之外,有沒有採用 AI 技術肯定會帶來人類社會的價值觀、制度、階級、經濟重新洗牌,試想一個大航海時代卻只有一個國家有造船技術的世界(抖抖…

⬆︎返回目錄

//拍手小實驗(給大家一個按爛的機會XD)//1~3:朕知道了/已閱/防誤觸(感恩各位大大水水~)
4~6:普普通通/沒有功勞也有苦勞
7 :森77/是在供三小
8~10:還不錯,但還能更好/有些小錯誤
10~15:很棒!希望看到更多相關主題
50 拍好拍滿:嗚嗚...愛你❤

--

--

一個啥都想學的設計師,相信學自己想學的就是在成為想成為的自己的路上。

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store
本丸 Ben Wan

本丸 Ben Wan

接案產品設計師、UX 褓姆顧問、腦神經科學業餘愛好者、讀書會上癮患者。 bennywanbw@gmail.com