Nodeflux AI Monthly Digest | August-September 2019 Edition

Indra Nugraha
Nodeflux
Published in
7 min readOct 22, 2019

Hi guys! Kali ini, Nodeflux AI Monthly Digest kembali hadir untuk menghadirkan berbagai informasi menarik yang telah dikurasi seputar hal-hal yang sedang terjadi di industri AI dan pengembangannya di seluruh dunia.

Berbeda dengan edisi sebelumnya, di Nodeflux Monthly AI Digest edisi Agustus-September ini, beberapa engineer kami juga akan turut serta untuk memberikan kontribusi mereka pada artikel ini.

Penasaran seperti apa bahasannya? Terus scroll ke bawah ya!

Editor’s Pick

Data Augmentation using Learned Transformations for One-shot Medical Image Segmentation

Dipilih oleh: Reynaldy Hardiyanto

Pada tahun 2026, Accenture memprediksi pengaplikasian kecerdasan buatan dalam bidang medis dapat menghemat pengeluaran tahunan sebesar $150 miliar. Salah satunya aplikasinya adalah segmentasi yang dilakukan pada gambar MRI. Sebelumnya, untuk mendapatkan data pada gambar MRI dibutuhkan bantuan expert untuk melabeli gambar yang tentunya membutuhkan biaya yang tidak sedikit.

Augmentasi data dapat menjawab permasalahan yang dihadapi dunia medis. Metode ini dapat digunakan ketika akan menentukan segmentasi pada sebuah gambar hasil MRI. Sebuah paper memperkenalkan metode learning-based registration yang memodelkan transformasi bentuk (variasi bentuk anatomis) dan penampilan (variasi yang disebabkan kualitas, pengaturan, dan derau pada scanner) antara data yang terlabeli dan yang belum terlabeli. Kemudian dari transformasi tersebut dilakukan “mix and match”. Sebagai contoh, bentuk anatomis A dikombinasikan dengan kualitas scanner B, sehingga diharapkan dapat menghasilkan gambar sintesis yang realistik.

Hasilnya, dengan melakukan augmentasi pada dataset, terjadi kenaikan Dice score dari 0.759 menjadi 0.815 dengan metode segmentasi yang sama.

Papers

Pyramid Scene Parsing Network (PSPNet)
Dipilih oleh: Randy Pangestu

https://arxiv.org/abs/1612.01105

PSPNet merupakan pemenang dari ImageNet Scene Parsing Challenge pada tahun 2016 dan juara pertama pada dataset PASCAL VOC 2012 & Cityscapes di tahun tersebut. Meskipun PSPNet termasuk paper yang sudah cukup lama, namun performa dari PSPNet cukup dapat bersaing dengan metode-metode terbaru dalam kasus semantic segmentation. Selain itu, ide dari PSPNet itu sendiri memiliki impact yang cukup tinggi baik dari segi pengembangan metode segmentasi atau juga aplikasi dari metode segmentasi itu sendiri. Hal ini ditunjukkan dari jumlah sitasi yang saat ini mencapai 1501 kali.

PSPNet merupakan pengembangan dari metode segmentasi ‘end-to-end’ yang cukup terkenal yaitu Fully Convolutional Network (FCN). Pada metode-metode sebelumnya, arsitektur dari network memiliki kekurangan dalam hal mengekstraks informasi kontekstual pada suatu image seperti yang terdapat pada FCN. PSPNet mencoba menyelesaikan masalah tersebut dengan cara menambahkan suatu modul yang disebut Pyramid Pooling Module (PPM) yang bertujuan untuk mengekstraks informasi kontekstual dari input dengan menggunakan operasi Global Average Pooling (GAP). Dari penggunaan modul tersebut, informasi kontekstual dapat diekstrak dan berdasarkan hasil eksperimen yang ditunjukkan dapat meningkatkan performa.

Distilling the Knowledge in a Neural Network
Dipilih oleh: Amajid Sinar Guntara

https://towardsdatascience.com/knowledge-distillation-simplified-dd4973dbc764

Ensembling merupakan teknik penggabungan beberapa model yang sangat sering dipakai oleh pemenang kontes-kontes machine learning. Namun, pada kenyataannya, model-model tersebut tidak dapat naik ke stage deployment karena lamanya waktu pemrosesan. Pada paper ini, Geoffrey Hinton menunjukkan bahwa kita bisa membuat model yang memiliki performa serupa dengan model yang telah di-ensemble dengan waktu pemrosesan yang jauh lebih cepat berkat teknik yang dinamakan distillation.

News

Creating a Data Set and a Challenge For Deepfakes
Dipilih oleh: Indra Nugraha

https://ai.facebook.com/blog/deepfake-detection-challenge

Deepfake adalah sebuah metode untuk mengganti wajah objek yang ada pada video dengan wajah yang dibuat oleh AI secara langsung — baik gerakan maupun ekspresinya. Masalah yang ditimbulkan Deepfake ke depan sangat berbahaya karena salahnya informasi yang akan muncul dari penggunaan teknologi tersebut.

Selain itu juga sulit untuk membedakan apakah video tersebut adalah gambar asli atau merupakan hasil AI Deepfake. Oleh karena itu, beberapa perusahaan besar seperti Facebook, Microsoft dan lainnya membuat sebuah kompetisi untuk membuat sistem yang dapat mendeteksi sebuah gambar — apakah gambar tersebut hasil Deepfake atau bukan. Kompetisi ini diharapkan dapat membantu menyelesaikan masalah yang timbul dari Deepfake ini.

How to Build Artificial Intelligence We Can Trust
Dipilih oleh: Reynaldy Hardiyanto

Di balik perkembangan kecerdasan buatan/AI yang sangat masif, rupanya AI masih memiliki isu — yakni tingkat kehandalannya dalam menangani berbagai masalah. Sebagai contoh: pengenalan wajah dari Amazon, yang masih melakukan kesalahan dalam pengenalan wajah sebanyak 28 kali dari 535 anggota kongres Amerika dengan 25.000 foto tahanan.

Pada dasarnya, kecerdasan buatan/AI memanfaatkan pola statistik untuk menentukan keputusan. AI cenderung untuk tidak memperhatikan tiga konsep dasar dalam pengambilan keputusan, yaitu: waktu, ruang, dan kausalitas. Ketika tiga konsep dasar itu tidak dipahami, kecerdasan buatan tidak akan mengerti makna substantif dari suatu masalah — seperti eksperimen yang dicoba oleh penulis ketika melakukan pencarian di Google dengan kata kunci “Did George Washington own a computer?”. Tidak ada satu pun dari 10 hasil pencarian pertama yang berhasil menjawab pertanyaan tersebut, padahal dari logika dasar saja kita bisa menjawab — dikarenakan komputer belum ditemukan semasa George Washington hidup.

Tanpa konsep waktu, ruang, dan kausalitas, kecerdasan buatan belum dapat dipercayai sepenuhnya dalam menggantikan pekerjaan manusia. Ilmuwan di bidang kecerdasan buatan sedang mencari cara agar mesin dapat dibekali oleh pemahaman konseptual, meskipun hal tersebut bukan perkara mudah — baik secara teori maupun prakteknya. Kita kini menghadapi pilihan: apakah kita masih akan menggunakan pendekatan saat ini, atau beralih dengan membangun mesin yang kaya akan pemahaman konseptual?

Tutorials

Summer School on Deep Learning and Bayesian Methods
Dipilih oleh: Indra Nugraha

http://deepbayes.ru/

Summer school yang diadakan oleh Deep Bayes Agustus lalu membahas metode-metode Bayesian yang dapat dikombinasi dengan Deep Learning untuk mendapatkan hasil lebih baik dalam aplikasi machine learning. Banyak riset-riset terdahulu yang telah membuktikan bahwa menggunakan pendekatan Bayesian dapat bermanfaat dalam segala sisi. Materi akan diawali dari berbagai macam metode Bayesian dan bagaimana penggunaannya dalam bahasa pemrograman Python. Dengan mengikuti course ini, partisipan diharapkan dapat menggunakan metode Bayesian dalam deep learning model yang dapat meningkatkan proses pengaplikasian dan performa dari model tersebut.

How to Unit Test Machine Learning Code
Dipilih oleh: Amajid Sinar Guntara

https://provalisresearch.com/blog/machine-learning/

Pada proses software development, unit testing merupakan kewajiban yang tidak dapat ditinggalkan. Dengan membuat unit testing yang robust, bug akan lebih cepat ditemukan, terutama bug yang membuat model tidak melakukan pembelajaran tanpa adanya error.

Miscellaneous AI

AirGesture — Let’s play game without keyboard
Dipilih oleh: Indra Nugraha

https://www.reddit.com/r/datascience/comments/d12ynl/ai_application_airgesture_lets_play_game_without/

Salah satu penggunaan AI sendiri dapat diaplikasikan pada bidang video games. Kali ini author membuat sistem yang mengambil gestur/pergerakan tangan melalui kamera untuk menjadi input/kontroler dari video game yang dimainkan. Author menggunakan tangannya sebagai kontroler untuk memainkan game Super Mario Bros. Ke depannya, penggunaan kamera menjadi input kontrol bisa menjadi suatu hal yang menarik karena bisa menghapus keterbatasan dan membuat sebuah game menjadi lebih nyata untuk dimainkan.

AI Learns to Park — Deep Reinforcement Learning with Unity ML-Agents

Dipilih oleh: Indra Nugraha

https://www.youtube.com/watch?time_continue=2&v=VMp6pq6_QjI

Penggunaan Deep Reinforcement Learning (RL) pada platform Unity ML-Agents untuk membuat sistem yang dapat memarkir kendaraan secara otomatis. Proses belajar sistem sendiri dilakukan dengan banyak iterasi dan proses belajar agar kendaraan dapat parkir dengan benar tanpa menabrak kendaraan lain. Dengan adanya penggunaan metode Deep RL ini pada simulator seperti Unity ML-Agents, diharapkan dapat membantu dalam membuat model yang nantinya dapat digunakan pada keadaan langsung/real.

Interesting Tweet

https://twitter.com/fchollet/status/1176625911036145666

Francois Chollet adalah seorang author dari Keras, sebuah library untuk melakukan proses Deep Learning secara mudah melalui API dari library komputasi seperti Tensorflow, Theano, dll.

Pada cuitan ini, author mengenalkan sebuah konsep apabila classifier/model kita itu tinggi akurasinya, bisa jadi kita menggunakan metrik yang salah, terdapat kemungkinan overfitting atau masalah kebocoran data. Metrik sendiri merupakan titik umpan balik dari sebuah model yang penting untuk diperhatikan.

https://twitter.com/karpathy/status/1013244313327681536?lang=en

Andrej Karpathy adalah Director of AI di Tesla dan merupakan salah satu ahli yang paling sering membagikan ilmunya lewat cuitan maupun tulisan dalam blog.

Pada tweet ini, Andrej menjelaskan kesalahan-kesalahan yang sering dilakukan bahkan oleh ahli sekalipun ketika melakukan proses training model neural network.

Demikianlah ulasan singkat kami tentang apa saja yang terjadi di industri AI selama sebulan belakangan. Simak terus Nodeflux Monthly AI Review untuk informasi terbaru seputar industri AI dan ekosistemnya!

--

--