Nodeflux Monthly AI Digest | October-November 2019 Issue

Priscilla Indira Osa
Nodeflux
Published in
9 min readDec 13, 2019

Autonomous Driving. Istilah ini menjadi topik yang lumayan marak diperbincangkan beberapa tahun belakangan ini. Kali ini, Nodeflux AI Monthly Digest edisi Oktober-November mengangkat tema AI x Autonomous Driving di mana engineer dan researcher kami telah merangkum berbagai informasi menarik di bidang AI dan/atau Autonomous Driving.

Ingin mendapatkan informasi yang lebih dalam dan teknikal mengenai Autonomous Driving? Simak terus artikel ini!

Editor’s Pick

The Architectural Implications of Autonomous Driving: Constraints and Acceleration

Dipilih oleh: Priscilla Indira Osa
Dibuat oleh: Shih-Chieh Lin, Yunqi Zhang, Chang-Hong Hsu, Matt Skach, Md E. Haque, Lingjia Tang, Jason Mars
Paper link: https://web.eecs.umich.edu/~shihclin/papers/AutonomousCar-ASPLOS18.pdf

Gambar 1.1. Overview dari sistem autonomous driving

Dalam membangun sistem autonomous driving, banyak faktor-faktor penting yang membatasi pembangunan sebuah sistem yang aman dan layak pakai. Paper yang berjudul “The Architectural Implications of Autonomous Driving: Constraints and Acceleration” ini membahas 5 faktor utama yang mempengaruhi sistem autonomous driving, yaitu performance, predictability, storage, thermal dan power.

Berdasarkan data dari riset-riset sebelumnya, dapat disimpulkan batasan-batasan dari 5 faktor di atas sebagai berikut:

  • Performance (performa): sistem autonomous driving diharapkan dapat memroses kondisi lalu lintas dengan delay 100 ms dan frame rate lebih dari 10 frames per detik.
  • Predictability (kemampuan untuk dapat diprediksi): Tail latency seharusnya dipakai sebagai acuan untuk menilai performa dari sistem.
  • Storage (penyimpanan): Puluhan terabyte diperlukan untuk menyimpan informasi seperti peta, dll.
  • Thermal (suhu): Sistem pendingin tambahan perlu ditambahkan untuk mengatasi panas yang berlebihan dari sistem komputer.
  • Power (daya listrik): Diperlukan daya tambahan untuk memfasilitasi komputer, storage dan sistem pendingin.

Selain menguraikan faktor-faktor di atas, paper ini juga mencoba membuat sistem end-to-end menggunakan algoritma dan metode yang paling mutakhir (pada saat paper ditulis). Sistem yang diimplementasikan memiliki pipeline sebagai berikut: Video dari kamera yang dipasang di mobil akan dimasukkan ke object detector dan secara parallel juga akan dimasukkan ke localizer. Koordinat objek diteruskan ke object tracker untuk melacak objek yang bergerak. Lokasi kendaraan dari localizer dan pergerakan objek dari tracker akan diproyeksikan ke koordinat 3 dimensi oleh fusion engine yang nantinya akan digunakan sebagai input motion planner untuk membuat keputusan. Keputusan yang dibuat nantinya akan mempengaruhi aksi dari kendaraan seperti mengubah rute, dll. Dari pipeline tersebut, paper ini juga menjabarkan perbandingan performa algoritma menggunakan GPU, FPGA, dan ASIC.

Walaupun paper ini hanya membahas sedikit topik teknikal, paper ini cocok bagi pembaca yang ingin mendapatkan gambaran dasar mengenai autonomous driving. Selain informasi di atas, terdapat informasi dasar lainnya seperti penjelasan mengenai level automasi sampai berbagai informasi dari industri autonomous driving (Google, Uber, Tesla, dll). Pipeline sistem autonomous driving yang diimplementasikan di dunia nyata akan lebih rumit dari pipeline paper, tetapi model Artificial Intelligence yang dipakai sebagai object detector, tracker dan engine lainnya akan selalu dipakai di pipeline manapun. Dari contoh pipeline paper tersebut, pembaca juga akan mendapatkan keyword penting yang berguna untuk menggali bidang ini lebih dalam.

Papers

The ApolloScape Open Dataset for Autonomous Driving and its Application

Dipilih oleh: Igi Ardiyanto
Dibuat oleh: Xinyu Huang, Peng Wang, Xinjing Cheng, Dingfu Zhou, Qichuan Geng, Ruigang Yang
Jurnal: IEEE Transactions on Pattern Analysis and Machine Intelligence
Paper link: https://ieeexplore.ieee.org/abstract/document/8753527 , https://arxiv.org/pdf/1803.06184.pdf

Gambar 1.2. Visualisasi dari beberapa contoh gambar ApolloScape

Autonomous Driving berkembang secara cepat dan mendapat banyak perhatian dari semua kalangan baik akademik maupun industri. Salah satu tantangan terbesar dalam Autonomous Driving adalah kebutuhannya terhadap teknik-teknik yang mumpuni untuk melakukan 3D map construction, self-localization, dan pengenalan objek-objek yang ada di jalan, yang memungkinkan kendaraan untuk bergerak secara autonomous. Dalam hal ini, teknik pembelajaran mesin menjadi salah satu solusi untuk mengatasinya. Namun, ketersediaan data dalam skala besar untuk pelatihan dan evaluasi sistem ini masih menjadi hambatan untuk mengembangkan model Autonomous Driving yang mumpuni.

Dalam paper ini, para penulis menghadirkan ApolloScape, sebuah dataset baru untuk Autonomous Driving. Dataset ini berisi data driving di China dalam jumlah yang lebih besar dan lebih kaya, termasuk di dalamnya point cloud, stereo, semantic labelling, lanemark, instance segmentation, 3D car instance, dan high accurate location untuk setiap frame dalam berbagai video berkendara dari beberapa tempat dalam kondisi siang hari. Untuk setiap item data, dataset ini memiliki citra setidaknya 15 kali lipat lebih banyak daripada dataset state-of-the-art yang sudah ada.

Object Classification using CNN-Based Fusion of Vision and LIDAR in Autonomous Vehicle Environment

Dipilih oleh: Kahlil Muchtar
Dibuat oleh: Hongbo Gao, Bo Chen, Jianqiang Wang, Keqiang Li, Jianhui Zhao, and Deyi Li (Sept, 2018)
Paper link: https://ieeexplore.ieee.org/abstract/document/8331162

Gambar 1.3. Pipeline klasifikasi objek
Sumber gambar: https://www.semanticscholar.org/paper/Object-Classification-Using-CNN-Based-Fusion-of-and-Gao-Cheng/9e46672b07504f7ff677dff323bb4c0efecb9091

Saat ini, salah satu tren teknologi yang paling menarik adalah industri otomotif di mana kendaraan otomatis telah mendapat perhatian yang sangat signifikan dikarenakan potensinya dalam meningkatkan keamanan dan kenyamanan, efisiensi lalu lintas dan penghematan energi. Riset di bidang ini pun telah mendapatkan perhatian yang cukup luas baik dari institusi akademik maupun industri. Beberapa yang cukup terkenal mencakup proyek ARGO, proyek EUREKA Prometheus, DARPA, kendaraan otomatis Google (automated vehicle) dan acara tahunan bertajuk Intelligent Vehicle Future Challenge (IVFC) yang diselenggarakan oleh National Natural Science Foundation of China (NSFC) sejak tahun 2009. Ratusan tim dari seluruh dunia berpartisipasi guna memamerkan pencapaian mereka khususnya dalam hal penghematan bahan bakar dan keamanan.

Paper ini memperkenalkan metode DCNN (Deep Convolutional Neural Network) yang dikombinasikan dengan metode upsampling untuk menangani masalah klasifikasi objek pada kendaraan otomatis secara efisien. Dengan menggunakan data citra 3-dimensi dari LIDAR, metode yang diusulkan mampu memperoleh representasi fitur yang sangat informatif, khususnya untuk masalah klasifikasi objek. Setelah data 3-dimensi dari LIDAR diperoleh, penulis melalukan proses upsampling dan mengubah nilainya ke level informasi pixel dan kedalaman, atau biasa disebut informasi RGBD (Red, Green, Blue and Depth). Nilai RGBD ini selanjutnya dimasukkan ke dalam jaringan DCNN untuk proses pengklasifikasian suatu objek. Penulis melakukan pengujian menggunakan dataset publik dan metode ini terbukti menjamin akurasi dan efisiensi dalam proses klasifikasi objek. Cara kerja metode ini dapat dilihat pada gambar di atas.

Pada paper ini, NVIDIA® GeForce GTX Titan X dan NVIDIA® Jetson TX1 digunakan untuk pendeteksian dan klasifikasi. Pada penelitian selanjutnya, penulis berencana melakukan eksperimen secara riil dan memverifikasi kinerja algoritma berdasarkan “vehicle-mounted domain controller”.

News

Learned Urban Driving

Dipilih oleh: Igi Ardiyanto
Sumber Berita: https://wayve.ai/blog/learned-urban-driving

Gambar 2.1. Outline sistem yang dikembangkan oleh Wayve

Selama ini, Autonomous Driving yang dikembangkan oleh pemain-pemain besar seperti NVIDIA dan Google selalu diidentikkan dengan sebuah “mobil” yang dibekali berbagai sensor navigasi canggih semacam LIDAR dan stereo camera, dengan berbagai macam algoritma yang disematkan di dalamnya. Di awal tahun 2019, Wayve, sebuah perusahaan rintisan yang bergerak di bidang Autonomous Driving membuat terobosan dengan mengembangkan sistem navigasi “hanya” dengan menggunakan kamera.

Keunggulan sistem yang dikembangkan Wayve terletak pada penggunaan end-to-end learned driving system with full vehicle control berbasis conditional imitation learning. Sistem ini pada dasarnya mengumpulkan data perilaku mengemudi manusia dan melatih model machine learning untuk meniru perilaku ini. Secara khusus, sistem ini mengekstraksi data driving yang dapat diinterpretasi seperti semantic, motion, dan geometry dari data kamera RGB, dan mengubahnya menjadi motion plan yang langsung dieksekusi oleh sistem kendali mobil.

RoadSight aims to enhance autonomous vehicle night vision with AI

Dipilih oleh: Kahlil Muchtar
Sumber Berita: https://www.therobotreport.com/roadsight-blinkai-enhance-autonomous-vehicle-night-visioni-ai/

Gambar 2.2. Roadsight meningkatkan pencahayaan 5 kali dari kondisi awal
Sumber gambar: BlinkAI

Salah satu dari banyaknya tantangan yang dihadapi pengembang kendaraan otomatis adalah pengumpulan dan pemrosesan data dalam jumlah besar melalui kamera secara cepat dan efisien. Bulan lalu sebuah perusahaan bernama BlinkAI Technologies Inc. meluncurkan sebuah produk yang dinamakan “RoadSight”, yang didesain khusus untuk meningkatkan performa kamera pada kondisi pencahayaan rendah.

Beberapa pabrikan kendaraan otomatis menggunakan kamera paralel daripada teknologi LIDAR (yang relatif lebih mahal), namun hal ini memunculkan beberapa masalah keamanan. “The National Traffic Safety Board” beberapa waktu lalu menemukan bahwa salah satu masalah pada kecelakaan Uber tahun 2018 adalah pengendara otomatis (autonomous driver) tidak mampu mengenal/mendeteksi pejalan kaki dalam kondisi pencahayaan yang redup.

Oleh karena itu, produk “RoadSight” memperkenalkan algoritma pembelajaran mesin (machine learning) untuk meningkatkan pencahayaan hingga 500% (seperti ilustrasi pada gambar di atas). Hal ini akhirnya dapat meningkatkan tingkat akurasi deteksi objek.

Tutorials

RACECAR Tutorial [ICRA ’19] — Wall Follow Lab (Simulation)

Dipilih oleh: Fahri Ali Rahman
Sumber: https://mit-racecar.github.io/icra2019-workshop/lab-wall-follow-sim

Gambar 3.1. Wall follower race car

Pada tutorial ini, diperlihatkan implementasi wall follower race car dengan menggunakan simulasi komputer. Tujuan dari tutorial ini adalah membuat kontroller autonomous race car yang dapat menjaga jarak tertentu terhadap dinding (sisi kanan maupun kiri dari robot).

Robot yang digunakan merupakan mobil RC dengan sensor LiDAR yang akan memberikan informasi ruang kosong pada 2-dimensi. Meskipun data jarak dari sensor LiDAR cukup akurat dan presisi, terkadang masih terdapat noise yang tidak terhindarkan. Maka dari itu, pada tutorial ini didesain kontroller yang robust terhadap noise.

Simulator race car ini berbasis Robot Operating System (ROS). ROS merupakan middleware populer di komunitas robotics research dan industri. Salah satu keunggulan dari ROS adalah kemudahan integrasi software untuk simulasi dan implementasi hardware.

DuckieTown AutoLab

Dipilih oleh: Fahri Ali Rahman
Sumber: https://docs.duckietown.org/DT19/opmanual_autolab/out/index.html

Gambar 3.2. DuckieTown
sumber gambar: https://www.duckietown.org/

Duckietown merupakan worldwide initiative yang bertujuan untuk merealisasikan computer vision untuk pembelajaran AI/robotics. Platform Duckietown terdiri atas dua komponen utama, yaitu Duckiebots dan Duckietowns. Duckiebots adalah mobile robot yang low-cost dan bisa dirakit sendiri, sedangkan Duckietowns merepresentasikan lingkungan jalan dan kota.

Robot Duckiebots tersusun atas dua motor DC, Raspberry Pi, satu kamera dan tentunya chassis dan baterai. Duckiebots lucu ini sudah memiliki software-stack yang canggih, diantaranya localization, planning, dan (tidak ketinggalan) object detection!. Lebih hebatnya lagi, metode deteksi objeknya memakai deep learning! (Sayangnya, hanya menggunakan tensorflow).

Tidak hanya memberikan spesifikasi hardware, developer Duckietown juga menyediakan software untuk simulasi. Seperti tutorial pada segmen pertama, simulasi Duckietown juga berbasis ROS.

Miscellaneous AI

An Introduction to LIDAR: The Key Self-Driving Car Sensor

Dipilih oleh : Priscilla Indira Osa
Sumber : https://news.voyage.auto/an-introduction-to-lidar-the-key-self-driving-car-sensor-a7e405590cff

Gambar 4.1. Visualisasi object detection menggunakan data LIDAR

Bagi yang suka mengikuti informasi mengenai autonomous driving, pasti pernah mendengar sensor yang bernama LIDAR (Light Detection and Ranging). Sensor yang biasa terlihat dipasang diatas atap mobil ini merupakan sensor yang berperan penting dalam bidang autonomous driving.

Artikel pertama Miscellaneous AI kali ini menjelaskan lebih detail mengenai LIDAR, dimulai dari keunggulan, cara kerja, sejarah sampai alasan kenapa sensor ini dipakai untuk Self-Driving Cars.

What role will AI play in the cockpit of the future?

Dipilih oleh : Priscilla Indira Osa
Sumber : https://www.automotiveworld.com/articles/what-role-will-ai-play-in-the-cockpit-of-the-future/

Gambar 4.2. contoh Automotive AI dari Affectiva
Sumber gambar :
https://www.affectiva.com/product/affectiva-automotive-ai-for-driver-monitoring-solutions/

Peran AI dalam bidang autonomous driving tidak hanya sebatas mendeteksi lingkungan di luar kendaraan dan membuat keputusan untuk kendaraan, AI juga akan digunakan untuk membantu pengemudi dan penumpang mendapatkan lingkungan kabin yang aman dan nyaman.

Sebuah perusahaan bernama Affectiva mengembangkan Emotion AI yang mengukur ekspresi wajah dan menganalisa suara. Dari data-data tersebut, Emotion AI akan mendeteksi status emosi dan kesadaran dari pengemudi dan penumpang. Pada level automasi sampai dengan level 4 dimana pengemudi masih dibutuhkan, sistem ini berguna untuk mendeteksi keadaan pengemudi dan meningkatkan keamanan mengemudi. Jika level 5 automasi berhasil tercapai di masa depan, sistem ini akan digunakan untuk meningkatkan user experience (UX) dan meningkatkan kenyamanan penumpang.

Interesting Tweet

Dank Memes, Anyone?

Dipilih oleh: Fahri Ali Rahman
Sumber: https://twitter.com/chipro/status/1201927259042377728

Akhir-akhir ini, Symbolism (Symbolic AI) dan Connectionism (Neural Network) kembali ramai diperdebatkan oleh para pakar AI tentang manakah yang lebih powerful. Tokoh pengikut aliran symbolism yang terkenal adalah Gary Marcus, sedangkan tokoh utama connectionism adalah Yann LeCun.

Twit diatas menunjukkan komunitas machine learning yang tak henti-hentinya memperdebatkan hal yang remeh. Chip Huyen yang bekerja di NVIDIA ini ternyata kurang tertarik dengan perdebatan tersebut dan menyatakan kenapa semuanya tidak bersatu dan membuat meme saja?

Artificial Gorilla Intelligence

Dipilih oleh: Fahri Ali Rahman
Sumber: https://twitter.com/ylecun/status/1204038764122632193

Twit selanjutnya adalah berasal dari Yann LeCun, sang peraih Turing Award tahun 2018. Kali ini LeCun mengomentari paradigma Artificial Intelligence. Menurutnya, istilah Artificial General Intelligence (AGI) tidak akurat, karena memang tidak ada kecerdasan yang benar-benar general.

Menurutnya, lebih konkrit untuk mendefinisikan level intelligence berdasarkan level species, misalnya Artificial Rat-level Intelligence, Artificial Cat-level Intelligence, dst. So, menurut LeCun, istilah AGI yang paling masuk akal adalah Artificial {Gerbil, Goose, Girrafe, Gibbon, Gorilla}-level Intelligence.

Demikianlah ulasan singkat kami tentang apa saja yang terjadi di industri AI selama sebulan belakangan. Simak terus Nodeflux Monthly AI Review untuk informasi terbaru seputar industri AI dan ekosistemnya!

--

--