Deep Learning UB 2021 — summer school : Day#3

2B | +1% better 2day | ai.007

--

Day#3 : Lecture#2 Өнөөдрийн лекцийг АндГлобалын Хиймэл оюун хариуцсан захирал Отгонбаяр тайлбарласан. Сэдэв нь Машин сургалтын үндэс бөгөөд дотроо 1. Машин сургалт, 2. Шугаман регресс, 3. Оновчлол, 4. Ложистик регресс гэсэн хэсгүүдтэй байсан. (өмнөх өдрийн тэмдэглэл 👇👇👇)

Лекц + Семинар гээд 1 1 өдрөөр ээлжилж байгаа шүү

1. Машин сургалт

Машин сургалтыг бол ерөнхийд нь 3 хуваагаад байгаам. (энд бичсэн шиг) Бидний мэдэх Чимэгэ бол Багштай (Supervised), Муур болон Нохойны зургыг ялгадаг апп нтр бол (Unsupervised), Шатар, Go, Dota нтр тоголдог нь OpenAI 5 бол Шагналтай (Reinforcement) -ийн зарим жишээ юм.

Гэснээс буруу юм хийвэл шийтгэдэг арга байдаг юм болов уу? :D

2. Шугаман регресс

Хамгийн чухал нь гэсэн шүү. Энийг л сайн ойлговол Машин сургалт easy-peasy. Тухайн 3-н цэгийн хувьд хамгийн сайн шулуун функцыг олох.

Мэдээж 3-уланг нь дайрсан шулуун байхгүй учир “хамгийн сайн” буюу зайны хувьд бага байх тэр шулууныг олж байгаа. (Euclidean distance!)

d

Энэ хэсэгт бодолт хийхийн тулд Евклидийн зайн квадрат ашиглаж боддог. Тэгснээр гөлгөр буюу уламжлал авч болохуйц болдог. #гэнээ

Тухайн бодолтыг илүү хялбараар бодмоор байвал Уламжлал ашиглана. Эсвэл Вектор, Матриц ашиглаж бодох боломжтой. Гүнзгий сургалтын хувьд энэ МАТРИЦ маш чухал байдаг. GPU дээр тооцоолол хийхэд ч бас.

За тэгээд энэ дээрээ нилээн тайлбарласан шүү. Би зүгээр илээд л орхилоо.

3. Оновчлол

Алгебрийн аргаар ЯГ ТАГ хэд байхыг боддог бол амьдрал дээр ойролцоогоор мэдэх нь хангалттай байх үе бий. Жишээ нь маргааш хэдэн цагт, хэдэн минутад, хэр их бороо орно гэдгийг мэдэхээс илүү бороо ОРНО гэдгийг л мэдэх нь чухал байж болно.

За тэгээд Ойролцоо бодолт, Хамгийн их буурах чиглэл, Стандартчлалын талаар ярьсаан.
— Ойролцоо бодолт : хэдэн ч мөр байсан сайн (efficient) ажилладаг.
— Хамгийн их буурах чиглэл : minimum-г олохын тулд алхам алхмаар явдаг
— Стандартчлал : Тооцоолол хийхэд амар болгохын тулд хэрэглэдэг (0→1)

Сургалтыг хийхдээ нийт өгөгдлийг train болон test гэж 2 хувааж (ихэвчлэн 80/20).
— bias : зөвхөн тухайн өгөгдөл дээрээ сайн ажиллах
— variance : өргөтгөх боломж? (train-80% өгөгдлийг солиод сургахад адил)

4. Ложистик регресс

Ангилах дээр Шугаман регрессээс илүү сайн ажилладаг тул ашигладаг. Жишээ нь Муур мөн/биш гэж ангилах. Зөвхөн 2 хон л хариу бий [0, 1].

За тэгээд бодоорой :) хамгийн доод талынх бага байх ёстой

За бас SoftMax талаар ярьсан шүү. Өмнөх Ложистик шиг 2хон төрөл биш олон төрлийн юмыг ангилах болоод явчихвал [1,2,3…N] хэрэглэдэг байна.

Multi-Class Neural Networks: Softmax

Гүэ тэгээд 10-аад жил тоо бодоогүй байж байгаад гэнэт матриц, уламжлал нтр гээд сонссон чинь толгой гашлаад ч байх шиг, гацаад ч байх шиг…

that was a lot

Маргааш хурдан болоосой. Ядаж код бичвэл илүү дээр байхаа :D

--

--

Билигүн.Б (Програмч аав)
2B +1% better 2day

I am who I am... || өөрийнхөөрөө байхаас ичихгүй