Lee LinRepVGG:reparameterization取分支訓練與VGG推論優勢利用ResNet多分支以及VGG無分支各自的優勢,在訓練時加入類似ResNet的分支設計,並利用re-parameterization將模型分支結合,使之在推論時像VGG一樣沒有分支以簡化模型。Aug 11, 2022Aug 11, 2022
Lee LinFaster RCNN:快還要更快,用CNN提region proposals!Faster RCNN中設計RPN讓region proposals的提出也能利用神經網絡,整合RPN與Fast RCNN使物體偵測作業耗費的運算時間近一步下降。Aug 4, 2022Aug 4, 2022
Lee LinFPN:結合高層語意概念與低層空間資訊CNN在特性上沒有特別針對尺度不變性進行設計,過去多需使用額外技術協助處理物體大小不依的問題。FPN利用CNN本身的金字塔結構,結合上層特徵概念與下層空間細節,進而解決尺度議題。Aug 1, 2022Aug 1, 2022
Lee LinDeconvNet:鏡射ConvNet建立segmentation mapDeconvNet堆疊數層unpooling與deconvolution layers,讓網絡學習如何從影像特徵重建segmentation map。DeconvNet也結合region proposals處理物體尺度議題。Jul 28, 2022Jul 28, 2022
Lee LinFCN:只有convolution layer的語意分割先驅FCN將fully-connected layer轉換為等義的convolution layer,使模型能夠接收完整影像。作者另外提出upsampling方法並結合skip connection使最終預測層大小能與輸入影像大小相同,對每個影像位置做物體分類。Jul 25, 2022Jul 25, 2022
Lee LinDeformable ConvNet:解除convolution空間限制Deformable ConvNet讓網絡能夠學習如何調整convolution及RoI pooling的取樣位置,藉此更好地應對影像中的物體形變。Jul 21, 2022Jul 21, 2022
Lee LinSENet:重新加權channel activations強調重要特徵SENet藉由squeeze與excitation兩個步驟學習channels間的關係,重新調整反應以保留重要資訊並抑制無關資訊。Jul 18, 2022Jul 18, 2022
Lee LinFast RCNNFast RCNN有別於RCNN和SPPnet,將分類與調整物體圈選位置的程序都融入模型中,並提出RoI pooling layer、hierarchical sampling、multi-task loss等方法使得模型能夠一體化訓練,不再需要耗費大量時間分階段訓練。Jul 14, 2022Jul 14, 2022
Lee LinSPPnet:所有影像大小都來者不拒SPPnet處理CNN模型只能接受固定影像大小的問題,設計SPP layer讓各種輸入大小的feature map都能轉換為固定長度的特徵向量,以令後續FC layer能夠正常運算取得結果。Jul 11, 2022Jul 11, 2022
Lee LinViT:將Transformer移植到電腦視覺領域ViT將使用在自然語言處理的Transformer帶進電腦視覺領域,以大型資料庫訓練的ViT在影像分類作業上勝過複雜度相當的ResNet。Jul 8, 2022Jul 8, 2022