가격비교와 가격최적화에 대하여…

Abraham
SSG TECH BLOG
Published in
7 min readFeb 11, 2022

안녕하세요, SSG 예측모델개발자 권병원입니다.

가격으로 경쟁하는 e-commerce의 가격 결정모형을 만들고 있는 저의 생각을 공유해 봅니다.

우리나라의 가격비교 서비스는 실질적으로 네이버쇼핑검색이 지배적 사업자라고 봐도 무방하다고 생각합니다.

이런 지위는 10년전 부터 지금까지 한번도 흔들린 적이 없는 철옹성과도 같은 위치 이지요. 그 긴 시간동안 네이버도 쉬지 않고 개선, 개발을 통해 서비스의 질을 고도화 시켜왔고, 그렇게 아무도 따라오지 못한 세계최고 수준의 쇼핑 검색 서비스를 완성해 왔습니다.

최근의 네이버는, e-commerce 마켓에서 심판이자 선수입니다. 네이버페이를 중심으로한 스마트스토어 매출이 국내 e-commerce 전체 1등을 달성했고, 앞으로도 이런 위치가 꽤나 곤고하게 유지될 것 같습니다.

2020 국내 이커머스 시장 점유율

국내 커머스 사업자 중에, 네이버 쇼핑검색에 자사의 가격정보를 제공하지 않는 사업자는 거의 없습니다. 물론 저희 SSG도 네이버쇼핑에 가격 비교정보를 제공하고 있습니다.

지마켓이 네이버가격비교에 자사의 상품-가격 정보를 제공하지 않겠다고 했다가 1년을 견디지 못하고 (제 기억으로는 그렇습니다) 네이버에게 가격정보를 제공한 이후 (이게 아마 2012~3년 정도였던걸로 기억하고 있습니다. 시기는 헷갈릴 수 있지만, 이런 일이 있었던 것은 팩트 입니다)

쿠팡도 2018년 11월에 네이버쇼핑에 자사 상품 가격을 전송하면서, 국내 e-commerce 사업자 중, 네이버에 가격비교를 전송하지 않는 업체를 찾는 것이 더 힘들정도가 되었죠.

(쿠팡이 마지막까지 네이버 밖에서 자립을 이루어 내기를 바랬던 1인으로서…아쉽긴 합니다 ㅎㅎ)

네이버 쇼핑 가격비교

우리나라는 이렇게 가격비교가 상품별로 촘촘하게 되어 있고, 거의 모든 판매사이트의 가격이 네이버를 중심으로 경쟁되고 있기 때문에, 상품별 가격에 엄청나게 민감한 시장입니다.

[예시] 네이버 가격비교

이렇게…한 상품을 두고 여러 사이트의 가격을 손쉽게 비교할 수 있게 펼쳐놓으니 가격경쟁이 치열할 수 밖에 없습니다.

고객은 네이버에서 검색만 하면 최저가를 찾을 수 있으니 좋고, 네이버는 온라인쇼핑 고객을 모두 자사 사이트를 통해서 서비스되도록 만들어 놓았으니 좋고.

가격 경쟁이 얼마나 치열한지는…차마 말을 다 하지 못하지만, 10원 단위까지 쪼개가며 시간단위로 경쟁하고 있다고 보셔도 됩니다. 우리나라 진짜 온라인 쇼핑하기 좋은 나라 입니다.

SSG는 이런 경쟁상황에 대응하기 위해서 Dynamic Pricing Model을 운영하고 있습니다. 하지만 SSG의 Dynamic Pricing은 여느 오픈마켓의 알고리즘들과는 사뭇 다른 방향성을 가지고 있습니다. 이는 SSG의 모태가 전통의 유통강자 신세계이기 때문에 일어나는 여러가지 추가적인 제약조건들이 있기 때문입니다.

SSG는 “무조건 1등” 을 지향하지 않습니다. 이미 그런 알고리즘을 도입하고 있는 기존의 경쟁자들과 출혈경쟁에 동참하는 것이 회사의 장기적 발전에 도움이 되지 않는다고 생각하고 있기 때문인데요 (고객 입장에서도…모든 커머스 사업자들이 출혈경쟁만 반복하는 것이 절대로 장기적 효익 극대화에 도움이 되지 않습니다. What if all of them go bankrupt?)

그래서 “적절한 경쟁” 과 “적절한 수익” 과 “적절한 장기 안정성”을 목표로 모델을 학습합니다. Target Function을 잘 짜야 하는 것이지요.

저희가 운영중인 모델이 여러가지 있지만, 오늘은 두가지 모델을 소개해보고, 각각 어떤 특징들(운영 과정에서 나타난 현상들)도 가볍게 살펴보도록 하겠습니다.

  1. MCMC FrameWork (Markov Chain Monte Carlo algorithm)

저희 Leadership 중에 Bayesian 통계를 하신 분이 계신데… “이건 베이지안 모델이라고 이름을 지어야지!!” 라고 하셨던 모델입니다.

상품들의 히스토리 데이터를 기반으로, 트레이닝을 합니다.

Target Function을 아래와 같이 정의하고

트레이닝 데이터를 기반으로 MCMC Sampling을 반복하여 Accepted Distribution을 추정합니다.

이렇게 각 상품별로 생성된 Dist. 의 대푯값을 그 상품의 적정 판매가로 산정합니다.

2. DDPG(Deep Deterministic Policy Gradient)

기존의 강화학습(Reinforcement Learning)은 “초기 실험탐색”과 Epsilon-Greedy 탐색을 주기적으로 수행하는 “현실적인” 문제점이 있습니다. 좀 더 쉽게 말하면, 상품별 적정한 판매가를 학습하기 위해서 어느날은 갑자기 엄청나게 과도한 할인을 하고, 또 어떤날은 아예 할인을 안하는 등 학습 초기의 탐색 폭이 너무 넓은 문제가 있는 것이지요. 또한, 학습 과정 중간중간에 자신이 가보지 않은 길을 확인하기 위해 가끔 엉뚱하게 동떨어진 판매가를 한번씩 제시하는 경향이 있습니다.

하지만, e-commerce 의 “과거영업데이터”를 활용하여 Offline-Reinforcement Learning을 수행하면 이런 RL의 단점을 거의 상쇄시키면서, 안정적인 판매가 변화를 통한 학습을 할 수 있게 됩니다.

Offline-RL의 핵심은 VAE Pretraining에 있습니다.

일반적으로 이미지 복원, 상태값 복원에 많이 사용되는 알고리즘인데, 이 VAE 모델에 트레이닝 데이터 셋을 넣어, “과거에 일어나지 않았던 일들” 까지 복원시켜 트레이닝 데이터 셋을 풍성하게 만들죠.

그 뒤로는 Actor-Critic 모델을 따릅니다. Actor Network을 통해서 Next Action을 생성하고, Critic Network을 통해서 Next Action의 Target Function 을 달성할 수 있는지를 검증합니다. 이렇게 해서 통과된 상품별 판매가를 Deploy 하는 것이지요.

이렇게 하나의 통계기반 모델과, 하나의 RL 기반 모델을 간략하게 살펴 보았습니다.

이 외에도 여러 모델들이 있지만…대표적인 것들을 소개해 드렸는데요, 이런 모델들을 적용하면 어떻게 되느냐가 궁금하실 것 같습니다.

ML을 개발하시는 분들이 궁극적으로 생각해야 하는 ML Fly Wheel 입니다. 이렇게 가격을 Dynamic 하게 자동 조정하는 시스템을 확대하면 확대 할 수록 모델들의 정교함과 성능개선은 더욱 빛을 발하게 되어 있습니다.

저희는, 오늘 소개해드린 모델들 뿐만 아니라, 여러가지 새로운 Pricing Model을 Search하고, Apply 하고, Validate 하고 있습니다.

SSG의 Dynamic Pricing Models가 기존의 Heuristic Pricing System 보다 훨씬 나은가? 오늘 포스팅의 마지막 질문을 던져 봅니다.

“유의미한 개선이 있다” 정도로 말씀드릴 수 있을 것 같습니다.

숫자는 변화하고 있고, SSG는 성장하고 있습니다.

--

--