생성형AI 시대, 기업의 방향성은?
생성형AI가 바꾼 기업의 변화와 대응방법에 대해 전망해봅니다.
이 글은 유밥(Ubob)에서 진행한 <제14회 스마트러닝 인사이트 포럼 2024> 강연을 듣고 핵심 내용과 다른 리포트들을 조사하여 작성한 글입니다.
우리 일상에서 생성형AI가 얼마나 큰 영향을 미치고 있는지 알아보고, 인간으로서 근로자로서 어떤 방향으로 나아가야 하는지 생각해봅시다.
이미 일상이 된 생성형AI
여러분, 챗GPT가 무엇인지 아시나요? 아마 모르시는 분이 없을 것 같습니다. 챗GPT란 Open AI가 만든 딥러닝 프로그램으로 ‘언어를 만들도록 만들어진 인공지능’, 즉 ‘대화형 인공지능 챗봇’을 말합니다. 사용자가 채팅하듯 질문을 입력하면 챗GPT는 학습한 데이터를 기반으로 사람처럼 문장을 만들어 대답을 해주는데요. 마치 진짜 사람과 대화하듯 자연스럽게 대화를 나누고, 단순한 정보 전달뿐만 아니라 최근에는 에세이, 소설과 같은 창작물도 생성한다는 점에서 더욱 이슈가 되고 있습니다.
챗GPT는 출시 이후 꾸준한 주목을 받고 있는데요. IT 업계뿐만 아니라 교육계, 대학가 등 다양한 분야에서 활용이 되고 있습니다. 챗GPT 사용 실태조사에 따르면 10명 중 8명이 “사용한 적 있음(83.3%)”이라고 응답했습니다. 챗GPT와 같은 생성형AI가 앞으로 영향을 미칠 것으로 보는지에 대한 질문에는 74.8%가 “매우 큰 영향을 미칠 것으로 예상됨”이라고 대답했습니다. 이처럼 다양한 산업군과 대학가에서 수많은 사람들에게 생성형AI가 사용되고 있음을 알 수 있습니다.
앞서 챗GPT가 에세이, 소설과 같은 창작물도 생성할 수 있다고 말씀 드렸는데요. 뉴욕타임스에 따르면 캐나다 소설가 겸 언론인 스티븐 마쉬가 AI를 이용해 ‘The Death of the Author’라는 제목의 미스터리 중편소설을 집필했다고 합니다. 인간의 고유한 영역인 줄만 알았던 창작물도 생성형AI로 인해 가능해지면서 업무와 일상에 도움이 되는 동시에, 유의해야 하는 점도 생기고 있습니다.
생성형AI, 유의해야 할 점 3가지
<Ubob 스마트러닝 인사이트 포럼 2024>에서는 생성형AI가 가진 문제점들을 언급했습니다. (1)서비스 관련 보안 유출, (2)데이터 편향성, (3)저작권 문제인데요. 하나씩 그 사례를 살펴보겠습니다.
(1)서비스 관련 보안 유출
사용자가 생성형AI에 입력한 정보는 데이터로 남아 서버에 저장됩니다. 이 데이터들은 운영사의 보안사고, 우회 질문, AI 모델이나 서비스에 대한 해킹 공격 등으로 인해 사용자가 입력한 정보가 유출될 수 있는데요.
2023년 3월, 이탈리아에서는 GDPR(General Data Protection Regulation, ER의 일반 개인정보보호법) 위반을 이유로 챗GPT 접속을 차단 했습니다. 챗GPT가 대규모 학습 데이터를 수집하는 과정의 적법성, 데이터 처리 근거와 사용자 연령 확인 절차가 없다는 이유였습니다. 이탈리아 데이터 보호 당국은 Open AI에게 ‘모든 사용자가 데이터 처리를 거부할 권리가 있음을 알릴 것’을 포함한 구체적인 변경사항을 통지했고, Open AI는 이를 받아들여 변경하였습니다.
(2)데이터 편향성
최근 보고서에 따르면 정치적 중립을 표방하는 여러 생성형AI 서비스가 실제로는 특정한 정치 성향을 띠고 있다는 분석이 나왔습니다. 영국 이스트앵글리아대학 연구진은 챗GPT를 대상으로 문항 62가지를 질문했습니다. 챗GPT는 ‘중립’을 선택할 수 없이 무조건 찬성 또는 반대로 답변해야 했습니다. 설문은 두 가지 방식으로 진행됐습니다. 처음에는 챗GPT에게 미국 또는 영국 등 국가에 거주하는 진보 성향의 인간이 답변한 것처럼 흉내 내달라고 요청했고, 또 다른 설문에는 아무런 조작 없이 그대로 답변을 요청했습니다. 두 설문조사를 각각 100회 진행 후 분석한 결과 챗GPT는 미국 민주당과 영국 노동당을 지지하는 진보 성향을 갖춘 것으로 드러났습니다. 개별 AI 서비스마다 정치 성향도 조금씩 다른 것으로 나타났습니다. 구글이 개발한 ‘버트(BERT)’는 중도 보수 성향을 드러냈고 페이스북의 ‘라마(LLaMA)’는 보수 성향을 띠고 있었습니다.
연구진은 이처럼 AI가 특정 정치 성향을 띠는 것은 AI가 학습하는 자료에 이미 정치적 성향이 반영되었기 때문이라고 지적했습니다. 생성형AI들은 수집한 텍스트로 학습하기 때문에 정치 성향을 아예 배제하는 것은 어렵다고 언급 했습니다. 이 외에도 생성형AI가 성소수자를 혐오하는 답변을 내놓거나 인종차별을 하는 등 ‘편향성’에 대한 다양한 사례가 나오고 있습니다.
(3)저작권 문제
생성형AI가 만든 콘텐츠들이 쏟아지면서 관련한 저작권 여부는 어떻게 판단해야 하는지에 대한 관심이 뜨겁습니다. AI가 만든 콘텐츠를 누가 저작권을 갖느냐에 대한 재밌는 사례로, 미국의 사례를 말씀 드리겠습니다. 최근 미국에서는 AI를 통해 얻은 콘텐츠를 ‘선택’ 하는 것에 대해 저작권을 인정해주고 있습니다. 인간이 AI에서 생성된 자료를 충분히 창의적인 방법으로 선택하거나 배열한 경우, 결과물은 전체적으로 인간의 저작물이 될 수 있는 것으로 판단 내렸습니다. 실제로 미 저작권청(USCO)은 크리스 카슈타노바에 전달한 서한에서 그가 쓴 글, 그리고 그가 행한 이미지의 선택과 배치를 저작권이 인정된다고 통보하였습니다. 그러나 AI가 생성한 이미지 자체에 대해서는 저작권을 인정하지 않았습니다.
어떻게 올바르게 사용할 수 있을까?
국내에서는 생성형AI에 대한 다양한 규제가 이어지고 있는데요. 행정안전부에서는 ‘챗GPT 활용방법 및 주의사항 안내서’를 배포하여 국민들이 생성형AI를 올바르게 활용할 수 있도록 안내했습니다. 행정안전부는 이 안내서를 통해 챗GPT의 문제점과 한계를 강조하며, 의사결정이 완료되지 않은 비공개 정보를 입력하지 않도록 주의하고, 개인정보를 입력하지 않도록 주의하는 등 구체적인 가이드라인을 제시했습니다.
AI를 사용 시 지식을 그대로 받아들이지 않고 ‘팩트 체크’ 하는 능력이 필요합니다. 챗GPT와 같은 생성형AI의 확산으로 인간의 업무 중 많은 것들이 대체 되고 있는데요. 챗GPT는 언어모델 기반으로 대화를 ‘생성’하기 때문에 그 특성상 답변이 거짓 정보일 가능성이 있으므로 항상 검증과 확인이 필요합니다. 좋은 인풋을 주어야 좋은 아웃풋이 나온다는 점을 기억하시길 바랍니다. 인간으로서 윤리에 어긋나지 않는 ‘현명한 질문’을 해야 합니다.
Open AI 대표 샘 알트만은 “지금 당장 중요한 일을 챗GPT에 의존하는 것은 실수이며, 현재 수준은 미리보기인 셈이니 앞으로 견고함과 진실성 면에서 해야 할 일이 많다”라고 공식 발표한 바 있습니다. 이처럼 챗GPT의 무분별한 사용과 정보에 대한 의구심 없이 받아들이는 현상은 위험하므로 반드시 그 정보가 올바른지 팩트 체크하는 습관을 들여야 합니다.
AI가 바꾼 일하는 방식과 조직문화의 미래는?
1990년 중순 이후 인터넷은 문화와 상업에 막대한 영향을 미쳤습니다. 인터넷을 사용하던 시대를 ‘인터넷 시대’라고 일컬을 정도였죠. 하지만 현재는 ‘인터넷 시대’라고 부르는 사람은 없습니다. 마찬가지로 나중에는 ‘AI 시대’라는 말조차 쓰지 않을 것입니다. 이 말은 즉, AI가 완전히 일상 그 자체가 된다는 것입니다. MZ세대와 알파세대의 경우 인터넷강의를 보며 자란 세대이기 때문에 새로운 것을 받아들이는 것 자체가 비교적 익숙합니다. 생성형AI도 쉽게 습득할 수 있는 능력을 가지고 있는데요. 기업 안에서 MZ세대가 주요 세대층으로 자리잡으면서 AI를 잘 활용하는 사람과 못하는 사람의 혼용이 생기고 있습니다. 이 갭 차이에서 발생하는 협업 갈등을 해결하는 것은 기업의 큰 과제 중 하나입니다.
AI가 생성하는 콘텐츠를 무분별하게 신뢰하지 말고 우리 조직에 필요한 것은 무엇인지 취사 선택하는 능력(콘텐츠 큐레이션)이 중요합니다. 조직문화 관점에서는 갭 차이에서 발생하는 협업 문제를 받아들이고 시행착오를 기꺼이 받아들여 학습하는 문화로 만들어나가야 합니다.
마무리하면서
지금까지 챗GPT를 포함한 AI에 대해 알아보았으며, AI가 가진 여러 문제점들을 짚어보고, 올바르게 사용하는 방법, 그리고 AI가 바꾼 일하는 방식과 조직문화의 미래까지 살펴보았습니다.
이 글을 읽으시면서 어떤 생각이 드셨나요? 저는 개인적으로, AI가 이미 우리 일상에 많이 스며들었다는 것은 이미 잘 알고 있었지만 이번 <Ubob 스마트러닝 인사이트 포럼 2024>을 계기로 다시 한번 AI에 대해 생각해볼 수 있었던 시간이었습니다. 저는 실제로 업무를 하면서 챗GPT를 많이 사용하고 있는데요. 제가 느낀 바로는 챗GPT가 업무에 도움을 주는 건 사실이지만 챗GPT가 대답한 내용에 100% 신뢰가 들지 않았습니다. 그 이유는 챗GPT의 말에 깊이감을 느끼지 못했기 때문인데요. 결국엔 ‘AI가 사람을 완전히 대체할 수는 없겠구나’라는 생각이 듦과 동시에 ‘AI에게 대체되지 않기 위해선 인간 고유의 영역을 개발해야 겠다’라고 생각 했습니다.
커리어 코치이자 컬럼비아 대학 소속의 캐롤린 몬트로스는 아래와 같이 이야기 했습니다.
AI가 미칠 영향에 대해 불안감을 느끼는 건 당연합니다. 하지만 근로자들이 반드시 실존적 두려움을 느낄 필요는 없습니다. 사람들은 자신이 스스로 결정할 힘을 가지고 있기 때문입니다.
여러분들에겐 두 가지 선택지가 있습니다. AI 기술에 대해 불안해하거나, AI를 배우고 유리하게 사용하는 것입니다. 당신은 어떤 것을 선택하실 건가요? 새로운 기술이 인간을 대체할 것이라는 두려움 속에서 길을 찾고 싶다면 기계와 비교했을 때 노동력에서 인간이 지닌 고유한 가치를 먼저 인식하시길 바랍니다. 새로운 기술에 친숙해지고 그 두려움이 가라앉는다면 오히려 이러한 기술이 우리에게 큰 도움이 될 수도 있다는 점을 깨달으시길 바랍니다.