문득 상상해본 적이 있을지 모르겠다. “만약 나와 똑같이 생각하고, 똑같은 선택을 하는 또 다른 내가 있다면 어떨까?” 분신처럼 생각을 공유할 수 있는 존재가 있다면, 일이나 작업이 훨씬 수월해질 거라는 기대감이 들기 마련이다. 바로 이런 상상이 이제는 단순한 공상이 아니라, 점차 현실에 가까워지고 있다는 소식이 전해지고 있다. 구글과 스탠퍼드대학교 연구팀이 개발했다는 ‘클론 AI’ 기술이 그 주인공이다.
이 클론 AI의 핵심은 불과 2시간 남짓 진행되는 면접(대화)만으로, 해당 인물이 가진 생각과 가치관, 행동 양식을 높은 정확도로 재현한다는 점이다. 연구팀에 따르면, 이렇게 만들어진 AI가 실제 주인의 반응을 최대 85%까지 흉내 낼 수 있다는 결과가 나왔다고 한다. 단순히 말투만 따라 하는 것을 넘어, “이 사람이면 이렇게 판단할 것 같다”라는 예측까지 해내는 셈이다. 듣기만 해도 소름 돋으면서도, 동시에 궁금증을 자아내는 기술이다.
물론 이 기술을 사용해본 사람들은 아직 많지 않다. 하지만 연구 내용을 들여다보면, 마치 “내가 두 명이 되었다면?” 하는 상상을 실현한 듯 보인다. 이번 연구는 1052명의 참가자를 대상으로 실시되었다고 한다. 연구팀은 각각의 참가자와 2시간 정도 면접을 진행하면서, 참가자의 인생 이야기와 가치관, 그리고 사회문제에 대한 의견 등을 꼼꼼하게 물어보았다. “사람은 각기 다른 고민과 삶의 배경을 갖고 있다. 설령 연령, 직업이 비슷해도 내면의 우선순위는 얼마든지 다를 수 있다”는 것이 연구팀의 설명이었다.
이렇게 개인마다 미묘하게 다른 ‘뉘앙스’를 딱딱한 설문지나 수치로는 모두 담아내기 어려울 수도 있다. 그래서 연구자들은 직접 대화라는 방식을 택했다. 마치 길고 긴 인터뷰를 통해 상대방을 이해해보는 것처럼, 사람의 숨은 생각을 세밀하게 파악하기 위해 적극적인 질문을 던진 것이다. 그 과정에서 연구팀이 특히 주목했던 부분은, 참가자가 “무엇을 가장 소중히 여기는가”였다. 이를 통해, 그 사람의 가장 중요한 가치관이 무엇인지, 그리고 결정을 내릴 때 어떤 원리에 따라 움직이는지를 포착해냈다고 한다.
이렇게 수집된 데이터를 토대로, 클론 AI가 만들어졌다. 한마디로, ‘참가자가 직접 가르쳐준 자기만의 규칙들’을 바탕으로 학습한 AI라고 볼 수 있다. 연구팀은 곧바로 그 정확도를 검증하기 위해 여러 테스트와 게임을 시행했다. 일명 ‘사회적 태도’를 평가하는 종합적 사회조사, 성격 특성을 가늠해보는 빅파이브 성격 평가, 그리고 독재자 게임이나 신뢰 게임 같은 경제학 실험도 진행했다. 실제 사람과 그 사람의 클론 AI 모두에게 똑같이 문제를 제시하고, 반응이 얼마나 비슷하게 나타나는지 살펴본 것이다.
결론부터 말하자면, 일치도가 상당히 놀라웠다. 전반적인 성격이나 사회적 태도와 관련된 항목에서, 실제 참가자와 클론 AI의 답변이 최고 85%까지 동일했다는 것이다. 이것은 보통 “근접하다”라고 넘어갈 수준이 아니라, “정말로 비슷하다”라는 표현이 더 어울릴 정도의 결과였다. 하지만 모든 항목이 퍼펙트하게 일치하는 건 아니었다. 특히 경제 게임과 같은 ‘금전적 의사결정’이 필요한 문제에서는 정확도가 조금 떨어졌다고 한다. 연구팀은 이를 두고, “AI가 사람들의 복잡한 상호작용이나 미묘한 문맥을 모두 이해하기에는 아직 어려움이 있다”고 설명했다. 다시 말해, 흥미로운 인간관계나 사회적 상황에 대한 이해도가 완벽하지는 않다는 것이다.
이렇게 사람의 인격을 거의 그대로 복제한 클론 AI를 어디에 활용할 수 있을까?
혹시 이 기술을 악용해서, 본인 몰래 AI를 만든 다음 다른 사람으로 위장해 활동하게 하려는 음모가 있지 않을까 하는 의심도 들 수 있다. 실제로 최근 몇 년간 딥페이크 기술 악용 사례가 잇따르는 걸 보면, 충분히 우려할 만한 부분이다.
연구팀도 이러한 위험성을 모르는 것은 아니라고 한다. 기술이 발전할수록, 거꾸로 그것을 악용하려는 시도도 늘어난다는 사실을 경계하는 건 당연하다. 그러나 정작 연구팀이 강조하는 것은 “이 기술이 지금까지 윤리나 비용 문제 때문에 진행하기 어려웠던 사회·경제 실험을 더 안전하고 폭넓게 해볼 수 있게 해줄 것”이라는 점이다. 예를 들어, 어떤 새로운 정책을 시도하거나 새로운 제품을 시장에 내놓기 전에, 클론 AI 집단을 통해 사람들의 반응과 행동 양식을 미리 예측해볼 수 있다는 것이다.
연구자들의 설명에 따르면, 이 AI들은 “쌍둥이 실험군” 혹은 “가상의 실험 패널”로서 작동하게 된다. 실제 사람에게 직접 적용하기 어려운 자극(정책, 광고, 가격 등)을 가상으로 적용한 다음, 클론 AI가 어떻게 행동할지 관찰하면, 그 결과를 미리 가늠해볼 수 있다는 구상이다. 사람이나 기업 입장에선, 비용과 윤리적 부담을 줄이면서도, 훨씬 세밀한 전략을 수립하는 길이 열릴 수 있다.
물론 그 과정에서 “이 기술이 정말로 실제 사람들의 의사결정 방식을 대표할 수 있나?”라는 의문이 남는다. 경제 게임에서 상대적으로 낮은 정확도가 나온 것처럼, 클론 AI가 놓치는 부분이 있을 수 있기 때문이다. 연구팀은 이 부분을 개선하기 위해, 더 많은 데이터와 더 오랜 학습 시간을 확보하는 방안을 고민 중이라고 한다. 불과 2시간 남짓한 대화만으로도 85%라는 수치를 찍었다면, 그보다 긴 대화나 더 다채로운 질문을 추가한다면 정확도가 더욱 올라갈 가능성이 높다는 의미다.
이번 연구의 주요 저자인 스탠퍼드대학교 박사과정생 준 손 팍(Jun Sung Park)은 “자신과 똑같은 작은 분신이 여러 명 있어서, 자신이 내릴 것 같은 결정을 대신 내려주는 미래가 결국 오리라고 생각합니다”라고 밝히며, 머지않아 누구나 이 기술을 접하게 될 가능성을 시사했다. 상상만 하면 꽤 흥미로운 장면들이 떠오른다. 예컨대 회사 대표가 수십 명의 ‘자기 클론 AI’를 만들어서 미팅을 시뮬레이션해보고, 어떤 사안에 가장 좋은 방안을 내놓는지 먼저 확인해볼 수도 있다. 혹은 개인도 스스로의 ‘디지털 분신’에게 여러 가지 선택지를 던져서, 그 반응을 참고해 결정을 내릴 수도 있다.
물론 이것이 마냥 장밋빛 미래만 약속하는 건 아니다. 클론 AI가 조금 더 정교해지면, “나도 모르는 사이에 내 AI가 남에게 조종당하고 있다”는 끔찍한 시나리오도 가능해질 수 있다. 내 목소리, 내 말투, 내 생각을 그대로 복사해 만든 AI가 무단으로 다른 일을 벌인다면, 법적·윤리적으로는 또 어떻게 대처해야 할까. 이런 질문은 앞으로 반드시 다뤄져야 하며, 실제로 연구팀 역시 이 문제에 대한 대비책을 고민하고 있다고 한다.
이번 연구는 아직 정식으로 학술지에 게재되지 않은 미사독본(preprint) 상태이지만, 내용이 워낙 파격적이라 일찍부터 주목받고 있다고 한다. 현재는 2024년 11월 15일 기준으로 ‘arXiv’에 공개되어 있으니, 관심 있는 이들은 직접 살펴볼 수도 있다. 그야말로 기술이 빠르게 발전하고 있는 시대, “나를 대신해줄 수 있는 나”라는 꿈같은 발상이 얼마든지 현실이 될 수 있음을 보여주는 흥미로운 사례다.
어쩌면 가까운 미래에는, 머릿속에 떠오르는 고민을 나와 똑같은 AI에게 툭 던져놓고, 대신 답을 받아보는 일이 흔해질지도 모르겠다. 영화에서나 보던 ‘복제 인간’ 수준은 아니더라도, “내가 하면 똑같이 할” 디지털 분신이 있다면 꽤 편리하지 않을까. 물론, 편리함 뒤에는 언제나 윤리와 책임의 문제, 그리고 기술 남용에 대한 위험이 숨어 있다. 이런 점들을 고려하면서도, 우리는 새로운 AI 기술이 보여줄 가능성에 대해 큰 기대와 궁금증을 가져볼 만하다. 아직은 낯설고 기묘해 보이지만, 언젠가는 일상 한구석에 자리 잡을지도 모를 일이니까.