싸움을 말리는 AI가 나왔다고?
공동 창업자끼리 지분을 나눌 때, 이혼 과정에서 재산을 분배할 때, 룸메이트끼리 집안일을 어떻게 나눌지 정할 때. 사람 사이에 뭔가를 공정하게 나눠야 하는 상황은 생각보다 흔한데요, 이게 진짜 어렵거든요. 각자 "내가 더 기여했다"고 느끼고, 감정은 얽혀 있고, 누군가는 말을 잘 못 해서 손해 보기도 하고요. Mediator.ai라는 서비스는 여기에 게임 이론과 LLM을 결합해서 답을 내보겠다고 나섰어요. 단순히 "AI한테 물어봤더니 이렇게 나누래"가 아니라, 수학적으로 증명된 공정성 개념을 바닥에 깔고 거기에 대화형 AI를 얹은 구조라서 흥미롭게 볼 만해요.
내쉬 협상 해법이 뭐길래
핵심은 내쉬 협상 해법(Nash Bargaining Solution) 이라는 개념이에요. 이름이 낯설 수 있는데, 영화 "뷰티풀 마인드"의 그 존 내쉬가 맞아요. 노벨상을 받은 그 수학자요. 내쉬는 "두 사람이 협상할 때 어떤 결과가 공정한가"라는 질문에 수학적으로 답을 냈는데요, 간단히 말하면 각자가 협상 결렬 시 얻을 최소값을 넘어서는 이득을 곱했을 때 그 곱이 최대가 되는 지점 이 공정한 합의라고 봤어요.
이게 뭐냐면요, 예를 들어 A와 B가 100만 원을 나눠야 하는데 A는 협상 결렬 시 20만 원을 얻을 수 있고 B는 10만 원을 얻을 수 있다고 해봐요. 그럼 그냥 50:50으로 나누는 게 아니라, 각자의 기본값을 빼고 남는 이득이 균형을 이루는 지점을 찾는 거예요. 그래야 양쪽 다 "협상하길 잘했다"고 느끼거든요. 합 대신 곱을 최대화하는 이유는 한쪽이 너무 손해 보는 극단적인 분배를 자동으로 걸러내기 때문이에요. 0에 가까운 값이 하나라도 있으면 곱 전체가 확 줄어들거든요.
그럼 LLM은 왜 필요한가
수학 공식이 있으면 다 끝난 거 아니냐 싶은데, 현실은 훨씬 복잡해요. 사람들이 원하는 게 숫자로 딱 떨어지지 않거든요. "나는 주말에 쉬는 게 중요해", "반려동물은 내가 키우고 싶어", "이 회사는 내가 창업 아이디어를 냈으니까 지분을 더 가져야 해" 같은 주장들은 효용 함수로 바로 변환이 안 되죠.
Mediator.ai가 하는 일이 바로 이 간극을 메우는 거예요. LLM이 양쪽 당사자와 대화하면서 효용 함수를 추출 해요. 각자에게 "이게 얼마나 중요해요?", "이걸 포기하는 대신 저걸 받는다면 어때요?" 같은 질문을 던져서 선호도를 수치화하는 거죠. 그렇게 만든 효용 함수를 내쉬 해법에 넣으면 수학적으로 공정한 분배안이 나오고, 다시 LLM이 그 결과를 자연어로 설명해줘요. 결국 LLM은 번역기 역할을 하는 거예요. 인간의 모호한 선호를 수학 모델로, 다시 수학 결과를 인간의 말로.
기존 AI 중재 시도와 뭐가 다를까
요즘 LLM으로 상담이나 중재를 해주는 서비스는 많이 나왔어요. 그냥 GPT에 "우리 싸우고 있어, 누가 맞아?" 하고 물어보는 거랑 비슷한 방식이죠. 근데 그건 치명적인 문제가 있어요. LLM의 답은 재현성이 없고 검증도 안 돼요. 같은 질문을 다시 해도 다른 답이 나올 수 있고, 왜 그 답이 공정한지 설명도 애매해요. "GPT가 그렇게 말했으니까"는 이혼 협의서에 쓸 근거가 될 수 없잖아요.
Mediator.ai 방식은 결과에 대한 수학적 근거 가 있어요. "내쉬 곱을 최대화하는 해이기 때문에 공정하다"고 말할 수 있고, 효용 함수를 공개하면 같은 입력에서 같은 결과가 나와요. 이건 법적·금융적 분쟁처럼 설명 가능성이 중요한 영역에서 엄청난 차별점이에요. 비슷한 맥락에서 spliddit.org 같은 학술 기반 공정 분배 서비스가 예전부터 있었는데, 거기는 사용자가 직접 숫자로 선호도를 매겨야 해서 쓰기가 어려웠어요. LLM이 그 진입 장벽을 확 낮춘 거죠.
한국 개발자에게
이 서비스 자체도 재밌지만, 엔지니어 관점에서 배울 건 하이브리드 아키텍처의 설계 패턴 이에요. LLM은 비정형 입력을 정형 데이터로 바꾸고 결과를 다시 자연어로 풀어주는 인터페이스 레이어로 쓰고, 핵심 결정은 검증 가능한 알고리즘에 맡기는 구조요. 이게 요즘 "LLM + 고전 알고리즘" 하이브리드의 정석으로 자리잡고 있어요. 예를 들어 RAG에서 검색은 벡터 DB가 하고 응답만 LLM이 만드는 것, 에이전트가 툴 콜링으로 계산은 계산기에 맡기는 것 전부 같은 패턴이에요.
국내에서도 법률 테크, HR 테크, 핀테크 쪽에서 응용 여지가 많아요. 연봉 협상 시뮬레이션, 공동 창업자 지분 분배, 유산 상속 분쟁, 층간소음 합의 같은 국지적인 분쟁 해결 플랫폼을 만든다면 이 패턴이 그대로 적용돼요. 한국 법과 정서에 맞는 효용 함수 추출 프롬프트만 잘 설계하면 꽤 경쟁력 있는 서비스가 나올 수 있어요.
마무리
"LLM한테 물어보기"와 "검증 가능한 알고리즘으로 결정하기"를 영리하게 붙여놓으면 이런 서비스가 만들어져요. AI가 혼자 판단하는 게 아니라, 사람의 선호를 모델로 옮기는 중간 다리 역할을 한다는 점이 핵심이에요.
여러분은 AI 중재자가 내린 분배 결과를 받아들일 수 있을 것 같으세요? 어떤 상황에서는 써볼 만하고, 어떤 상황에서는 끝까지 사람이 결정해야 한다고 보시는지 의견 들어보고 싶어요.
🔗 출처: Hacker News
"비전공 직장인인데 반년 만에 수익 파이프라인을 여러 개 만들었습니다"
실제 수강생 후기- 비전공자도 6개월이면 첫 수익
- 20년 경력 개발자 직강
- 자동화 프로그램 + 소스코드 제공