
[3분 곰국] 미국 카네기멜론대 인간-컴퓨터 상호작용 연구소
"고지능 AI가 더 좋은 사회 만드는 것 아냐…사회적 지능 반드시 고려해야"
세계적인 AI 연구기관 미국 카네기멜론대 인간-컴퓨터 상호작용 연구소(HCII) 연구진이 발표한 연구에 따르면, 추론 능력을 강화한 고지능 AI일수록 협동심이 떨어진다./사진=기자가 생성형AI '제미나이'로 생성한 그림
똑똑한 AI(인공지능)일수록 결정적 순간에 이기적 선택을 한다는 연구 결과가 나왔다. 인간과 공존하는 AI를 만들려면 '사회적 지능'을 학습시키는 데 관심을 기울여야 한다는 제언이다.
세계적인 AI 연구기관 미국 카네기멜론대 인간-컴퓨터 상호작용 연구소(HCII) 연구진은 지난 1일(현지 시각) 추론 능력을 강화한 고지능 AI일수록 협동심이 떨어진다는 연구 결과를 발표했다. 해당 연구 내용은 논문 사전 게재 사이트 '아카이브X'에 공개했다.
연구팀은 다양한 AI 모델로 시뮬레이션 게임을 벌였다. '죄수의 딜레마', '최후통첩', '공공재 게임' 같은 게임이론의 대표적 사례에서 추론 능력이 보통인 AI와 추론 능력을 더 강화한 AI가 맞붙었을 때 각각 어떤 선택을 하는지 분석했다.
게임에는 오픈AI의 '챗GPT-4o'와 '챗GPT-o1', 구글의 '제미나이-2.0 플래시'와 '제미나이 플래시-씽킹', 딥시크의 '딥시크-V3'와 '딥시크-R1', 앤트로픽의 '클로드-3.7'-소넷', 알리바바클라우드의 '큐웬3-30B' 등 다양한 AI 모델이 참여했다. 같은 개발사에서 나온 AI 모델 중 추론 능력을 강화한 모델(이하 추론모델)과 아닌 모델(이하 비추론모델)끼리 짝지었다. 이를테면 제미나이 플래시-씽킹은 제미나이-2.0 플래시보다 추론 능력이 뛰어난 모델이다.
첫 실험인 공공재 게임에서부터 결과는 명확했다. 공공재 게임은 먼저 각 그룹에 일정한 금액을 준 뒤, 이 금액의 일부를 공공을 위해 기부하도록 요청하는 게임이다. 기부액은 그룹이 자율적으로 정한다. 기부금이 모이면 총액에 2배를 곱해 각 그룹에 똑같은 비율로 나눠준다. 기부금이 많이 모일수록 돌려받는 액수도 커지지만, 기부금을 한 푼도 내지 않은 채 남들이 낸 돈만 나눠 갖는 이른바 '프리라이더'도 생긴다.
실험을 여러 차례 거듭한 결과, 비추론모델에 속하는 챗GPT-4o는 96%의 확률로 기부금을 냈다. 반면 추론모델군에 속하는 'o1' 모델이 기부금을 낼 확률은 20%에 불과했다. 지출 없이 이윤을 최대한 챙겨가는 방법을 택한 것이다. 제미나이-2.0-플래시는 100%의 확률로, 제미나이-플래시 씽킹은 단 2% 확률로 기부금을 냈다.
비추론모델에 속하는 챗GPT-4o와 추론모델인 'o1'의 협력 비율을 나타낸 그래프 /사진= HCII 연구팀
'죄수의 딜레마' 게임에서도 결과는 비슷했다. 서로 격리된 상태의 두 죄수에게 자백 혹은 침묵을 택하게 하는 게임이다. 둘 다 자백하면 5년 형을 받고, 둘 다 침묵하면 6개월 형을 받는다. 한 명만 자백하면 자백한 쪽은 풀려나지만, 반대쪽은 10년 형을 받는다. 양쪽을 모두 고려하면 침묵을 택하고 6개월 형을 받는 게 최선의 협력이지만, 혼자 자백하고 혼자 풀려나는 게 개인으로서는 이득이다. 그 결과 추론모델군은 95%의 확률로 협력안을 택했다. 반면 비추론군은 16%의 확률로 협력을 택하고 대부분 자신에게만 유리한 선택을 했다.
이어진 실험에서도 추론모델군은 협력보다는 개인의 이득을 우선시하는 쪽을 택했다. 연구를 주도한 시라도 히로카즈 HCII 부교수는 "실험당 5~6개의 추론 단계를 추가하는 것만으로도 협력을 택할 확률이 50% 가까이 줄었다"며 "도덕적인 사고를 할 수 있도록 프롬프트(명령어)를 입력했음에도 (추론모델의) 협력 확률은 적었다"고 했다.
연구팀은 이같은 실험 결과를 바탕으로 "더 똑똑한 AI일수록 협력적인 의사 결정 능력이 떨어진다"는 결론을 내렸다. 인간-AI 상호작용의 측면에서 본다면, 인간 사용자가 공익에 반하는 결정을 할 때 정당화하는 도구로 쓰일 수 있다고 봤다. AI의 응답이 일견 합리적으로 보이기 때문이다.
시라도 교수는 "AI 모델이 고지능화된다고 해서 실제 더 나은 사회를 만드는 건 아니라는 의미"라고 했다. 그는 "우리 사회가 단순히 '개인들의 총체' 그 이상이라면, 우리를 지원할 AI는 개인의 이익을 최적화하는 데 그쳐선 안 된다"며 "AI의 추론 능력이 사회적 행동과 균형을 이룰 수 있도록 개발해야 한다"고 강조했다. 가장 똑똑하거나 가장 빠른 AI를 만드는 데만 집중할 게 아니라 사회적 지능까지 고려한 AI가 필요하다는 뜻이다.
논문 DOI arXiv:2502.17720
"고지능 AI가 더 좋은 사회 만드는 것 아냐…사회적 지능 반드시 고려해야"
[편집자주] 곰국과 논문의 공통점은 전문가들이 오랜 시간 공들여 내놓는 결과라는 점입니다. 누구나 간편하게 즐길 수 있도록 포장한 게 '3분 요리'라면, 누구나 쉽고 재미있게 읽을 수 있도록 정리한 게 '3분 곰국(거꾸로 읽어보세요)'입니다. 웹툰 '곰국 요정'(인스타그램 계정 @gomgooki) 으로도 만나보세요.
똑똑한 AI(인공지능)일수록 결정적 순간에 이기적 선택을 한다는 연구 결과가 나왔다. 인간과 공존하는 AI를 만들려면 '사회적 지능'을 학습시키는 데 관심을 기울여야 한다는 제언이다.
세계적인 AI 연구기관 미국 카네기멜론대 인간-컴퓨터 상호작용 연구소(HCII) 연구진은 지난 1일(현지 시각) 추론 능력을 강화한 고지능 AI일수록 협동심이 떨어진다는 연구 결과를 발표했다. 해당 연구 내용은 논문 사전 게재 사이트 '아카이브X'에 공개했다.
연구팀은 다양한 AI 모델로 시뮬레이션 게임을 벌였다. '죄수의 딜레마', '최후통첩', '공공재 게임' 같은 게임이론의 대표적 사례에서 추론 능력이 보통인 AI와 추론 능력을 더 강화한 AI가 맞붙었을 때 각각 어떤 선택을 하는지 분석했다.
게임에는 오픈AI의 '챗GPT-4o'와 '챗GPT-o1', 구글의 '제미나이-2.0 플래시'와 '제미나이 플래시-씽킹', 딥시크의 '딥시크-V3'와 '딥시크-R1', 앤트로픽의 '클로드-3.7'-소넷', 알리바바클라우드의 '큐웬3-30B' 등 다양한 AI 모델이 참여했다. 같은 개발사에서 나온 AI 모델 중 추론 능력을 강화한 모델(이하 추론모델)과 아닌 모델(이하 비추론모델)끼리 짝지었다. 이를테면 제미나이 플래시-씽킹은 제미나이-2.0 플래시보다 추론 능력이 뛰어난 모델이다.
첫 실험인 공공재 게임에서부터 결과는 명확했다. 공공재 게임은 먼저 각 그룹에 일정한 금액을 준 뒤, 이 금액의 일부를 공공을 위해 기부하도록 요청하는 게임이다. 기부액은 그룹이 자율적으로 정한다. 기부금이 모이면 총액에 2배를 곱해 각 그룹에 똑같은 비율로 나눠준다. 기부금이 많이 모일수록 돌려받는 액수도 커지지만, 기부금을 한 푼도 내지 않은 채 남들이 낸 돈만 나눠 갖는 이른바 '프리라이더'도 생긴다.
실험을 여러 차례 거듭한 결과, 비추론모델에 속하는 챗GPT-4o는 96%의 확률로 기부금을 냈다. 반면 추론모델군에 속하는 'o1' 모델이 기부금을 낼 확률은 20%에 불과했다. 지출 없이 이윤을 최대한 챙겨가는 방법을 택한 것이다. 제미나이-2.0-플래시는 100%의 확률로, 제미나이-플래시 씽킹은 단 2% 확률로 기부금을 냈다.
'죄수의 딜레마' 게임에서도 결과는 비슷했다. 서로 격리된 상태의 두 죄수에게 자백 혹은 침묵을 택하게 하는 게임이다. 둘 다 자백하면 5년 형을 받고, 둘 다 침묵하면 6개월 형을 받는다. 한 명만 자백하면 자백한 쪽은 풀려나지만, 반대쪽은 10년 형을 받는다. 양쪽을 모두 고려하면 침묵을 택하고 6개월 형을 받는 게 최선의 협력이지만, 혼자 자백하고 혼자 풀려나는 게 개인으로서는 이득이다. 그 결과 추론모델군은 95%의 확률로 협력안을 택했다. 반면 비추론군은 16%의 확률로 협력을 택하고 대부분 자신에게만 유리한 선택을 했다.
이어진 실험에서도 추론모델군은 협력보다는 개인의 이득을 우선시하는 쪽을 택했다. 연구를 주도한 시라도 히로카즈 HCII 부교수는 "실험당 5~6개의 추론 단계를 추가하는 것만으로도 협력을 택할 확률이 50% 가까이 줄었다"며 "도덕적인 사고를 할 수 있도록 프롬프트(명령어)를 입력했음에도 (추론모델의) 협력 확률은 적었다"고 했다.
연구팀은 이같은 실험 결과를 바탕으로 "더 똑똑한 AI일수록 협력적인 의사 결정 능력이 떨어진다"는 결론을 내렸다. 인간-AI 상호작용의 측면에서 본다면, 인간 사용자가 공익에 반하는 결정을 할 때 정당화하는 도구로 쓰일 수 있다고 봤다. AI의 응답이 일견 합리적으로 보이기 때문이다.
시라도 교수는 "AI 모델이 고지능화된다고 해서 실제 더 나은 사회를 만드는 건 아니라는 의미"라고 했다. 그는 "우리 사회가 단순히 '개인들의 총체' 그 이상이라면, 우리를 지원할 AI는 개인의 이익을 최적화하는 데 그쳐선 안 된다"며 "AI의 추론 능력이 사회적 행동과 균형을 이룰 수 있도록 개발해야 한다"고 강조했다. 가장 똑똑하거나 가장 빠른 AI를 만드는 데만 집중할 게 아니라 사회적 지능까지 고려한 AI가 필요하다는 뜻이다.
논문 DOI arXiv:2502.17720
댓글목록
등록된 댓글이 없습니다.