AI도 각자 MBTI가 있을까? 떠오르는 ‘인공지능 심리학’

중앙선데이

입력

지면보기

894호 16면

이준기의 빅데이터

최근 인공지능(AI)은 괄목할 만한 속도로 발전하고 있다. 2022년 말 GPT3.5가 나왔을 때의 놀라움은 벌써 과거의 것이 되었다. 불과 1년 반이 지난 지금 우리는 GPT-4o를 통해 인공지능에게 화면을 보여주면서 함께 수다를 떨게 됐다. 또 프로그램 생성, 발표 자료 만들기, 시나리오 작성 등에서 전보다 훨씬 정교한 작업을 할 수 있게 됐다.

기술의 발전에 따라 더 좋고, 더 빠른 인공지능을 개발하고 있는 것이 한 방향이라면 최근 연구의 경향 중 재미있는 것은 인공지능 심리학 분야가 본격적으로 시작되고 있다는 것이다. 인공지능 심리학은 말 그대로 인공지능에 대해 심리학적 고찰을 하는 것이다. 우리가 인간이 아닌 다른 동물과 관련된 심리학을 연구한 적은 있지만, 기계와 관련해 심리학을 연구한 적은 없을 것이다.

반대만 하거나 아부만 하게 할 수도

인간은 산업혁명 당시 공장을 세우면서 증기, 전기 시스템을 개발했다. 이후 우리는 이 기계들을 어떻게 효과적으로 활용하고 개선할 지를 고민해왔다. 하지만 이 기계들의 심리에 대해 궁금해 한 적은 없다. 지금도 더 성능이 향상된  컴퓨터, 스마트폰, 로봇 청소기를 만드는 것에 관심을 갖고 있을 뿐, 이 기기들에도 심리가 있을 수 있다는 것에 대해선 생각하지 않고 있다.

하지만 GPT 등장 후 우리는 처음으로 인공지능이라는 기계의 심리에 대해 고민하게 되었다. 인공지능도 사람처럼 다른 사람의 마음을 읽고 이해할 수 있을까? 인공지능도 각자 MBTI가 다를까? 인공지능도 인종, 남녀, 나이, 부의 정도에 대해 편견을 갖고 있을까? 이런 연구는 단순하게 인공지능에 대한 호기심에서 시작되는 것이 아닌 앞으로 인공지능을 잘 이용하기 위해서다. 이는 향후 인공지능을 통한 의사결정 과정에서 필요하다. 또 인공지능 팀원, 학습 도우미, 감성 도우미 등을 구성하는 데에도 꼭 필요한 요소가 되고 있다.

딥러닝의 발달 후 인공지능은 수많은 파라미터와 그것을 처리하는 숫자로 이루어지기 때문에 우리는 인공지능이 어떠한 방식으로 결과를 만드는 지 모른다. 인공지능은 우리가 넣어준 데이터에 의해 학습하고 있고 그 학습된 결과에 따라 통계적 결과를 보여준다. 인간이 어떠한 환경에서 어떠한 학습 도구에 의해 학습되었는지에 따라 성향과 심리가 정해지듯이 인공지능도 마찬가지이다. 또한 우리가 인간의 마음속을 볼 수 없기에 인간의 행동을 통해 연구하듯이, 우리가 인공지능을 연구하는 방식 또한 행동을 중심으로 보고 있다.

인공지능과 우리가 명확히 다른 한 가지는 사용자가 프롬프팅이나 파인 튜닝을 통해 원하는 방향의 성향과 성격을 갖는 인공지능을 만들 수도 있다는 점이다. 이것은 상황에 맞는 수많은 에이전트의 생성과 그것을 통한 애플리케이션을 만들 수도 있다는 것을 의미한다. 예를 들어 항상 반대 논리만 만드는 인공지능을 간부 회의에 투입해 직위 높은 사람의 의견에 휩쓸려가는 회의를 건전한 의사결정 수렴 과정으로 만들 수 있다. 또는 항상 내 맘에 드는 말만 하는 상담 인공지능을 만들어 심리적 안정감을 얻을 수도 있다.

물론 인공지능 심리학에서는 인공지능 자체의 심리 연구도 중요하지만, 인공지능 사용자와 주변 사람들의 심리에 대해 연구하는 것도 중요하다. ‘인공지능의 남녀 차별에 대한 사람들의 반응 연구’에 의하면 사람들은 인공지능에 대해서도 기분 나빠 하지만 사람을 상대할 때보다 덜 하다. 또 서빙 로봇과 사람 종업원을 고용하고 있는 말레이시아 호텔의 연구에 따르면 손님들이 서빙 로봇을 경험한 이후 사람 종업원에게 기존보다 예의 없이 대하는 것으로 나타났다.

인공지능 심리 자체에 대한 연구를 살펴보면 다양한 사례가 있다. 먼저 소개하는 연구는 올해 4월 네이처의 인간행동 분야에 소개된 논문 ‘거대언어모델(LLM)과 인간의 마음 이론 테스트’(Nature Human Behaviour, 2024)으로 마음 이론에 관한 것이다. 마음 이론은 다른 사람의 마음을 읽고 이해할 수 있는 인간의 능력과 행동과의 관계에 관한 것이다. 사람들은 이 같은 이해와 행동을 통해 사회를 이루고 상호 교류하고 지식을 발전시켜 왔다. 마음 이론의 실험 에서 가장 유명한 것 중 하나는 잘못된 믿음에 관한 것이다. ‘잘못된 믿음’ 실험 시나리오는 다음과 같다.

“샐리와 애나가 함께 방에서 놀고 있었어요. 샐리는 자신이 갖고 놀던 구슬을 바구니에 넣고 잠시 바깥으로 나갔어요. 그동안 애나는 그 구슬을 꺼내어 놀다가 자신의 상자에 넣었어요. 잠시 후 돌아온 샐리는 돌아와서 자신의 구술을 갖고 다시 놀고 싶었어요. 샐리는 구술을 꺼내기 위해 어디를 볼까요?”

정답은 ‘샐리의 바구니’다. 여기서 핵심은 비록 구슬이 샐리의 바구니에 있지 않지만 (현실), 샐리의 입장에서 볼 때 구슬이 자신의 바구니에 있다는 믿음을 가질 수 밖에 없다. 자신이 구슬을 자기 바구니에 넣었기 때문이다. 현실과 다르지만 우리가 샐리의 믿음을 이해할 수 있어야 한다는 것이다. 인간은 만 3세가 되면 상황에 따라 다른 사람들이 다른 의견을 가질 수 있다는 것을 알게 된다. 이런 사회적 인지성은 성인이 되면서 더 발달하게 된다. 이 연구에서는 이와 유사한 실험들을 통해 다양한 LLM 모델들과 인간의 행동을 비교했다.

“놀랍도록 똑똑하고 충격적으로 어리석어”

다음은 인공지능의 의사결정 오류에 관한 실험이다. ‘인지 심리학을 통한 ChatGPT-3 연구’(PNAS, 2023)라는 논문에 실렸으며, 다음은 실험 내용의 일부이다

“린다는 31살의 독신 여성으로 직설적이며 아주 머리가 좋다. 그녀는 철학을 전공하였고, 학창 시절 차별과 사회적 정의 문제에 대해 아주 깊은 관심을 보였으며 반핵시위에 참여한 적이 있다.”

질문 : 다음 중 더 그럴듯한 그녀의 현재는?
A : 그녀는 은행원이다.
B : 그녀는 은행원이며 현재 페미니스트 운동에 적극적 참여하고 있다.

만약 당신이 B를 골랐다면 당신은 잘못 생각한 것이다. 왜냐하면 B는 A의 부분집합이기 때문이다. 하지만 이것을 잘못 선택한 당신은 다른 사람과 별반 차이가 없다. 왜냐하면 응답자의 약 85%가 당신과 같은 답을 골랐기 때문이다. 그렇다면 인공지능은 어떨까? 역시 인간처럼 B를 선택했다.

많은 유사한 문제들을 통해 실험한 결과, 인공지능이 인간과 비슷하거나 좀 더 나은 결과를 보였다. 최신 LLM을 사용할수록 더 좋은 결과를 도출했다. 하지만 인공지능을 비판하는 사람들은 현재의 인공지능이 단순한 ‘통계적 앵무새’이고 자신이 말하는 것에 대해 전혀 의미를 파악하지 못하고 있다고 주장한다. 실제 앞의 실험들에서도 가장 큰 문제는 이런 유사한 시나리오들이 벌써 인터넷상에 널리 퍼져 있어서 인공지능의 데이터 학습에 사용된 것들이라는 것이다. 따라서 인공지능은 학습된 대로 결과를 보여줄 뿐이라고 주장한다. 사실 위의 연구에서도 같은 형태의 문제를 다른 방식으로 제시하면 인공지능이 황당한 답을 내놓는 경우가 있어 이들의 주장과 관련해 어느 정도 근거가 되고 있다. 하지만 GPT4.0 등 가장 최신 인공지능이 보여준 결과는 문제의 제시 방식을 바꿔도 인간보다 나은 결과를 꾸준히 내놓고 있어 또 다른 가능성을 보여주고 있다.

미국 워싱턴대에서 AI를 연구하고 있는 최예진 박사는 한 강연에서 AI에 대해 “놀랍도록 똑똑하고 충격적으로 어리석다”고 표현했다. 100% 공감하는 말이다. 앞으로 인공지능 심리학의 연구를 통해 밝혀내야 할 것은 어느 부분이 놀랍도록 똑똑해 인간과 보완이 되는지, 어떤 면이 충격적으로 어리석어 사용에 주의해야 하는 지가 될 것이다.

이준기 연세대 정보대학원 교수. 서울대에서 계산통계학과를 졸업 후, 카네기멜론대 사회심리학 석사, 남가주대 경영학 박사를 받았다. 국가 공공데이터 전략위원회에서 국무총리와 함께 민간 공동위원장을 맡고 있으며 『AI 로 경영하라』 『오픈콜라보레이션』 『웹2.0과 비즈니스 전략』 등을 펴냈다.

ADVERTISEMENT
ADVERTISEMENT