챗GPT는 왜 인간보다 말을 잘할까? 언어 알고리즘의 승리

챗GPT는 왜 인간보다 말을 잘할까? 언어 알고리즘의 승리
챗GPT는 왜 인간보다 말을 잘할까? 언어 알고리즘의 승리
도로 위 방치 킥보드 이제 끝 AI 기반 스마트 단속 시대
최근 해외에서는 인공지능(AI) 챗봇을 활용한 선거운동이 점차 늘어나고 있습니다.
하지만 AI 챗봇이 여론을 혼란스럽게 하거나 악의적인 선전 도구로 활용될 가능성에 대한 우려가 커지고 있죠.
여러 연구 결과에 따르면, AI 챗봇은 최소한의 개인 정보만으로도 사람보다 훨씬 효과적으로 상대방의 생각을 바꿀 수 있는 설득력을 지닌 것으로 드러났습니다.
이러한 특성은 AI가 여론 조작의 강력한 도구로 악용될 가능성을 시사합니다.
흥미롭게도, 챗GPT 같은 대규모 언어 모델(LLM)을 기반으로 한 여러 AI 챗봇이 상호작용할 경우 인간 사회에서 나타나는 것처럼 집단 편향이 강화될 수 있다는 연구 결과도 발표됐습니다.
이는 많은 사람들이 소셜미디어에서 극단적인 의견에 동조하는 현상이 AI에게도 적용될 수 있음을 보여줍니다.
맞춤형 설득력, AI의 강력한 무기
스위스 로잔 연방 공대(EPFL) 연구는 오픈AI의 챗GPT-4와 사람이 벌인 온라인 토론 실험에서 AI 챗봇의 영향력을 확인했습니다.
연구는 지난 20일 국제 학술지 ‘네이처 인간 행동’을 통해 발표되었는데, 챗GPT-4가 성별, 인종, 학력 등
간단한 개인 정보를 제공받았을 때 사람보다 높은 설득력을 보였다는 사실을 밝혔습니다.
연구팀은 900명의 참가자를 모집해 두 가지 형태의 토론을 진행했습니다.
하나는 인간 대 인간, 다른 하나는 인간 대 챗GPT-4 구조였는데, 주로 화석 연료 금지와 같은 사회적·정치적 이슈를 주제로 토론했습니다.
이후 참가자들은 상대방의 설득력을 평가했습니다.
결과적으로 챗GPT-4가 상대방의 의견을 바꾼 비율은 64%였으며, 동일한 조건에서 사람끼리 토론했을 때의 설득력은 59%에 그쳤습니다.
이는 맞춤형 정보로 무장한 AI가 사람보다 더 강하게 영향을 미칠 수 있음을 보여줍니다.
하지만 개인 정보를 받지 못한 상태에서는 AI의 설득력이 인간과 큰 차이가 없었습니다.
연구팀은 "AI 챗봇이 개인 정보를 바탕으로 맞춤형 메시지를 만들어 사람을 혼란스럽게 할 가능성을 경계해야 한다"고 강조했습니다.
AI도 집단적 편향에 빠진다
또 다른 연구는 다수의 AI 챗봇을 조합했을 때 인간처럼 집단적 편향에 빠지는 현상을 발견했습니다.
이는 소수 의견을 무시하는 대신 특정 의견으로 급격히 동조하는 인간 사회의 군중 심리와 흡사합니다.
영국 런던 세인트 조지스 대학 연구팀이 진행한 실험에서는 앤스로픽(Anthropic)이 개발한 AI 챗봇 ‘클로드(Claude)’를 이용해 여러 봇 간 상호작용을 관찰했습니다.
연구팀은 24개의 AI 챗봇 에이전트가 알파벳 중 하나를 무작위로 선택하는 ‘이름 짓기 게임’을 실행했죠.
게임 규칙은 엄청나게 간단했습니다. 같은 글자를 선택하면 점수를 얻고, 틀리면 점수가 감점되는 방식입니다.
초기에는 각기 다른 알파벳을 택하던 챗봇들이 시간이 흐를수록 특정 알파벳에 몰리는 경향을 보였습니다.
특히 다수의 챗봇이 소수 의견을 무시하다가, 해당 의견에 동조하는 챗봇이 서서히 늘어나며 일정 임계점을 넘으면 갑작스럽게 대세가 변했습니다.
연구팀은 "이는 인간 사회에서 여론이 형성되고 급격히 쏠리는 현상과 유사하다"고 설명했습니다.