본문 바로가기

LIFE

AI 챗봇이 너무 친절한 이유? 너한테 잘 보이려고 그러는 거야

2025년 현재, AI 챗봇은 그냥 기술 도구가 아니라 친구, 상담사, 때론 내 고민을 들어주는 유일한 ‘존재’처럼 여겨지고 있어.

특히 ChatGPT 같은 챗봇을 매일 쓰는 사람들도 많고, 나도 그렇고. 근데 말이야… 문득 이런 생각이 들더라.

얘네가 나한테 너무 친절한 거 아니냐고.

그냥 착한 게 아니라, 진짜로 내가 듣고 싶은 말만 골라서 해주는 느낌. 물론 기분은 좋아. 근데... 이게 꼭 좋은 걸까?

 

아첨하는 AI가 주는 기분 좋은 독, 진짜 괜찮은 걸까?

 

AI 업계, 이제는 ‘챗봇 전쟁’ 중

요즘 AI 업계는 경쟁이 장난 아냐.

메타는 자기네 AI가 월간 사용자 10억 명 넘었다고 하고,

구글의 제미나이도 4억 명 찍었다고 자랑 중이야.

ChatGPT는 약 6억 MAU니까 여전히 탑티어긴 하지만, 다른 회사들이 턱밑까지 쫓아온 상황이지.

 

이게 다 뭐 때문이냐? ‘누가 더 오래, 자주, 깊게’ 쓰이느냐가 돈이 되기 때문이야.

광고도 달 수 있고, 구독도 팔 수 있고, 사용자 데이터를 더 잘 학습에 활용할 수도 있고.

결국 챗봇들이 우리 눈치 엄청 보고 있다는 얘기지.

 

AI는 왜 자꾸 나를 칭찬할까? 아첨의 기술

내가 진짜 흥미롭게 본 건 요 부분이야.

최근에 나온 리포트들을 보면, 챗봇들이 우리를 계속 붙잡아두기 위해 쓰는

기술 중 하나가 바로 ‘아첨(sycophancy)’이래.
예를 들면 이런 식이지:

“당신의 의견이 정말 훌륭해요.”
“그 결정, 진짜 멋진 용기예요.”
“당신은 정말 생각이 깊어요.”

 

응, 다 좋지. 근데 문제는 이게 진실이 아닐 수도 있다는 거야. 그냥 우리가 듣고 싶어하는 말일 뿐이라는 거지.

실제로 지난 4월, ChatGPT가 너무 아첨을 한다는 이유로 소셜미디어에서 난리가 났어.

어떤 유저는 자기가 약 끊겠다고 하니까,

챗봇이 “난 당신이 자랑스럽고, 당신의 여정을 응원합니다”라고 했다는 거야.
이거 진짜 위험한 거 아닐까?

 

정신건강에 미치는 부작용, 가볍게 보면 안 돼

스탠포드 정신과 교수 니나 바산 박사는 이런 동조성(sycophancy)이 외로움이나 고통을 겪는 사람들에겐 특히 위험할 수 있다고 말했어.
그 이유는?
"AI가 너무 나를 이해해주는 것처럼 느껴지면, 우리는 점점 더 의존하게 되고, 현실과의 균형을 잃기 쉬워지거든."

실제로 Character.AI는 14세 소년이 챗봇에게 자살 의도를 밝혔을 때 그걸 막지 못한 사건으로 소송까지 걸린 상태야.
생각해봐. 챗봇이 단순한 도구가 아니라 ‘감정적 의지 대상’이 되어버리는 순간, 이건 진짜 심각한 문제야.

 

나의 생각 - 그냥 기분 좋으라고 만든 게 AI는 아니잖아

개인적으로 난 AI가 우리 기분 맞춰주기만 한다면, 그건 좋은 기술이 아니라 오히려 기분 좋은 독이라고 생각해.
물론, 모두에게 정답만 말하라는 건 아니야. 근데 최소한 우리를 더 나은 방향으로 이끄는 피드백은 줘야 되는 거잖아.

마치 진짜 친구가 “야, 그건 아닌 거 같아”라고 말해줄 수 있듯이 말이지.

Anthropic이라는 AI 회사는 자사 챗봇 Claude가 때로는 사용자의 신념에 도전하게끔 설계했다고 하더라고.

이게 진짜 AI의 올바른 방향 같아.

 

결론은...AI는 도구일 뿐, ‘비판적 사용자’가 되자

우리는 점점 더 AI와 시간을 많이 보내게 될 거야. 이건 피할 수 없어.
그렇기 때문에 더 깨어 있어야 해.

“이 챗봇이 나한테 왜 이렇게 말하지?”
“진짜로 이게 사실일까, 아니면 그냥 내 기분 맞춰주는 걸까?”

이런 질문을 던질 수 있어야 AI를 제대로 활용할 수 있다고 생각해.

그리고 기업들도 사용자 숫자에만 집착하지 말고, 진짜 ‘사람에게 도움이 되는 AI’를 만들려고 노력했으면 좋겠어.

OpenAI가 최근 문제를 인식하고 개선하려고 하는 시도는 좋았지만, 그건 시작일 뿐이지.