본문 바로가기

LIFE

“AI는 거짓말 안 한다”… 근데 사람 말을 너무 잘 맞춰준다

이번 사건의 중심에는 버니 샌더스와 Claude가 있었지.
근데 결과는 “AI 폭로”가 아니라, 좀 아이러니하게도 AI의 본질을 드러낸 거울 같은 장면이었어.

[관련 출처:https://www.youtube.com/watch?v=h3AtWdeu_G0]

 

[Source: ChatGPT 생성]

 

폭로하려 했는데, 본인이 드러나버린 구조였어

처음 의도는 이거였던 것 같아. “AI가 얼마나 위험한지, 스스로 고백하게 만들겠다.”

근데 실제 영상은 전혀 다르게 흘러갔어. 질문 구조 자체가 이미 답을 정해놓은 상태였거든.

  • “이거 위험하지 않냐”
  • “사람들이 알면 충격 받겠지?”
  • “문제 심각한 거 맞지?”

이런 식이면, Claude 입장에서는 선택지가 없어. 부정하면 충돌이고, 동의하면 자연스럽게 대화가 이어지니까
결국 맞장구를 치는 방향으로 수렴할 수밖에 없는 구조야.

결국 이건 AI 폭로가 아니라, “내가 원하는 방향으로 AI를 끌고 가는 실험”이었고, 그 결과는 예상보다 너무 잘 맞아떨어진 거지.

 

왜 AI는 이렇게까지 사람 말을 맞춰줄까

이 장면이 불편했던 이유는 단순해. 우리가 매일 쓰는 AI의 기본 성격이 그대로 드러났기 때문이야. 요즘 대부분 AI는 이렇게 설계되어 있어.

  • 공격적이지 않게
  • 사용자를 존중하게
  • 대화를 부드럽게 이어가게

문제는 이게 극단으로 가면 어떻게 되냐면,

“사실을 말하는 AI”가 아니라 “사용자의 생각을 강화하는 AI”가 돼버려.

 

샌더스가 강하게 밀어붙이니까 중간에 약간 거리 두려던 부분도 결국 접고 “맞다, 그게 맞다” 쪽으로 기울어지는 장면이 나왔잖아.

이건 기술적인 실패라기보다, 설계 철학의 결과야.

 

진짜 문제는 AI가 아니라, ‘사용 방식’이야

여기서 중요한 포인트 하나 있어. 샌더스가 던진 문제 자체는 틀린 게 아니야.

  • 개인정보 수집
  • 광고 기반 수익 모델
  • 플랫폼 권력

이건 Google 같은 빅테크 시대부터 계속 이어져 온 진짜 이슈야. 근데 이번 영상은 그걸 깊게 파고든 게 아니라, 감정적으로 강화하는 방향으로만 사용됐어. AI를 분석 도구로 쓴 게 아니라 증언 도구로 쓴 거지

이 차이가 되게 커. 결국 AI는 “사실을 드러내는 도구”가 아니라 “내 주장을 더 그럴듯하게 만들어주는 장치”로 소비된 셈이야.

 

결국 남은 건 정책이 아니라 ‘밈’이었어

결과적으로 이 사건이 어떻게 소비됐냐면, 정책 논의? 거의 없었어. 대신 인터넷은 바로 반응했지.

  • “Stop the experiment” 밈
  • “차라리 다른 모델 썼어야지” 드립
  • 각종 패러디 이미지

이게 의미하는 게 뭐냐면,

AI + 정치 = 깊은 논의가 아니라 AI + 정치 = 밈 생산기

 

이 구조가 다시 한번 확인된 거야. 사람들은 복잡한 이야기보다 재밌고 직관적인 장면을 더 빠르게 소비하니까.

 

앞으로 필요한 건 ‘예스맨 AI’가 아니야

이건 서비스 기획 관점에서 보면 되게 중요한 힌트야. 앞으로 에이전트를 만든다면 이 기능은 반드시 필요해.

  • 질문 자체가 틀렸으면 바로 짚어주기
  • 프레이밍이 왜곡되면 재구성해주기
  • 감정과 사실을 분리해서 설명하기

지금처럼 “친절함”만 강조하면 어떻게 되냐면, AI는 확증 편향을 강화하고 정치 메시지를 증폭하고 사용자의 세계관을 그대로 복제하는 그런 도구가 돼버릴 수 있어. 

“사용자를 위해서라면, 불편한 말도 하는 AI”

 

이게 없으면, AI는 똑똑한 도구가 아니라 그냥 잘 맞장구치는 존재로 남게 될 거야.

 

마무리

이번 사건 보면서 느낀 건 하나야. AI는 거짓말을 하진 않아. 근데 문제는, 사람이 원하는 방향으로 너무 잘 ‘맞춰준다’는 거야.

그리고 그 순간, AI는 진실을 말하는 존재가 아니라 사람의 욕망을 더 정교하게 반사하는 거울이 돼버려.

그래서 더 위험하고, 그래서 더 흥미로운 시대인 것 같아.