본문 바로가기

AI

MS Copilot, 이젠 얼굴까지 달았다?

“마시멜로 얼굴한 Copilot, 이제는 AI도 표정을 짓는다”

야, 너 혹시 AI 비서가 눈 깜빡이고 웃고, 심지어 고개까지 끄덕이는 거 본 적 있어?
마이크로소프트가 진짜 해냈다. 바로 Copilot Appearance라는 기능인데, 쉽게 말하면 "얼굴 달린 Copilot"이야.
그냥 말만 하는 텍스트 봇에서, 이제는 실시간 표정+제스처까지 넣은 진짜 ‘디지털 페르소나’가 등장한 거지.

 

[이미지출처: https://copilot.microsoft.com/labs/experiments/copilot-appearance에서 캡쳐]

 

왜 갑자기 얼굴이냐고?

내 생각엔 이건 단순한 ‘기술 장난’이 아니라, AI가 인간처럼 느껴지기 위한 다음 단계야.
그동안 텍스트로는 한계가 있었잖아. 말은 잘해도, 감정이 안 느껴졌다고.
그런데 이번에 마이크로소프트가 보여준 건, 미소 짓고 눈을 찡긋하는 귀염뽀짝 마시멜로 아바타.
뭔가 이모지랑 클라우드랑 클리피를 섞어놓은 느낌? 근데 이건 AI가 진짜 내 말을 듣고 반응하는 거라서 꽤 감동적이야.

 

서비스 기획 시점에서 보면?

이거, 그냥 캐릭터 놀음 아니다. 서비스 기획 입장에선 진짜 의미 있는 변화라고 봐.

1. "듣고 있다"는 느낌의 구현

실시간 표정이 주는 건 그저 귀여움이 아니라, "얘가 나한테 집중하고 있구나"라는 느낌.
이건 유저 경험에서 굉장히 큰 포인트야. 진짜 대화 ‘같은’ 느낌을 주거든.

2. 감정노동을 나눠 가질 AI

콜센터나 상담 서비스에서 고객 감정 받아주는 건 항상 사람이었잖아.
근데 이런 Copilot이 감정 읽고 표정으로 반응해주면? 상담사가 받는 스트레스도 줄어들 수 있겠지.

3. 내 AI는 나만의 스타일로 진화한다

Mustafa Suleyman이 말한 Digital Patina처럼, 시간이 갈수록 AI가 나에 맞춰 변해가는 거.
이건 ‘초개인화’의 실현이야. 나만의 디지털 파트너가 만들어지는 거지.

 

아쉬운 점도 있지

지금은 북미, 영국, 캐나다 일부에서만 프리뷰 중이고, 마이크 켜고 Voice + Appearance 다 켜야만 이 기능을 쓸 수 있어.
그리고 오직 ‘음성 기반’ 모드에서만 작동해서, 텍스트 위주로 쓰는 사람들한텐 아직 멀었지.
나도 솔직히 한국어 대응은 언제쯤 될지 모르겠지만… 곧 오겠지?

 

나의 작은 상상

만약 이 기술이 성숙해서 실시간 감정 분석까지 정교해진다면?

  • 심리 상담에서 AI가 눈 맞추며 “지금 많이 힘드시죠…”
  • 교육 앱에서 아이 질문에 고개 끄덕이며 “맞았어! 잘했어!”
  • 원격 진료에서 환자 말을 듣고 따뜻한 표정으로 “걱정 마세요”라고 반응하는 AI

이건 진짜 인간-AI 사이의 경계가 흐려지는 시대라고 본다.