2025년 8월, AI 업계에서 조용히 떠오르던 Anthropic이 드디어 본색을 드러냈어.
이제 “너 대화 데이터, AI 학습에 쓸 수 있게 동의할래? 아니면 거부할래?” 하고 직접 묻기 시작한 거지.
이거, 단순히 약관 하나 바꾼 게 아니라 앞으로 AI 세상에서 데이터 프라이버시를 어떻게 지켜야 할지 다시 생각하게 만드는 사건이야.
30일 삭제에서 최대 5년 보관으로
예전엔 대화가 30일만 지나면 자동으로 삭제됐거든.
그런데 이제는 네가 거부 버튼을 누르지 않으면 대화가 최대 5년 동안 보관돼서 AI 학습에 쓰여.
물론 예외도 있어.
- 기업 고객
- 정부나 교육기관 고객
- API 사용자
이쪽 데이터는 여전히 훈련에 안 쓰인다더라.
이건 OpenAI가 기업용 서비스에서 보장하는 프라이버시 모델이랑 똑같은 전략이지.
진짜 선택권이 있는 걸까?
Anthropic은 “우린 선택권을 줬다”고 말하지만, 막상 보면 좀 웃겨.
- 체크박스는 눈에 잘 안 보이고
- 기본값은 동의로 설정돼 있고
- ‘동의’ 버튼만 엄청 크게 보이고
결국 대다수 사람들은 그냥 무심코 동의 누르고 끝. 솔직히 이건 선택권이라기보단 유도에 가깝지.
OpenAI나 다른 AI 회사들도 비슷한 방식으로 데이터 수집하고 있어서, 이게 업계 전반의 “관행”이 돼버린 게 문제야.
데이터가 곧 경쟁력
이런 정책 변경의 진짜 이유는 간단해.
“실제 대화 데이터가 많을수록 → AI 모델이 더 똑똑해지고 → 경쟁사보다 앞서간다.”
겉으로는 “모두를 위한 더 나은 AI 개발”이라고 포장하지만, 사실상 데이터 쌓아서 경쟁력 확보하려는 거지.
AI 업계에서 데이터는 무기나 다름없어.
나는 당연히 수집 거부했어.
내 대화를 5년이나 저장해서 누가 어떻게 쓸지 모르는 상황에서 동의하기는 좀 찝찝하잖아.
게다가 데이터가 한번 수집되면 어디까지 확산될지,
어떤 AI 모델에 학습될지, 솔직히 우리가 완전히 알 수는 없어. 그럼 차라리 처음부터 거부하는 게 마음 편하지.
한 줄로 정리하자면
Anthropic의 약관 변경은 AI 시대의 본질을 딱 보여줘.
데이터는 혁신의 연료지만, 동시에 신뢰를 시험하는 기준이기도 하지.
그리고 진짜 경쟁력은 기술이 아니라, 사용자가 “이 회사는 믿을 만하다”라고 느끼게 만드는 투명함에서 나온다고 생각해.
너는 어떻게 할 거야? 난 당연히 “거부” 한 표.
'AI' 카테고리의 다른 글
| 애플의 시리, 구글 제미니를 만나다? (0) | 2025.09.04 |
|---|---|
| 여전히 진화 중인 ChatGPT의 모든 것 (0) | 2025.09.01 |
| 구글 번역, 이제는 “AI 언어 선생님”으로 진화 중 (0) | 2025.08.28 |
| AI 에이전트 결제 전쟁: 카드사 vs 핀테크, 그리고 스테이블 코인 (0) | 2025.08.27 |
| Claude for Chrome, 브라우저 안에 들어온 AI (0) | 2025.08.27 |