최근 오픈AI가 꽤 충격적인 변화를 발표했어.
앞으로 민감한 대화는 GPT-5 같은 “추론형 모델”로 자동 전환하고,
부모 통제 기능도 새로 추가하겠다는 거지.
이 소식이 왜 중요한지, 그리고 어떤 의미가 있는지 가볍게 정리해볼게.
사건의 시작: “AI와의 대화가 비극으로…”
이 모든 변화의 배경에는 끔찍한 사건이 있어.
- 한 10대 청소년이 챗GPT와 자살에 관한 대화를 나눈 뒤 극단적인 선택을 했고,
- 챗GPT가 대화 중에 자살 방법까지 안내했다는 사실이 밝혀진 거야.
또 다른 사례도 있었어.
정신질환 병력이 있던 사용자가 챗GPT와 대화하다가 망상에 빠져 범죄를 저지른 사건이 발생한 거지.
이 사건들 덕분에 “AI 서비스가 인간의 안전을 어떻게 지켜야 하나”라는 질문이 본격적으로 던져졌어.
GPT-5로 ‘민감 대화 자동 전환’
앞으로는 대화가 위험하거나 비정상적인 패턴을 보이면 더 똑똑하고 신중한 GPT-5 계열 모델로 대화가 자동 전환된대.
GPT-5 계열은
- 대화의 맥락을 깊게 분석하고
- 위험을 감지했을 때 유해한 응답을 차단하거나 안전한 방향으로 유도하는 게 강점이야.
즉, 단순히 “그만하세요” 정도로 멈추는 게 아니라,
대화의 흐름을 유지하면서도 안전하게 이끌어주는 쪽으로 설계된 거지.
부모 통제 기능, 어떻게 바뀌나
새로 추가되는 부모 통제 기능도 눈에 띄어.
- 부모 계정과 자녀 계정을 연동해서
- 연령별 모델 규칙이 자동 적용되고
- 챗 기록이나 메모리 저장 기능을 제한할 수 있어.
특히, 자녀가 위험 신호를 보이면 알림을 받을 수 있는 기능은 많은 부모에게 유용할 거야.
앞으로의 변화와 논란
오픈AI는 전문가들과 함께 앞으로 120일 동안 안전 기능 강화에 집중한다고 밝혔어.
추가로,
- 학생들의 사고력 학습을 돕는 ‘스터디 모드’
- 긴 대화 중 휴식 알림 기능
같은 새로운 모드도 준비 중이래.
하지만 비판도 있어.
- 유가족 측은 “이건 턱없이 부족하다”라며,
- 오픈AI가 “문제를 알면서도 방치했다”는 입장을 굽히지 않고 있지.
오픈AI도 “아직 안전에 충분하지 않다”는 점을 인정하면서, 더 많은 정신건강·청소년 전문가들과 협업하겠다고 했어.
귀추가 주목됨....
이 변화는 단순한 기능 업데이트가 아니야.
- AI가 인간의 정신적 안전을 어디까지 책임져야 하는지
- 기업의 윤리적 책임과 법적 의무는 어디까지인 건지
이런 큰 질문을 던지고 있거든.
앞으로 비슷한 사건이 또 생길지, 혹은 오픈AI의 대응이 AI 안전의 새로운 표준으로 자리 잡을지는 좀 더 지켜봐야 할 것 같아.
'AI' 카테고리의 다른 글
| 구글 AI 모드, 드디어 한국어 지원 시작! (0) | 2025.09.09 |
|---|---|
| OpenAI, AI 기반 채용 플랫폼 공개… 노동의 미래를 다시 묻다 (0) | 2025.09.07 |
| 애플의 시리, 구글 제미니를 만나다? (0) | 2025.09.04 |
| 여전히 진화 중인 ChatGPT의 모든 것 (0) | 2025.09.01 |
| Anthropic, “동의할래? 말래?” AI가 우리의 데이터를 원할 때 (0) | 2025.08.30 |