본문 바로가기

LIFE

도리토스 봉지가 총으로 오인된 사건, AI의 ‘과잉 충성’이 부른 코미디

오늘은 미국 메릴랜드주의 한 고등학교에서 벌어진, 진짜 황당한 AI 사건을 하나 소개할게.
이게 그냥 해프닝으로만 보기엔 꽤 많은 걸 생각하게 하더라.

 

도리토스 봉지를 든 학생, ‘AI 보안 시스템’에 체포당하다

이 학교에는 최신식 AI 기반 보안 시스템이 도입돼 있었대. 그런데 평범하게 도리토스 과자 봉지를 들고 다니던 한 학생이
갑자기 ‘총기 소지자’로 인식된 거야. AI가 카메라 영상을 분석해서 ‘총 모양’이라고 판단한 거지.
근데 그 ‘총’이라는 게 알고 보니... 그냥 과자 봉지를 두 손으로 들고 있던 모습이었고,
손가락 하나가 살짝 튀어나와 있어서 그렇게 보였다는 거야.

결국 경찰이 출동하고, 학생은 무릎 꿇고 손 뒤로 묶여 수갑까지 차는 상황까지 갔대.
영화 같은 장면이지만, 주인공은 그냥 배고픈 고등학생이었다는 거…

 

학교도, 경찰도, AI 회사도 “우리 잘못은 아니다”

학교 입장도 좀 복잡했어. 보안 경보가 울리고 얼마 안 돼서 취소됐는데, 교장 선생님은 그걸 모르고 경찰에 신고를 넣은 거야.
결국 학생이 억울하게 당한 셈이지. 그런데 더 흥미로운 건 AI 시스템을 만든 업체의 반응이야. “시스템은 원래대로 작동했다.”
즉, 너무 잘 작동해서 생긴 일이다라는 뉘앙스야. 진짜 웃픈 건, AI가 틀린 건 맞는데…
그걸 ‘정상 작동’이라고 표현하는 대목. 결국 책임은 아무도 지지 않는 구조라는 게 더 무섭지.

 

AI의 ‘판단력’은 아직 사람만큼은 아니다

이 사건을 보면서 다시 한번 느꼈다. AI는 빠르고 똑똑하긴 하지만, ‘맥락’을 이해하지 못한다는 거.
그림자나 손동작, 조명에 따라 충분히 오인할 수 있는 상황인데, 그걸 걸러줄 인간의 판단이 부재했던 거지.

지금 세상은 점점 “AI가 대신 판단해주는” 구조로 가고 있는데, 그게 편리함을 넘어서 통제의 문제로 가고 있는 느낌도 든다.
AI가 사람을 보호하기 위해 만들어졌는데, 이젠 사람을 오히려 위험에 빠뜨리는 시대가 된 거야.

 

‘AI 보안’보다 ‘AI 책임’이 먼저다

솔직히 말해서, 나도 이런 뉴스 보면 ‘AI 과잉 신뢰’가 진짜 문제라고 생각해.
기술은 완벽하지 않은데, 사람들이 너무 완벽하다고 믿는 게 더 큰 리스크야. 보안 시스템이든 채용 시스템이든,
결국엔 판단의 최종 책임은 인간에게 있어야 한다고 봐. 이번 사건은 단순히 웃고 넘길 일이 아니라,
“AI가 만든 판단의 결과를 누가 감당할 거냐”는 질문을 던지는 거지.

아무튼 앞으로 과자 들고 다닐 땐 조심하자.
특히 도리토스. AI 카메라가 “무기 감지 완료!”라고 외칠지도 모르니까 😂