요즘 ChatGPT로 웹 검색 많이 하시나요? 아니면 Perplexity나 다른 AI 검색 도구들 써보셨나요? 저는 요즘 뉴스 찾거나 궁금한 게 생기면 막 AI한테 물어보거든요. 그런데 이런 AI 브라우저 기능에 심각한 보안 취약점이 있다는 소식, 들으셨나요?
오픈AI가 최근 블로그 포스트를 통해 솔직하게 털어놓았어요. ‘프롬프트 인젝션(Prompt Injection)’이라는 공격을 완전히 막는 건 사실상 불가능에 가깝다고요. 이게 뭐냐면, 해커가 웹페이지나 이메일 안에 악성 명령어를 숨겨두는 거예요. AI가 그 페이지를 읽다가 모르고 숨겨진 명령을 따라 악의적인 행동을 하게 만드는 공격이에요.
진짜 무서운 예시를 오픈AI가 직접 보여줬는데, AI 비서에게 ‘부재중 회신 작성해줘’라고 시켰더니, 해커가 숨겨둔 명령에 속아서 **사직서를 보내는** 상황이 벌어졌다고 해요. 완전 소름 돋죠? 마치 제 비서가 해고당하라고 배신한 것 같은 느낌이에요.
근데 신기한 건, 오픈AI를 포함한 여러 전문 기관들이 “이 문제는 영원히 완전히 해결되지 않을 수도 있다”고 한목소리로 말한다는 거예요. 영국 국가 사이버 보안 센터도 비슷한 경고를 했고, Brave 브라우저 팀도 이건 구조적인 문제라고 지적했거든요. 결국 AI가 인간의 언어를 이해하고 행동한다는 그 자체가 위험을 열어둔 셈이네요.
그럼 포기해야 하나요? 아니에요. 오픈AI의 전략은 좀 특이해요. ‘완벽한 방어벽’을 쌓는 대신, **해커보다 먼저 스스로 공격해보는 AI**를 만드는 거죠. ‘LLM 기반 자동화 공격자’라고 이름 붙인 이 AI는, 마치 해커 역할을 하도록 훈련되어서 자꾸자꾸 AI 비서의 약점을 찾아 공격을 시뮬레이션 해요. 실제 해커가 찾기 전에 자기들끼리 싸워보면서 보안 허점을 미리 발견하겠다는 전략이에요.
제 생각엔 이건 마치 백신을 개발할 때 약한 바이러스를 먼저 주사하는 것과 비슷한 원리인 것 같아요. 스스로를 공격해보며 면역력을 키우는 거죠.
솔직히 말씀드리면, 이 소식을 듣고 나니 AI 브라우저를 막무가내로 믿고 중요한 일을 맡기기는 좀 겁이 나네요. 하지만 동시에, 이런 문제를 오픈AI가 투명하게 공개하고 지속적인 도전과제로 인정하는 모습은 또 어느 정도 신뢰가 가요. 기술이 발전할수록 새로운 위험도 함께 딸려오는 법이니까요.
앞으로 AI 도구를 사용할 때는, 정말 중요한 개인정보나 결정은 사람이 최종 확인하는 습관을 들이는 게 현명해 보여요. AI는 편리한 도구이지만, 결국 책임은 우리에게 돌아오는 거니까 말이죠. 기술이 안전해지기까지 우리의 ‘디지털 건강관리’도 필요한 때인 것 같네요.
—
원문: [TechCrunch](https://techcrunch.com/2025/12/22/openai-says-ai-browsers-may-always-be-vulnerable-to-prompt-injection-attacks/)