목차
Fog, Bert, JSFireTruck, Meta AI: 교차 위협이 붕괴시키는 디지털 신뢰
2024년 후반부터 등장한 Fog와 Bert 랜섬웨어, JSFireTruck 웹 기반 악성코드 캠페인, 그리고 2025년 중반 Meta AI 프롬프트 논란까지… 이들 위협은 단일 기술 문제를 넘어 디지털 환경 전반의 ‘신뢰 구조‘를 무너뜨리고 있습니다.
이번 포스팅에서는 Meta AI 프라이버시 누출 사태를 중심으로, 교차되는 위협 구조의 공통점과 함께 실무에서 적용할 수 있는 보안 대응 전략을 세세히 살펴보겠습니다.
Meta AI 프롬프트 공개: UX 설계 결함과 디폴트 설정의 위험
2025년 6월, 일명 프롬프트 공개 사건, 사용자가 Meta AI에 입력한 프롬프트가 사용자도 모르게 전 세계에 게시된 사태가 발생했습니다. Facebook, Messenger, Instagram, WhatsApp 등 다양한 접점을 가진 메타 플랫폼의 구조는 사용자가 ‘공유’ 버튼의 위험성을 명확히 인식하기 어렵게 만들었습니다.
노출 메커니즘: 사용자 오해를 유발하는 공유 설계
- ‘Share’ 버튼 클릭 시, 경고 문구 없이 Discover 피드 노출로 전환.
- 개인 로그 저장처럼 보이는 UI 설계로 인해 사용자가 인지하지 못함.
- 클릭 몇 번으로 검색 결과나 추천 콘텐츠에 공개되는 구조.
프라이버시 보안상 주요 허점 요약
- 기본 설정이 ‘공개’ 상태로 유지.
- Messenger 등 일부 플랫폼에 종단간 암호화(E2EE) 미적용.
- 게시 후 삭제나 검색 결과 차단이 어려우며, AI 학습 데이터로 재활용 가능성 존재.
실제 노출 정보 유형 예시
- 교사의 해고 사유 관련 상담 대화
- 세금 신고, 학교 내부 갈등 같은 개인·조직 민감 이슈들
- 개발 정보, 프로토콜 설명, 사업 전략 등을 담은 업무 프롬프트
‘우리 회사 신규 서비스 기획안을 요약해줘’라는 프롬프트도 공개될 위험이 있습니다. SNS 피드 또는 검색 결과를 통해 정보가 유출될 수 있는 대표적인 구조입니다.
Meta AI 사용자가 반드시 확인해야 할 3가지 점검법
- ‘Meta AI’로 페이스북 내 검색
- Discover 피드에서 내가 입력한 프롬프트가 노출되는지 확인
- Facebook 설정 > 활동 로그 추적
- 메타 AI 대화 관련 로그가 남아 있는지 확인 및 수동 삭제
- 다중 테스트 계정으로 검색 결과 모니터링
- 보안팀이라면 검색 테스트로 프롬프트 유출 여부 사전 탐지 가능
Fog, Bert, JSFireTruck: 디지털 신뢰를 파괴하는 또 다른 기제들
Meta AI처럼, ‘기본 설정 기반의 신뢰 구조‘를 노리는 위협은 점점 증가하고 있습니다.
Fog: Google Sheets 은닉 채널 통한 내부 침투
- C2(명령제어) 채널로 Google Sheets 사용 → 탐지 회피
- 관리자 권한 탈취 이후 내부 시스템으로 후속 공격
Bert: 자동화된 랜섬웨어 겸 협박 수단
- 조직 내 문서 확산 및 공유 스토리지 암호화
- 공격 조직에 최적화된 자동화 랜섬 서비스(RaaS)
JSFireTruck: 웹사이트 신뢰 구조 마비시키는 악성 JS 캠페인
- 콘텐츠 전달 네트워크(CDN), CMS 등 기반 시스템을 타깃으로 감염
- 26만 개 웹사이트 감염 사례 보고됨
생성형 AI + 자동화: 공격의 리스크 곡선 가속화
OpenAI의 2025년 6월 리포트에서는 아래와 같은 다국적 시나리오가 이미 현실화되었습니다:
- 북한: 가짜 AI 생성 이력서를 통한 개발자 침투
- 중국: AI 조작 프롬프트로 소셜미디어 여론 조작
- 러시아: AI기반 C2 명령 설계 자동화
즉, AI는 공격자의 실드도 되고, 무기도 됩니다. Meta AI 또한 이 환경 내에서 사용자 입력 프롬프트가 공격 벡터로 재전환될 수 있는 사례로 읽어야 합니다.
내부 시스템 정보가 포함된 프롬프트가 Discover로 공개 → 경쟁사나 위협 주체가 수집 및 악용 가능
교차 위협을 하나의 축으로 정리하기
모든 위협은 디지털 신뢰 인프라를 뿌리에서 흔든다는 공통점을 가지고 있습니다.
위협 명칭 | 공격 방식 | 대상 자산 | 신뢰 붕괴 지점 |
---|---|---|---|
Fog | 정찰 + GC2 채널 | 내부 계정, 시스템 | 권한 기반 내부 신뢰 |
Bert | 자동화 랜섬, 협박 | 문서, 스토리지 | 데이터 무결성 & 협업 시스템 신뢰도 |
JSFireTruck | 악성 JS + CDN 확산 | 방문자, 사이트 UI | 코드 신뢰도 및 서비스 접점 |
Meta AI | 공개 설정 디폴트, UX 결함 | 사용자 프롬프트 | 프라이버시의 기본값 구조 |
실무 대응 전략: 예측 가능한 보안 체계를 위한 리디자인
1. 생성형 AI 사용자 보안 가이드 수립
- ‘AI에 입력해서는 안 되는 정보‘ 리스트 명문화
- 사내 정책으로 ‘비공개 설정 필수화‘, 권고 대상 프롬프트 기준 제시
2. 메타 AI 사용자 체크리스트 교육화
- 다음 항목 포함 체크리스트 배포:
- 조직명, 고객명, 제품명 포함 여부
- 계약 내용, 소스코드, API 키 포함 여부
- 해당 정보 공개 시 평판/법률 리스크 발생 가능 여부
요약: ‘모든 프롬프트는 공개될 수 있다’는 기본 전제가 필요합니다.
3. 웹 공급망 보호 및 신뢰 검증 강화
- CMS, CDN 보안 적용 점검: CSP, SRI 적용 여부 확인
- JSFireTruck 대응 위한 Third-party JS 무결성 검증
4. AI 사용 로그·활동 모니터링 통합
- EDR, CASB, IAM 간 연계를 통한 사용 흐름 추적
- AI 사용 로그가 플랫폼에 없을 경우, 기업 자체 추적 구조 도입 고려
5. 제로트러스트 기반 UX 설계 요구
- 메타 플랫폼에 UX 피드백 전달: 공유 버튼 클릭 시 다단계 확인
- ‘Only Me’를 디폴트 설정으로 전환 요구
결론: 기술보다 먼저 고려해야 할 것은 신뢰 설계
AI 시대, 가장 위험한 보안취약점은 테크놀로지가 아니라 설계 수준의 착시에서 발생합니다.
Fog는 은폐, Bert는 강요, JSFireTruck은 서비스 기반을 흔듭니다. 여기에 Meta AI는 매우 평범한 사용 환경 안에서 신뢰의 기반을 허물어 버리는 위협입니다.
조직에서 다음 세 가지를 점검해 보세요:
- AI 플랫폼에 대한 프라이버시 기본 설정이 적절하게 적용되어 있는가?
- 업무 담당자의 입력 행동이 보안 정책에 부합하는가?
- 기술 대응 이전에, 정책 중심의 ZTA(Zero Trust Architecture)가 기획되어 있는가?
디지털 신뢰는 기술적 기능이 아니라, 설계 상의 기본값에서 시작됩니다.
레퍼런스
- ‘Your Meta AI chats might be public’, https://www.malwarebytes.com/
- ‘The Meta AI app is a privacy disaster’, https://techcrunch.com/2025/06/12/the-meta-ai-app-is-a-privacy-disaster/
- Meta’s Privacy Center, https://www.facebook.com/privacy/center/
- ‘ZDNet: Meta AI prompts might be public – here’s how to check’, https://www.zdnet.com/article/your-embarrassing-meta-ai-prompts-might-be-public/
- JSFireTruck 캠페인 분석, https://thehackernews.com
- Fog 랜섬웨어 분석, https://blog.sygnia.co/fog-ransomware-analysis
- Bert ransomware 분석, https://grahamcluley.com
- NIST SP 1800-35 가이드라인, https://nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.1800-35.pdf
- OpenAI AI 기반 위협 보고서, https://openai.com/global-affairs/disrupting-malicious-uses-of-ai-june-2025/