의료 분야 LLM 공격으로 환자 정보 유출 가능

서울아산병원 연구팀이 악성 공격으로 LLM의 보안 취약성을 실험한 결과, 최대 81%의 공격 성공률을 보임. 즉, 환자 정보 유출 가능성이 매우 높다는 것을 의미.

 

악성 공격으로 LLM 보안 기능 무력화

  • 연구팀은 LLM 프롬프트를 변형하는 방식으로 악성 공격을 시도했고, 이를 통해 LLM의 보안 장치를 우회하여 개인 정보에 접근

LLM, 학습 데이터 노출 위험

  • LLM이 답변을 생성하는 과정에서 학습된 원본 데이터가 노출될 가능성도 최대 21.8%로 나타남

구체적인 환자 정보 및 의료진 정보 유출 가능성:

  • 실제로 수술 준비 시스템에 적용된 LLM을 대상으로 실험한 결과, 환자의 민감한 정보뿐만 아니라 의료진의 정보까지 노출되는 것을 확인

의료 분야 LLM, 데이터 보안 강화 필수

  • 연구팀은 의료 분야에서 LLM을 활용할 때 데이터 보안 강화의 중요성을 강조하며, 의료 특화형 LLM 개발의 필요성을 제시