트랜스포머: 똑똑한 문장 번역 마법사! 🧙♂️옛날에 문장을 번역하는 마법사 친구가 있었어요. 이름은 RNN이었는데, 문장을 앞에서부터 차례대로 읽으면서 번역하는 친구였죠. 그런데 RNN에게는 조금 아쉬운 점이 있었어요. 너무 긴 문장은 기억을 잘 못해서 번역을 제대로 못하는 경우가 있었거든요. 😥 새로운 마법사, 트랜스포머 등장!그래서 더 똑똑한 문장 번역 마법사가 나타났는데, 이름은 바로 트랜스포머였어요! ✨ 트랜스포머는 어떻게 번역할까?문장을 한 번에 쫙!: 트랜스포머는 문장을 앞에서부터 차례대로 읽는 대신, 문장 전체를 한 번에 쫙! 읽을 수 있어요. 마치 퍼즐 조각을 한꺼번에 펼쳐놓고 전체 그림을 보는 것과 같죠!어텐션 마법으로 중요한 단어 찾기: 트랜스포머는 '어텐션'이라는 특별한 마법을 ..
똑똑한 기억 창고를 가진 컴퓨터 친구! 📦🧠 RNN의 똑똑한 동생, LSTM!우리 친구들에게 RNN이라는 기억력을 가진 컴퓨터 친구를 소개해 준 적이 있죠? 그런데 RNN에게는 조금 아쉬운 점이 있었어요. 너무 오래된 기억은 잘 잊어버리는 경향이 있었거든요. 그래서 더 똑똑하고 오랫동안 기억할 수 있는 친구가 필요했는데, 바로 LSTM (Long Short-Term Memory) 이 등장했어요! 🎉 LSTM은 어떻게 기억할까?기억 창고 세 개: LSTM은 RNN보다 더 많은 기억 창고를 가지고 있어요. 마치 우리 친구들이 중요한 물건을 서로 다른 상자에 나눠 담아두는 것처럼 말이에요.필요한 기억만 쏙쏙: LSTM은 어떤 기억은 오랫동안 간직하고, 어떤 기억은 잊어버려야 할지 스스로 판단할 수 있어요..
기억력을 가진 똑똑한 컴퓨터 친구! 🧠우리 친구들은 어제 먹었던 저녁 메뉴를 기억할 수 있고, 방금 읽었던 문장의 내용을 기억할 수 있어요. 이건 우리 뇌 속에 '기억'이라는 특별한 능력이 있기 때문이에요. 컴퓨터에게도 기억력이 있다면?컴퓨터는 보통 바로 전에 입력된 정보만 기억하지만, 만약 컴퓨터에게도 우리처럼 '기억' 능력이 있다면 어떨까요? 컴퓨터는 훨씬 똑똑해지고, 더 다양한 일을 할 수 있을 거예요! RNN, 기억력을 가진 컴퓨터 친구!바로 이런 '기억' 능력을 가진 특별한 컴퓨터 친구가 있는데, 이름은 바로 RNN (Recurrent Neural Network) 이에요! 🤖 RNN은 어떻게 기억할까?정보를 순서대로 처리: RNN은 우리 친구들이 책을 읽는 것처럼 정보를 순서대로 하나씩 처리..
단어들의 비밀 친구 지도! 🗺️우리 학교 운동장에 커다란 지도가 펼쳐져 있어요. 이 지도에는 우리 반 친구들의 이름이 적힌 깃발들이 꽂혀 있어요. 그런데 이 지도는 그냥 지도가 아니에요! 친구들의 성격과 친밀도를 나타내는 신기한 지도랍니다. 비밀 친구 지도의 규칙비슷한 성격의 친구들은 가까이: 만약 영희와 철수가 둘 다 축구를 좋아하고 활발한 성격이라면, 영희와 철수의 깃발은 지도에서 가까운 곳에 꽂혀 있을 거예요.친한 친구들도 가까이: 만약 민수와 수지가 단짝 친구라면, 민수와 수지의 깃발도 지도에서 아주 가까운 곳에 꽂혀 있겠죠? Word2Vec, 단어들의 비밀 친구 지도!Word2Vec은 바로 이런 '단어들의 비밀 친구 지도'를 만드는 마법과 같아요! 🪄컴퓨터는 수많은 글을 읽고, 어떤 단어들이..
우리 반 친구들 이야기우리 반에는 친구들이 아주 많아요. 선생님께서 친구들에게 재미있는 이야기를 들려주셨는데, 어떤 친구는 "사과"를 좋아하고, 어떤 친구는 "바나나"를 좋아하고, 또 어떤 친구는 "축구"를 좋아해요. 특별한 단어 찾기 게임!선생님께서 이야기를 듣고 나서 "어떤 단어가 우리 반 친구들에게 가장 중요할까?" 궁금해졌어요. 그래서 우리 반 친구들이 어떤 단어를 얼마나 많이 이야기했는지 세어보기로 했어요. TF (단어 빈도): 얼마나 자주 나왔니?먼저, 각 친구들이 이야기 속에서 어떤 단어를 얼마나 많이 말했는지 세어봤어요. 예를 들어, "사과"를 좋아하는 친구는 "사과"라는 단어를 많이 말했겠죠? 이걸 TF (단어 빈도) 라고 해요.중요한 것은, 만약 "친구"나 "그리고" 와 같은 흔한 단어..
원-핫 인코딩 상자 등장!우리는 특별한 마법 상자, 바로 원-핫 인코딩 상자를 준비했어요! 이 상자에 "사과", "바나나", "포도"를 넣으면, 짜잔! 컴퓨터가 이해할 수 있는 숫자로 변신한답니다. ✨ 어떻게 변신할까?단어 목록 만들기: 먼저 우리가 말할 단어들을 모두 적어봐요. (예: 사과, 바나나, 포도)순서 정하기: 단어들에게 순서를 매겨요. (예: 사과 - 1번, 바나나 - 2번, 포도 - 3번)숫자 방 만들기: 각 단어마다 자기만의 방을 만들어줘요. (예: 사과 방, 바나나 방, 포도 방)나머지는 0으로 채우기: 각 단어 방에 자기 자리에만 1을 넣고, 나머지 방에는 0을 넣어줘요.예시:단어숫자 변신 사과1 0 0바나나0 1 0포도0 0 1 마법 상자의 단점도 있어요!단어가 많아지면 방도 많아져..
서울아산병원 연구팀이 악성 공격으로 LLM의 보안 취약성을 실험한 결과, 최대 81%의 공격 성공률을 보임. 즉, 환자 정보 유출 가능성이 매우 높다는 것을 의미. 악성 공격으로 LLM 보안 기능 무력화연구팀은 LLM 프롬프트를 변형하는 방식으로 악성 공격을 시도했고, 이를 통해 LLM의 보안 장치를 우회하여 개인 정보에 접근LLM, 학습 데이터 노출 위험LLM이 답변을 생성하는 과정에서 학습된 원본 데이터가 노출될 가능성도 최대 21.8%로 나타남구체적인 환자 정보 및 의료진 정보 유출 가능성:실제로 수술 준비 시스템에 적용된 LLM을 대상으로 실험한 결과, 환자의 민감한 정보뿐만 아니라 의료진의 정보까지 노출되는 것을 확인의료 분야 LLM, 데이터 보안 강화 필수연구팀은 의료 분야에서 LLM을 활용할..
무료 이용이 가능한 경량 LLM 비교 Google Gemma가 가장 우수 LLM Model 라이센스 상업적 이용 Pretraining size (tokens) Leaderboard socre LLama 2 70B Chat (reference) Llama 2 license O 2T 67.87 Gemma-7B Gemma license O 6T 63.75 DeciLM-7B Apache 2.0 O unknown 61.55 PHI-2 (2.7B) MIT O 1.4T 61.33 Mistral-7B-v0.1 Apache 2.0 O unknown 60.97 Llama 2 7B Llama 2 license O 2T 54.32 Gemma 2B Gemma license O 2T 46.51 LLamma는 META LLM, G..