
총 3개
-
자연어처리 대표논문 읽기 과제2025.01.121. 신경 기계 번역 신경 기계 번역은 최근에 제안된 기계 번역 접근법으로, 기존의 통계 기계 번역과 달리 단일 신경망을 구축하여 번역 성능을 극대화하는 것을 목표로 합니다. 본 논문에서는 기존 신경 기계 번역 모델의 한계를 극복하기 위해 RNN 검색 모델을 제안하였고, 이를 통해 소스 문장의 관련 단어나 주석과 대상 단어를 올바르게 정렬할 수 있게 되었습니다. 실험 결과 제안된 모델이 기존 인코더-디코더 모델을 크게 능가하고 문장 길이에 더 견고한 것으로 나타났습니다. 2. 기계 번역 기계 번역은 소스 문장 x의 조건부 확률 p(...2025.01.12
-
Transformer 기술이 바꿔버린 AI의 세상2025.05.081. Transformer 기술 Transformer 기술의 출현은 NLP 분야의 혁명과 같았습니다. RNN(순환 신경망)과 같은 이전 기술은 병렬 처리가 불가능하여 GPT와 같은 많은 양의 언어학습을 위해서는 수백년이 걸릴수 있었습니다. 반면, Transformer 기술은 병렬 처리가 가능하여 여러개의 GPU를 병렬로 가동시키면 수백년걸릴 학습기간을 몇개월로 단축시킬 수 있어 대규모 언어를 학습하는 데 사용할 수 있게 되었습니다. 이는 GPT와 같은 생성 AI의 발전에 중요한 획을 그었습니다. 2. Attention 메커니즘 At...2025.05.08
-
생성형 인공 지능 입문 족보 대비 문제은행(오프라인 기말고사, 세종대)2025.01.151. 생성형 인공지능이란? 생성형 인공지능은 데이터 전처리, 모델 학습, 결과 생성으로 구성되며, GPT와 ChatGPT와 같은 모델이 대표적입니다. 생성형 인공지능은 텍스트, 이미지, 소리, 동영상 등 다양한 콘텐츠 생성에 활용되지만, 데이터 의존성, 모델 복잡성, 윤리적 문제 등의 한계가 있습니다. 이를 해결하기 위해 데이터 증강, 전이 학습, 하드웨어 개선, 효율적인 알고리즘 개발 등의 방안이 필요합니다. 2. 언어 처리 신경망 개요 RNN은 순차 데이터 처리를 위해 필요하지만, 기울기 소실 문제가 있습니다. LSTM과 GRU...2025.01.15