총 15개
-
트랜스포머 모델링2025.05.061. 트랜스포머 모델 트랜스포머는 어텐션만으로 구성된 신경망 모델로, RNN이나 CNN의 단점을 보완한 모델입니다. 트랜스포머는 어텐션 메커니즘을 사용하며, 단어를 동시에 고려할 수 있고 입력에 순서 정보가 없다는 특징이 있습니다. 트랜스포머 인코더는 멀티헤드 셀프 어텐션으로 구성되어 있으며, 트랜스포머 디코더는 마스크드 멀티헤드 셀프 어텐션을 사용합니다. 2. CNN의 문제점 CNN은 커널을 이용하기 때문에 이미지의 특징을 추출하는데 있어 국소적인 부분만을 고려하는 문제점이 있습니다. 3. RNN의 문제점 RNN은 시간의 흐름에 ...2025.05.06
-
ChatGPT 설명 및 이용 가이드2025.05.071. ChatGPT ChatGPT는 최근 인공지능 분야에서 주목받는 대화 모델의 일종입니다. 이 모델은 OpenAI에서 개발한 GPT(Generative Pre-trained Transformer) 모델의 일부로, 자연어 처리 기술과 딥러닝 알고리즘을 활용하여 인간과 대화하는 역할을 수행합니다. ChatGPT는 챗봇, 인공지능 비서, 상담원 등 다양한 분야에서 활용됩니다. 2. Transformer ChatGPT(Generative Pre-trained Transformer)은 딥러닝 기술 중 하나인 Transformer 구조를 기...2025.05.07
-
트랜스포머 알고리즘의 개요와 적용 사례2025.01.171. 트랜스포머 알고리즘 트랜스포머 알고리즘은 2017년 구글의 연구팀이 발표한 딥러닝 모델로, 자연어 처리(NLP) 분야에서 혁신적인 변화를 가져왔습니다. 이 알고리즘은 인코더-디코더 구조와 어텐션 메커니즘을 기반으로 하며, 병렬 처리와 확장성을 통해 대규모 데이터를 효율적으로 처리할 수 있습니다. 2. 트랜스포머 알고리즘의 구조 트랜스포머 알고리즘은 인코더와 디코더로 구성됩니다. 인코더는 입력 데이터를 고차원 벡터로 변환하고, 디코더는 이 벡터를 다시 출력 데이터로 변환합니다. 핵심은 어텐션 메커니즘으로, 입력 데이터의 각 요소...2025.01.17
-
트랜스포머 알고리즘의 개념과 적용 사례2025.01.251. 트랜스포머 알고리즘의 개념 트랜스포머 알고리즘은 주의 메커니즘을 기반으로 하는 딥러닝 모델로, 입력 데이터의 각 요소가 다른 모든 요소와의 관계를 고려하여 변환된다. 이를 통해 순차적인 처리 대신 병렬 처리가 가능하게 되어 학습 속도가 크게 향상되었다. 트랜스포머는 인코더와 디코더로 구성되어 있으며, 각 단계에서 다중 헤드 자기 주의 메커니즘을 사용한다. 이 알고리즘은 2017년 구글의 연구팀이 발표한 논문에서 처음 소개되었다. 2. 트랜스포머 알고리즘의 구조 트랜스포머 모델은 인코더와 디코더 블록으로 구성되어 있다. 인코더는...2025.01.25
-
챗GPT에게 묻는 인류의 미래 - 김대식 교수와 생성인공지능과의 대화 1장 발췌 요약2025.05.041. 챗GPT의 정의와 '학습' 챗GPT는 오픈 AI가 개발한 대규모 언어 모델이다. 인간처럼 텍스트를 이해하고 생성할 수 있도록 학습되었다. 또 질문에 대답하기, 정보 제공하기, 글쓰기 돕기와 같은 다양한 작업을 보조할 수 있다. 챗GPT는 GPT(Genterative Pre-training Transformer 생성적 사전학습 트랜스포머) 모델의 변형으로, 한 문장 안에서 앞에 오는 단어의 맥락을 고려해 다음 단어를 예측하도록 학습되었다. 2. 작동원리: 트랜스포머와 신경망 챗GPT 모델은 텍스트처럼 순차적 데이터를 처리하는 데...2025.05.04
-
IT와 경영정보시스템 2024년 2학기 방송통신대 중간과제물: 인공지능(AI) 학습을 위해 고안된 LLM(Large Language Model)과 LMM(Large Multimodal Model) 비교 및 Deep Learning과의 관계2025.01.261. 인공지능(AI)의 정의 1956년 미국의 수학자이자 과학자인 존 매카시가 '인공지능'이라는 용어를 처음 제안한 이후, 인공지능 연구는 지속적으로 발전해왔으며 여러 분야에서 인간의 능력을 점점 뛰어넘고 있다. 인공지능은 컴퓨터 과학과 방대한 데이터 세트를 활용하여 문제를 해결하는 기술 분야로, 머신러닝과 딥러닝이 인공지능의 하위 분야를 구성한다. 2. 인공지능의 역사 인공지능에 대한 논의는 1950년대부터 시작되었으며, 앨런 튜링, 마빈 민스키, 존 매카시 등의 선구자들이 기계의 사고 가능성을 탐구하며 인공지능 연구의 기반을 마...2025.01.26
-
정신분석 상담의 인간관과 무의식의 영향2025.11.141. 주의 이론(Attention Theory) 인간의 주의는 경험하는 모든 것 중에서 중요하다고 생각되는 것에 초점을 맞추는 경향이 있다. 극장 화재 경보 사례에서 보듯이, 주의는 때로 상황 이해를 방해할 수 있으나, 외부 자극에 의해 경각심이 불러일어나면서 상황 대처가 가능해진다. 주의력은 경험하는 세상에서 중요한 정보를 필터링하고 선택하는 능력으로, 어떤 정보를 살펴보고 무시할지를 결정한다. 2. 기억 이론(Memory Theory) 기억 이론은 인간이 경험한 사건을 어떻게 기억하고, 어떤 상황에서 기억이 잘 되는지를 설명한다...2025.11.14
-
Transformer 기술이 바꿔버린 AI의 세상2025.05.081. Transformer 기술 Transformer 기술의 출현은 NLP 분야의 혁명과 같았습니다. RNN(순환 신경망)과 같은 이전 기술은 병렬 처리가 불가능하여 GPT와 같은 많은 양의 언어학습을 위해서는 수백년이 걸릴수 있었습니다. 반면, Transformer 기술은 병렬 처리가 가능하여 여러개의 GPU를 병렬로 가동시키면 수백년걸릴 학습기간을 몇개월로 단축시킬 수 있어 대규모 언어를 학습하는 데 사용할 수 있게 되었습니다. 이는 GPT와 같은 생성 AI의 발전에 중요한 획을 그었습니다. 2. Attention 메커니즘 At...2025.05.08
-
인간의 주의 및 기억 이론과 개인 경험 분석2025.11.141. 주의(Attention) 이론 인간의 주의는 매우 유한한 자원으로, 우리가 경험하는 정보 중 특정 부분에만 집중할 수 있다. 주의력에 대한 연구에서는 일시적인 주의의 한계를 보여주는 실험 결과가 있으며, 지속적인 주의를 유지하는 것이 기억력에 긍정적인 영향을 미치는 것으로 나타났다. 이는 우리가 자신의 경험에서 매우 특별한 사건을 기억할 수 있는 이유를 설명한다. 2. 기억(Memory) 이론 자신의 경험에서 일어난 독특한 사건에 대한 기억은 감정적으로 중요한 정보에 대해 더욱 강하게 기억되는 경향이 있다. 그러나 이러한 기억...2025.11.14
-
주의력과 기억력을 통한 인지심리학 이론의 실제 적용 사례2025.11.161. 주의력(Attention)의 개념과 기능 주의력은 제한된 정신적 자원을 효율적으로 사용하여 감각, 기억, 인지 과정으로부터 얻을 수 있는 방대한 정보 중 제한된 양의 정보를 집중적으로 처리하는 수단이다. 주의는 의식적 과정과 무의식적 과정을 모두 포함하며, 신호 감지, 선택적 주의, 주의 분할 등의 주요 기능을 수행한다. 주의의 본질은 의식을 한 곳에 집중시키고 여러 대상 중 하나를 명확하고 생생하게 포착하는 것이다. 2. 기억의 구조와 처리 과정 기억은 학습 과정에서 주어진 자료와 정보를 간직하고 필요할 때 기억해내는 능력이...2025.11.16
