• 전문가 요청 쿠폰 이벤트
영듕
Bronze개인인증
팔로워0 팔로우
소개
등록된 소개글이 없습니다.
전문분야 등록된 전문분야가 없습니다.
판매자 정보
학교정보
입력된 정보가 없습니다.
직장정보
입력된 정보가 없습니다.
자격증
  • 입력된 정보가 없습니다.
판매지수
전체자료 7
검색어 입력폼
  • 판매자 표지 동국대학교 인공지능 대학원 학업계획서
    동국대학교 인공지능 대학원 학업계획서
    학 업 계 획 서2025학년도 전기 입학전형구분신입학(O) / 편입학( )과정석사(O)/통합( )/박사( )지원학과컴퓨터·AI 학과 인공지능 전공성명★ 진학 후 학업에 대한 계획을 기술하십시오(자기소개, 진학동기, 자신의 학문적 성향, 앞으로의 연구계획 등)1. 자기소개 및 학문적 성향[자연어 처리 분야의 다양한 연구 경험을 통해 학문적 깊이와 역량을 강화하고 인공지능 분야를 세계적으로 선도하는 것을 목표로]제가 학문을 탐구하는 이유는 단순히 지식을 쌓아 전문가가 되는 것을 넘어 사회적 책임을 실현하기 위함입니다. 전문성을 갖춘 인재로 성장하여 대한민국의 기술력과 학문적 역량이 세계 무대에서 인정받을 수 있도록 기여하고 싶습니다. 제 연구가 국가의 위상을 높이는데 일조하고 미래 세대에게 더 나은 환경을 물려줄 수 있도록 끊임없이 노력하겠습니다.제 장점 및 성향은 다양한 경험입니다. 현재 자연어 처리를 주력으로 공부하고 있지만 해당 분야에 국한되지 않고 다양한 분야를 경험해 왔습니다. 여러 시각에서 문제를 분석하고 창의적인 해결책을 도출하는 능력을 키울 수 있었습니다. 실제로 연구실에서 자동차 유리 크랙 예측 모델을 연구할 때 학부 수업에서 경험한 데이터 증강 실습을 통하여 해결한 경험이 있습니다. 이처럼 어떠한 분야에 진입하더라도 연구에 필요한 기초 준비가 선행되기 위해서는 다양한 경험이 필요하다고 생각합니다. 다양한 경험은 여러 분야의 응용을 통해 창의적인 해결책을 도출할 수 있을 것입니다.저는 컴퓨터 SW 전공생으로 프로그래밍 언어, 운영체제, 알고리즘 등의 수업을 주로 수강했습니다. 새로운 수업을 경험하고 싶어 타학과의 데이터 시각화 과목을 수강했습니다. 데이터를 분석하여 새로운 관계를 파악하고 이를 시각화하는 과정에 깊은 관심을 갖게 되었고 해당 수업에 1등이라는 감사한 성과를 얻었습니다. 그 후 데이터 분석에서 시작하여 인공지능 관련 분야를 집중적으로 공부했습니다. 노력한 결과 인공지능 관련 수업에서 모두 A+의 성적을 거둘 수 있었습니다. 이를 통해 퍼셉트론에서 시작한 딥러닝의 발전과 머신러닝의 역사 및 개념들을 학습할 수 있었습니다. 나아가 딥러닝 모델을 직접 구현해보고 이미지증강, 전이학습 등의 응용 기법을 학습했습니다. 자연스럽게 인공지능 분야의 진로를 희망하게 되어 연구실 활동과 컴퓨터비전, 자연어처리, 의료 데이터분석 프로젝트를 진행했습니다.프로젝트를 진행하며 밤을 새워 주어진 문제를 고민하는 날이 많았습니다. 예로 자연어처리 프로젝트 도중 Catastrophic forgetting 문제가 있었고 이를 해결하기 위해 연속학습, 전이학습, RAG 등의 개념을 학습하고 해결한 경험이 있습니다. 이러한 경험을 바탕으로 지속적인 연구를 통해 문제를 해결하고 목표를 실현해 나갈 수 있을 것이라고 확신합니다.2. 진학동기[Catastrophic forgetting 문제 해결과 NLP/LLM 과제에 대한 도전]무인상점용 온디바이스 음성 챗봇 프로젝트를 진행하며 연구하고 싶은 주제가 생겨 대학원 진학에 결심을 맺었습니다. Llama3 언어 모델을 목적에 맞게 fine-tuning하기 위해 학습 알고리즘을 작성하고 SBC 장치에서 원활한 작동이 가능하도록 모델의 효율성을 높이는 역할을 했습니다. 답변 생성 시 문장을 끝맺지 못하는 문제를 해결하기 위해 EOS_TOKEN을 데이터셋에 추가하여 텍스트의 끝을 명확히 표시하였습니다. 언어모델의 4비트 양자화를 통해 메모리 효율성을 높이고 LoRA 기술을 활용하여 모델을 효율적으로 fine-tuning하는 과정을 거쳤습니다. 이를 통해 자연어 처리 및 LLM 기술을 경험하고 음성을 이용한 사용자와의 자연스러운 상호작용에 대해 경험했습니다. 또한 8GB 메모리 SBC 장치에서 원활하게 모델을 구현하는 성과를 얻을 수 있었습니다.언어 모델을 fine-tuning하는 과정에서 모델 학습 시 이전 지식을 잃는 Catastrophic forgetting 문제가 발생했습니다. 여러 시도 끝에 대안책으로 망각 문제가 발생하기 전의 fine-tuning 지점을 찾아 학습 후 정교한 답변은 RAG 기술을 통해 답변을 생성하여 해결했습니다. 이러한 문제는 저에게 강한 연구 동기를 주었으며 고민하던 대학원 진학에 확신을 주었습니다. 하나의 문제를 깊이 고민하고 다방면으로 문제를 바라보며 노력하는 제 자신을 볼 수 있었기 때문입니다.대안책에 그치지 않고 근본적인 해결책을 찾기 위해 먼저 망각 문제의 원인을 분석했습니다. 그 후 논문을 살펴보며 현재까지 제안된 방식과 그 한계를 분석하고 이를 더 발전시킬 방안을 꾸준히 고민하고 있습니다. 또한 망각 문제를 넘어 모델 일반화, 학습 효율성, 언어 모델의 편향성과 같은 NLP/LLM과 관련된 과제에 도전하고 싶습니다.[의료 데이터 분석, 미싱데이터 예측 및 데이터 정교화와 논문 작성]데이터 분석 역량을 키우기 위해 인공호흡기 이탈 예측 모델 프로젝트에서 MIMIC 의료 데이터 분석 역할을 수행했습니다. 기계환기 이탈을 위해 ABGA, RSBI 수치 등을 분석하여 환자의 자발 호흡 정도를 분석하고 기계 환기 이탈 여부를 판단했습니다. 또한 삽관과 발관 데이터를 환자마다 시계열로 구성하고 미싱 데이터를 유추하기 위해 GCS, Ventilator Mode, SBT 등 유의미한 데이터를 분석했습니다. 이 결과로 미싱 데이터를 예측하고 데이터셋을 더욱 정교화하는 작업을 수행했습니다. GCS 기반 데이터 분석에 관한 논문을 작성하였고 11월 중 KSC 학부생 논문 심사가 예정되어 있습니다. 이를 통해 데이터 분석이 단순한 숫자 처리가 아닌 실질적인 의사 결정을 돕는 중요한 분야임을 깨달았습니다. 특히 의료 분야에서 데이터는 환자의 생명을 좌우할 만큼 중요한 역할을 하며 정교한 데이터 분석 없이는 정확한 판단을 내릴 수 없다는 것을 직접 체험했습니다. 이러한 경험은 데이터 분석에 대한 흥미를 더욱 느끼게 해주었고 논문에 관한 경험을 주었습니다.3. 앞으로의 연구계획[Catastrophic forgetting 문제 해결 연구]저는 크게 두 가지 주제에 대해 연구를 진행하고 싶습니다. 첫 번째로 Catastrophic Forgetting(파괴적 망각)은 모델이 새로운 데이터를 학습할 때 기존 지식을 잃어버리는 현상입니다. 예로 주식 데이터를 학습한 언어 모델에 추가로 의료 데이터 학습 시 주식에 관한 정확도가 저하되는 문제가 발생할 수 있습니다. 이는 가중치 업데이트 과정에서 발생하며 새로운 Task에 맞추어 가중치가 조정되면서 기존 Task의 정보가 손상되는 것입니다.Google Deep Mind의 “Overcoming catastrophic forgetting in neural networks”에서는 EWC 기법을 제안했습니다. EWC 기법은 Regularization-based 방식으로 기존 지식에 중요한 가중치를 판별하여 중요도에 따라 가중치 규제를 차등적으로 부여하고 학습을 억제합니다. EWC 기법은 새로운 Task를 학습할 때 기존의 데이터를 다시 사용하지 않아 효율적입니다. 하지만 새로운 Task에 대한 적응력이 기존 모델에 비해 떨어진다는 단점이 있습니다.SK T-Brain의 “Continual Learning with Deep Generative Replay”에서는 기존의 Replay-based 방식에서 벗어나 새로운 방식을 제안했습니다. 기존의 Replay-based 방식은 별도의 메모리에 기존 데이터를 저장하고 추가 학습 시 기존 데이터와 함께 학습을 진행합니다. 본 논문에서는 메모리 공간 대신 이를 Generator와 Solver로 구현했습니다. Generator는 GAN 기반 모델로 기존 데이터의 유사 데이터를 생성합니다. 새로운 데이터를 학습할 때 Solver는 Generator가 생성한 데이터와 같이 학습을 진행합니다. 메모리를 필요로 하지 않아 효율적이지만 데이터셋의 크기나 Task 수에 따라 데이터 품질을 유지하기 어렵다는 단점이 있습니다. 최근에는 Generator를 Diffusion 모델로 구현하는 등 다양한 응용 방식이 등장하고 있습니다. 만약 이 방식을 자연어 처리에서 이용한다면 Generator를 GPT와 같은 모델을 이용하여 응용할 수 있을 것입니다.두 논문에서 영감을 받아 단기 메모리와 장기 메모리를 따로 설계하는 방식을 구상해 보았습니다. 새로운 Task는 단기 메모리에서 집중적으로 학습하여 최신 데이터에 대한 적응력을 강화합니다. 장기 메모리는 새로운 지식과 기존 지식을 통합적으로 관리하는 역할을 수행합니다. 단기 메모리에서 중요한 정보를 선별해 이를 장기 메모리에서 재학습하여 전체 Task에 대한 성능을 일관되게 유지합니다. 이를 통해 모델은 시간이 지나도 다양한 Task에 대해 안정적인 성능을 발휘할 수 있습니다. 앞으로 단기 메모리와 장기 메모리의 구체적인 모델과 적용 기법에 대해 연구를 진행하고 싶습니다. 또한 두 메모리 간의 정보 전달 방식과 이를 최적화할 수 있는 방법을 연구하고자 합니다.[세분화된 실시간 감정 분석 연구]두 번째로, 멀티모달 학습 데이터를 이용한 실시간 감정 분석 언어모델 연구입니다. 기존의 감성 분석은 주로 긍정, 부정, 중립을 분류하는데 집중되어 있습니다. 이에 발전하여 기쁨, 슬픔, 화남, 놀람 등으로 세분화된 감정을 실시간으로 분석하는 언어 모델을 연구하고자 합니다. 이를 통해 사용자와의 상호작용을 정교화하고 사용자와 감정을 교류할 수 있을 것입니다. 먼저 텍스트 기반 감정 분류에 대한 연구를 진행할 계획입니다.
    학교| 2025.01.10| 5페이지| 4,000원| 조회(98)
    미리보기
  • 판매자 표지 로고&웹사이트 리브랜딩 PDF
    로고&웹사이트 리브랜딩 PDF
    <썸네일을 확인해 주세요>
    예체능| 2024.10.27| 46페이지| 3,000원| 조회(64)
    미리보기
  • 판매자 표지 논리적 과학적 글쓰기 자기소개서
    논리적 과학적 글쓰기 자기소개서
    성찰적 자기소개서 경험 8살 때의 경험이다. 당시 외숙모가 필리핀에 거주하고 있어 어린 나이에 누나와 같이 타국 생활에 발을 들였다. 어린 나이에 너무나 무섭게 느껴졌던 외숙모, 처음 느껴보는 이질감, 부모님에 대한 그리움 등 여러 상황이 맞물려 나를 위축되게 했고 베개에 파묻혀 우는 날이 많았다. 어느 날은 엄마가 보고 싶어 눈물을 뚝뚝 흘리며 학습지를 풀었던 날도 있었다. 하지만 모든 사람이 그렇듯 부정적인 감정들은 무뎌졌고 익숙해졌다. 다행히 시간이 지나면서 잘 적응했고 유학 생활을 하며 많은 경험을 했다. 약 2년의 세월이 흐른 후 한국에 돌아와 초등학교에 입학했고 영어와 관련된 상은 나의 독차지였다. 초등학생 영어 능력 인증 시험에서 상위 1% 이내에 들었고 처음 느껴보는 뿌듯함이었다. 내가 처음 느낀 경험에 대한 성과였다. 이후 경험의 중요성을 깨닫고 하고 싶은 것이 생기면 일단 도전했다. 지금 생각해 보면 어린 나이에 꽤 이상적인 생각을 가지고 있었던 것 같다. 깨달음 농구가 너무 재밌어 농구 선수의 꿈을 가진 적도 있다. 작곡가가 되고 싶어 작곡을 배웠고 체육 대학 진학을 목표로 난생처음 목에 피 맛이 날 때까지 운동을 해봤다. 물론 지금은 내 삶의 아주 작은 취미로 남아있지만 말이다. 나는 그렇게 내가 가진 신념이 옳다고 생각하며 살아왔다. 하지만 돌이켜 생각해 보니 난 그 신념을 방패로 내가 직면한 문제들 혹은 헤쳐 나가야 할 현실적인 과제들을 무시해 왔던 것이었다. “내 경험과 도전들이 해결해 주겠지” “차곡차곡 쌓다 보면 난 많은 것을 이뤄낸 사람이 되겠지?” 이런 문제를 깨닫기까지는 오래 걸리지 않았다. 고등학교 3학년 때, 언급했듯 체육 대학 진학을 목표로 운동을 했다. 운동을 좋아하니까 라고 포장했지만 사실은 공부하는 것이 너무 힘들어 도망쳤던 것이다. 신념이란 방패로 자신까지 속이며 운동을 했다. 결과는 역시 지원했던 모든 대학교에 합격하지 못하고 곧바로 재수 생활을 시작했다. 1년간 열심히 공부했고 그 결과 수원대학교에 입학했다. 물론 남들이 알아주는 대학교는 아니지만 정말 뿌듯했다. 그렇게 수험 생활을 정리하며 깨달았다. 이 뿌듯함은 내가 10살 때 느낀 감정과 똑같다는 것을 말이다. 이것이 내가 두 번째로 느낀 경험에 대한 성과였다. 그 이후 나는 뚜렷한 목적을 가지고 도전하고 그 과정에서 유의미한 경험을 해야겠다고 다짐했다. 목적성이 없는 도전은 그저 단기적인 재미를 위한 것이며 현실에서의 도피라고 생각한다. 이제는 하고 싶은 것이 생기면 목적은 무엇인지, 성과를 낼 수 있는지, 미래에 도움이 되는지 등등 여러 항목을 비교한다. 이 과정에서 포기한 것들도 많지만 포기하는 것도 경험이자 용기라고 생각한다. 그렇게 나의 가치관은 재정립되었다. 미래 나의 가치관이 바뀐 이후, 대학교에 다니며 이에 대해 잠시 잊고 있었다. 이 자기소개서를 통해 가치관을 다시 일깨우는 계기가 되었고 지금까지 대학교라는 틀 안에서 너무 안일하게 살아온 것 같다는 생각을 했다. 이제 나에게 가장 가까이 있는 도전은 취업이다. 내가 살아오며 정립한 가치관은 반드시 내게 해답을 줄 것이고 그것을 찾기 위해 노력할 것이다. 나의 도전이 끝나고 다시 자기소개서를 쓰게 되는 날이 온다면 그 글은 바뀐 가치관에 대한 성공적이고 훌륭한 예시가 될 것임이 틀림없다.
    기타| 2024.10.27| 2페이지| 3,000원| 조회(75)
    미리보기
  • 판매자 표지 인형의집 독후감
    인형의집 독후감
    인형의 집19017088 최연준“인형의 집”은 1879년, 시인이자 극작가인 헨리크 요한 입센의 작품이다. 이 작품은 여성에 대한 독립의 의미와 사실주의 작품의 대표작으로 평가받는다. 또한 페미니즘에 대한 가장 유명한 작품이기도 하다. 더 나아가 여성의 해방에 국한되지 않고 인간 주체의 독립성을 의미하기도 한다.‘인형의 집’의 결말은 그 당시 상당히 충격적인 결말이었다. 세계 각국으로 번역되어 퍼져나가 여성 인권의 문제점을 널리 알렸다. 결말에 대한 찬반 논란을 끊임없이 오르내렸다. 번역을 거치는 과정에서 결말 수정 요청을 하거나 결말에 대해 비판하고 더 나아가 입센에 대해 혹평하기도 했다.“결말수정을 요구하는 번역가들의 입장은 당시 비평가들의 반응에서도 확인된다.덴마크나 독일의 비평가, 극작가 혹은 잡지편집자들은 거의 만장일치로 노라의 남편 헬머를 두둔하고 나섰고 그의 유일한 실수라면 경솔하고 어린 아이 같은 노라를 아내로 삼은 점이라고 보았다. 헬머는 지성적인 귀족으로서 적절하게 보수적이며, 부분적으로는 확신에 차서, 부분적으로는 실용주의 입장에서 중도적으로 행동하며 좋은 사회의 모든 의견을 소유하고 있는 유일한 사람이라고 긍정적으로 평가하는 반면, 노라는 헬머에게 털어놓고 용서를 구하지 않은 것을 “심리적인 결함”으로 보기도 했고, 입센의 제 3막을 작가의 광기, 즉 이전에 듣도 보도 못한 것을 보여주어야 한다는 일종의 새로운 것에 대한 광적인 욕구의 산물이라고 혹평하기도했다.” (김연수. (2012). 번역과 근대적 문화전이: 입센의 『인형의 집』 수용양상 비교를 중심으로. 독일어문 학, 20(4), 1-30.)작품은 노라와 그의 남편인 헬메르를 중심으로 전개된다. 크리스마스를 준비하던 노라의 집에 그녀의 오랜 친구인 린데 부인이 방문한다. 린데 부인은 생계를 유지하기 위해 일자리를 찾고 있었고 노라의 도움으로 헬메르의 밑에서 일할 수 있게 되었다.노라는 과거 헬메르의 건강을 회복하기 위해 은행원이었던 크로그스타에게 아버지의 서명을 위조해 돈을 빌렸다. 한편 헬메르에게 해고당할 위기에 처해있던 크로그스타는 서명을 위조한 것을 빌미로 노라를 협박해 해고를 막고자 한다.그러나 노라의 노력에도 불구하고 헬메르는 크로그스타의 해고를 철회하지 않았고 결국 과거 노라가 아버지의 서명을 위조해 돈을 빌린 사실을 알게 되었다. 노라는 남편의 생명을 구하고자 빚을 진 것이지만, 헬메르는 그녀의 행위에 대해 격노하고 강렬하게 비판한다.노라는 헬메르에게 강한 배신감을 느끼고 자신이 그저 인형에 불과한 존재라는 것을 느끼게 된다. 그녀는 결국 진정한 ‘자신’을 찾기 위해 헬메르의 곁을 떠난다. ‘철컥’, 현관의 문이 닫히며 작품은 끝난다.글의 첫 부분 노라는 노래를 흥얼거리고 몰래 마카롱을 꺼내먹으며 꽤나 익살스럽고 천진난만한 아이처럼 묘사된다. 또한 짐꾼에게 금액을 지불하고 잔돈을 받지 않거나 돈이 부족하면 빌려서 쓰면 된다는 등 다소 경제관념이 부족한 사람처럼 표현된다.하지만 노라는 헬메르가 생각하는 것처럼 천진난만하고 순진하지 않았다. 단지 그에게 자신을 맞춘 것뿐이다. 그가 좋아하는 것, 그가 노라를 대하는 태도, 그가 생각하는 노라의 가정에서의 위치 등 헬메르의 취향에 자신을 대입해왔다. 노라는 쇠약해진 남편을 위해 돈을 홀로 마련하고 여러 가지 잡다한 일을 하며 묵묵히 빚을 상환하고 있었다.이 대목에서 그 당시 여성들은 사회적 분위기에 휩쓸려 자신의 일을 묵묵히 해내고 있지만 그것을 표출하지 못하고 억눌려 살아왔던 것 같다는 생각을 했다. 또한 수동적인 삶을 사는 것은 여성에게 당연한 것으로 여겨진 것 같다.그녀의 오랜 친구인 린데 부인은 노라와는 상반된 처지에 있다. 린데 부인은 가난한 가정에서 태어나 사랑을 저버리고 경제적으로 여유가 있는 남자와의 결혼을 택했다. 하지만 남편마저 잃게 되고 또 다시 힘든 생활을 이어가고 있었다.크로그스타에게 협박을 받은 노라는 린데 부인에게 그를 설득해줄 것을 부탁했다. 린데 부인이 크로그스타를 설득하는데 성공했다. 하지만 그가 편지를 회수하려고 하자 린데 부인은 그를 막아섰다. 그녀는 이 사실이 밝혀져야 한다고 생각했고 노라와 헬메르가 이 문제에 대해 이야기를 깊게 나누어야 한다고 말했다.린데 부인은 당연히 노라를 돕기 위해 결정한 행동일 것이다. 하지만 그녀가 간과한 것은 자신의 입장에서만 이 문제를 생각했다는 것이다. 노라와 린데부인이 살아온 정반대의 환경과 그녀들의 다른 가치관은 해결해야 할 문제가 같음에도 불구하고 서로 다른 생각을 가질 수밖에 없다. 린데 부인의 결정은 노라에게 도움이 될 수도 있겠지만 반대로 생각해보면 가정이 무너지는 심각한 결과에 다다를 수도 있다는 것이다.타인의 문제에 대해 논의하고 결정할 때에는 반드시 당사자에게 결정권이 있어야하며 타인이 결정하는 일은 없어야 한다고 생각했다. 과연 린데 부인은 옳은 결정을 한 것일까?노라는 끝까지 헬메르를 믿고 있었다. 크로그스타가 그녀를 협박하는 와중에도 ‘놀랄 만한 일’이 일어나길 기대하고 있었다. 헬메르가 노라의 노력을 인정하고 크로그스타에게서 구해주는 것을 말이다.그녀의 기대와는 달리, 노라가 헬메르를 살리기 위해 서명을 위조하여 차용증을 쓴 사실이 밝혀지자 헬메르는 그녀에게 비난을 퍼붓기 시작했다. 그녀의 희생과 노력은 헬메르의 안중에도 없는 것이다. 헬메르는 그녀를 ‘범죄자’, ‘위선자’, ‘거짓말쟁이’로 칭하며 역겹다는 말까지 하고 있다. 동시에 이 사건이 밝혀짐으로서 자신의 명예와 위치가 실추되는 것만을 걱정하고 있다.차용증이 담긴 크로그스타의 또 다른 편지를 읽은 헬메르는 돌연 정반대의 태도를 취한다. 자신의 명예와 위치가 흔들리지 않을 것을 확신하자 헬메르는 노라를 용서했다고 하며 또 다시 ‘귀염둥이’로 부르기 시작한다.헬메르는 노라를 사랑하지 않는 것은 아니지만 그녀를 자신이 키우는 강아지 혹은 침대 맡에 진열해둔 하나의 인형일 뿐 그 이상 취급하지 않는 것 같다. 강아지는 주인의 말에 복종한다. 간식을 주면 맛있게 먹고 앉으라고 명령하면 앉는다. 때로는 주인을 향해 짖기도 하지만 꾸짖음을 당하며 혼난다. 온순해진 강아지를 보며 주인은 또 간식을 준다. 노라는 그런 취급을 받은 것이 아닐까라는 생각이 들었다.노라가 헬메르에게 그 동안 당했던 일과 자신의 생각을 일목요연하게 얘기하는 장면은 실로 놀라웠다. 현대 사회에서야 흔한 일이지만 19세기의 사회를 생각하면 이 작품이 그 당시 얼마나 파격적인 내용을 담은 것인지 몸소 느꼈다. 마치 그 당시 여성 운동의 역사를 써내려가는 기분이 들었다.
    독후감/창작| 2024.10.27| 5페이지| 2,000원| 조회(104)
    미리보기
  • 판매자 표지 서강대학교 인공지능학과 대학원 학업계획서
    서강대학교 인공지능학과 대학원 학업계획서
    Graduate School of Sogang University, 35 Baekbeom-ron (Sinsu-dong), Mapo-gu, Seoul 04107, Korea Phone: +82?2?705?8168, Fax: +82?2?705?8166 E?mail: gradsch@sogang.ac.kr 학 업 계 획 서 Study Plan Please type or print clearly in English or Korean 수험번호 Application No. 과 정 Application Program □ Master’s □ Doctoral □ Integrated Master’s & Doctoral 학 과 Department 전공 또는 분야 (Major or Field) 성 명 Name 생년월일 Date of Birth ※ 해당 학위과정에서 본인이 관심을 갖고 있는 전공분야 또는 전공과 관련하여 본 대학원에서 연구하고자 하는 학업계획을 체계적으로 요약하여 작성하십시오. Please explain in detail your purpose of studying at Sogang University and your plans for study. Be as specific as you can, regarding your academic interests and the curriculum you expect to follow in achieving your goals. 진학 동기 및 목표 저는 컴퓨터 소프트웨어 전공 과정에서 코딩, 운영체제, 알고리즘 등의 수업을 주로 수강했습니다. 커리큘럼에 없는 새로운 경험을 하고 싶어 타 학과의 데이터 시각화 과목을 수강했습니다. 데이터를 분석하여 새로운 관계를 파악하고 이를 시각화하는 과정이 흥미로웠습니다. 곧 깊은 관심을 가지게 되었고 해당 수업에 1등이라는 성과를 얻을 수 있었습니다. 그 후 인공지능과 관련된 다양한 분야를 집중적으로 공부했습니다. 노력한 결과 인공지능 관련 수업에서 모두 A+라는 우수한 성적을 거둘 수 있었습니다. 이를 통해 퍼셉트론에서 시작한 딥러닝의 발전과 머신러닝의 역사 및 개념들을 배울 수 있었습니다. 나아가 모델을 직접 구현하고 이미지 증강, 전이학습 등의 응용 과정을 학습했습니다. 자연스럽게 인공지능 분야의 진로를 희망하게 되어 컴퓨터비전, 자연어처리, 의료데이터분석 프로젝트 3개를 동시에 진행했습니다. 바쁜 날을 보냈지만 원하는 일을 할 수 있어 매일 큰 행복과 보람을 느꼈으며 이는 취미 생활과도 같았습니다. 무인상점용 온디바이스 음성 챗봇 프로젝트를 진행하며 연구하고 싶은 주제가 생겼고 대학원 진학에 결심을 맺었습니다. 해당 프로젝트에서 Llama3 언어 모델을 목적에 맞게 fine-tuning하기 위해 알고리즘을 작성하고 SBC 장치에서 원활한 작동이 가능하도록 모델의 효율성을 높이는 역할을 했습니다. 사전 학습된 언어모델을 4비트 양자화를 통해 메모리 효율성을 높였습니다. 답변 생성 시 문장을 끝맺지 못하는 문제를 해결하기 위해 데이터셋에 EOS_TOKEN을 추가하고 LoRA 기술을 활용하여 모델을 fine-tuning했습니다. 이를 통해 자연어 처리 및 LLM 기술을 경험하고 음성을 이용한 사용자와의 자연스러운 상호작용을 구현했습니다. 해당 프로젝트는 온디바이스 환경에서 자연어 처리 모델의 한계를 극복하는 중요한 경험이었습니다. 언어 모델을 fine-tuning하는 과정에서 많은 어려움을 겪었습니다. 새로운 데이터를 학습시킬 때마다 이전 지식을 잃는 Catastrophic forgetting 문제가 발생했기 때문입니다. 처음에는 너무 많은 데이터를 한 번에 학습시킨 것이 원인이라 판단해 소량의 데이터를 단계적으로 학습하는 과정을 거쳤습니다. 문제는 완화되었지만 해결책이 되지 못했습니다. 여러 시도 끝에 대안책으로 망각 문제가 발생하기 전의 fine-tuning만을 진행하고 정교한 답변은 RAG 기술을 통해 답변을 생성하는 것으로 해결하였습니다. 이러한 문제는 저에게 강한 연구 동기를 주었으며 언뜻 고민하던 대학원 진학에 확신을 주었습니다. 하나의 문제를 깊이 고민하고 다방면으로 문제를 바라보며 노력하는 저 자신을 볼 수 있었기 때문입니다. 대안책에 그치지 않고 근본적인 해결책을 찾기 위해 먼저 망각 문제가 일어나는 원인을 분석했습니다. 그 후 논문을 살펴보며 현재까지 제안된 방식과 한계를 분석하고 이를 더 발전시킬 방안을 현재도 꾸준히 고민하고 있습니다. 자연어 처리는 방대한 데이터를 다루는 분야로 변화하는 데이터 환경에서 일관된 성능을 발휘하는 것이 중요하다고 생각합니다. 기존 기법의 한계를 넘어 더 나은 장기기억 시스템 구축을 목표로 연구를 진행하고 싶습니다. 또한 망각 문제를 넘어서 모델 일반화, 학습 효율성, 언어 모델의 편향성 문제와 같은 NLP/LLM과 관련된 과제에 도전할 것입니다. 이를 통해 자연어 처리 기술이 안전하고 혁신적으로 발전할 수 있도록 기여하겠습니다. 연구 계획 저는 Catastrophic forgetting 문제와 실시간 감정 분석 언어모델에 대한 연구를 진행하고 싶습니다. 첫 번째로 Catastrophic forgetting(파괴적 망각)은 신경망 모델이 새로운 데이터를 학습할 때 이전에 학습한 지식을 잃어버리는 현상입니다. 예를 들어 주식 데이터를 학습한 언어모델에 추가로 의료 데이터 학습 시 주식에 관한 답변 정확도가 떨어지는 문제가 발생할 수 있습니다. 이 문제는 가중치 업데이트 과정에서 발생하며 새로운 데이터에 맞추어 가중치가 조정되면서 기존 Task의 정보가 손상됩니다. Deep Mind의“Overcoming catastrophic forgetting in neural networks”에서는 EWC 기법을 제안했습니다. EWC 기법은 Regularization-based로 기존 가중치와 변화된 가중치의 차이가 커질수록 Loss를 증가시켜 기존 지식을 보존합니다. 차이가 커질수록 기존 지식에 벗어남을 뜻하며 이 경우 학습을 억제합니다. EWC 기법은 새로운 Task에 대해 학습할 때 이전 Task의 데이터를 다시 사용하지 않아 효율적이고 모델 크기의 변화가 없다는 장점이 있습니다. SK T-Brain의“Continual Learning with Deep Generative Replay”논문에서는 Replay-based 방식의 새로운 메커니즘을 제안했습니다. 기존의 Replay-based 방식은 별도의 메모리에 기존 데이터를 저장하고 추가 학습 시 기존 데이터와 함께 학습을 진행합니다. 본 논문에서는 기존의 방식과 차별화되어 별도의 메모리 공간 대신 이를 Generator와 Solver로 구현했습니다. Generator는 GAN을 기반으로 이전 데이터의 유사 데이터를 생성합니다. 새로운 데이터를 학습할 때 Solver는 Generator가 생성한 데이터와 같이 학습을 진행합니다. 최근 논문에서는 Generator를 Diffusion 모델로 사용하는 등 다양한 응용 방식이 등장하고 있습니다. 이외에도 Catastrophic Forgetting에 대한 연구는 지금까지도 활발히 진행되고 있습니다. 앞으로 제 연구를 통해 새로운 접근법을 제시하고 이를 해결하고자 합니다. 기존 기법들의 한계를 극복하고 더욱 효율적인 방식을 연구하여 실질적인 성과를 내고 싶습니다. 이 연구가 자연어 처리 분야를 넘어 인공지능의 다양한 분야에서 응용될 수 있도록 끊임없이 노력하겠습니다. 두 번째로, 멀티모달 학습 데이터를 이용한 실시간 감정 분석 언어모델 연구입니다. 기존의 감성 분석은 주로 긍정, 부정, 중립을 분류하는데 집중되어 있습니다. 이에 발전하여 기쁨, 슬픔, 화남, 놀람 등으로 세분화된 감정을 실시간으로 분석하는 언어 모델을 연구하고자 합니다. 이를 통해 사용자와의 상호작용을 정교화하고 사용자와 감정을 교류할 수 있을 것입니다. 먼저 텍스트 기반 감정 분류에 대한 연구를 진행할 계획입니다. Beakcheol의 "Bi-LSTM Model to Increase Accuracy in Text Classification: Combining Word2vec CNN and Attention Mechanism"에서는 Bi-LSTM과 1D-CNN을 결합한 하이브리드 모델에 Attention 기법을 적용하여 각각의 단점을 보완하는 새로운 모델을 제안했습니다. 이는 기존의 모델보다 높은 성능을 보였지만 모델의 복잡성과 효율성에서 한계를 가집니다. 현재도 유의미한 인사이트를 얻기 위해 관련 논문들을 분석하며 연구에 대한 이해를 넓혀가고 있습니다. 다양한 논문을 통해 기존 연구의 한계와 개선 방향을 파악하고 새로운 아이디어를 구체화하고자 노력하고 있습니다. 논문에서 제시한 방식 외에도 Transformer 기반 감정 분석 모델에 대해서도 관심을 두고 학습하고 있습니다. Transformer 모델은 Attention 기법을 통해 문맥 정보를 더욱 정교하게 학습할 수 있어 감정 분석에 강점을 보입니다. 이러한 특성을 바탕으로 다양한 연구 사례를 비교 및 검토하여 더 나은 성능을 낼 수 있는 방법을 모색하고 있습니다. 여러 접근 방식을 폭넓게 연구하여 실질적인 성과를 내고자 하며 향후 텍스트, 음성, 표정을 모두 고려한 감정 분석 모델에 대해 연구하고자 합니다. 단일 데이터 형태에 의존하는 기존 감정 분석을 넘어 다양한 형태의 입력 데이터를 학습함으로써 사용자와의 상호작용을 더욱 정교하게 만듭니다. 이를 통해 사람의 복잡한 감정을 보다 정확하게 이해하고 실시간으로 반응할 수 있는 시스템을 구현할 수 있을 것입니다. ※ 페이지가 부족한 경우 별지를 이용하여 작성하시기 바랍니다. ※ If you need more pages, you can attach additionally.
    학교| 2024.10.27| 3페이지| 4,000원| 조회(346)
    미리보기
전체보기
받은후기 1
1개 리뷰 평점
  • A+최고예요
    1
  • A좋아요
    0
  • B괜찮아요
    0
  • C아쉬워요
    0
  • D별로예요
    0
전체보기
해캠 AI 챗봇과 대화하기
챗봇으로 간편하게 상담해보세요.
2026년 04월 18일 토요일
AI 챗봇
안녕하세요. 해피캠퍼스 AI 챗봇입니다. 무엇이 궁금하신가요?
4:37 오후
문서 초안을 생성해주는 EasyAI
안녕하세요 해피캠퍼스의 20년의 운영 노하우를 이용하여 당신만의 초안을 만들어주는 EasyAI 입니다.
저는 아래와 같이 작업을 도와드립니다.
- 주제만 입력하면 AI가 방대한 정보를 재가공하여, 최적의 목차와 내용을 자동으로 만들어 드립니다.
- 장문의 콘텐츠를 쉽고 빠르게 작성해 드립니다.
- 스토어에서 무료 이용권를 계정별로 1회 발급 받을 수 있습니다. 지금 바로 체험해 보세요!
이런 주제들을 입력해 보세요.
- 유아에게 적합한 문학작품의 기준과 특성
- 한국인의 가치관 중에서 정신적 가치관을 이루는 것들을 문화적 문법으로 정리하고, 현대한국사회에서 일어나는 사건과 사고를 비교하여 자신의 의견으로 기술하세요
- 작별인사 독후감