총 2,431개
-
생성형 인공지능이 집단지성을 갖게 되면 인간과의 전쟁을 일으킬 가능성2025.05.081. 인공지능 개요 인공지능은 컴퓨터 시스템이 인간의 학습, 추론, 의사결정과 같은 지적 작업을 모방하고 수행할 수 있는 기술을 말한다. 인공지능은 기계학습, 딥러닝, 자연어 처리, 컴퓨터 비전 등 다양한 기술과 분야에서 발전해왔다. 2. 집단지성 개념 집단지성은 많은 개인의 지식과 의견을 활용하여 문제를 해결하거나 의사결정을 하는 개념이다. 개인의 능력을 넘어서는 결과를 얻을 수 있는 특징이 있다. 집단지성은 모든 구성원이 평등하게 기여하는 형태와 전문가 중심의 형태로 나뉜다. 3. 생성형 AI와 집단지성의 결합 생성형 AI는 기...2025.05.08
-
인공지능에 대한 공포, AI 포비아 극복 방안2025.05.091. AI 포비아 극복 방안 AI 전문가들 사이에서도 AI 리스크에 대한 시각이 엇갈리고 있다. 최근 AI 기술이 급속도로 발전하면서 AI에 대한 우려와 공포가 확산되고 있다. 이러한 AI 포비아를 극복하기 위해서는 투명하고 예측 가능한 AI 질서 구축, AI 기술에 대한 엄격한 규제와 자격 요건 관리, 기업의 자발적인 AI 대응 기준 및 가이드라인 마련, AI 전문가와 기업의 사회와의 적극적인 소통 등이 필요하다. 또한 근거 없는 AI 대재앙에 대한 우려도 경계해야 한다. 1. AI 포비아 극복 방안 AI 포비아는 AI 기술에 대...2025.05.09
-
중앙대학교 글쓰기 교양 반박칼럼쓰기2025.01.121. 인공지능(AI) 인공지능(AI)은 우리가 생활 곳곳에서 이용하고 있는 중요한 기술이다. 하지만 AI기술에 대해 부정적으로 바라보는 시선들이 있다. 그러나 이러한 문제들은 AI기술이 발전하면서 충분히 해결할 수 있을 것이다. 오히려 AI기술의 도입이 가져오는 긍정적인 측면을 보면 AI에 제동을 걸기보다는 산업 전반에 도입하는 것이 바람직하다. AI기술을 도입하면 기업의 업무 효율성을 높일 수 있고, 소비자에게 편의성을 제공할 수 있다. 현재는 AI기술의 과도기를 지나가는 중이므로 다양한 문제와 우려가 생길 수 있지만, 이는 일시...2025.01.12
-
AI 윤리기준과 인공지능(AI)의 거짓과 오류에 대한 대응 방안2025.05.071. AI 윤리기준 OpenAI는 AI 안전 대책을 발표했으며, 이는 지난달 미래생명연구소(FLI)가 공개한 공개서한에 대한 반응이다. 이탈리아는 챗 GPT 접속을 차단하고 개인정보보호법 위반 여부에 대한 조사에 착수했으며, 미국과 EU도 AI 규제 논의를 진행 중이다. 한국 정부도 2020년 AI 윤리기준 10개를 마련했지만 후속 논의가 부족한 상황이다. 2. AI의 거짓과 오류 챗 GPT4는 기존 3.5버전보다 현실적인 콘텐츠 제작 가능성이 40% 이상 높아졌지만, 여전히 많은 오류와 거짓말을 생성할 수 있다. 이는 AI 기술의...2025.05.07
-
디지털 헬스케어 산업에서 AI의 발전 방향: 의료 산업에서 AI 기반 애플리케이션 도입 사례를 중심으로2025.01.291. AI 기반 의료 애플리케이션 도입 사례 최근 의료서비스 분야는 디지털 전환으로 인해 다양한 변화를 맞이하고 있다. 이에 의료 관계자들은 디지털 기술을 빠르게 채택하고 통합하여 디지털 전환을 가속화하였으며, 이는 환자 진료 및 원무 행정 분야에서 변화의 원동력이 되었다. 본 글에서는 현재 도입되어 활용되고 있는 AI 기반 애플리케이션의 사례를 진료 분야와 원무 행정 분야로 나누어 살펴보고, 이들의 도전요인을 통해 헬스케어 산업에서 AI의 발전 방향성을 탐색해보고자 한다. 2. AI 기반 진료 애플리케이션 사례 미국 CHI Hea...2025.01.29
-
AI 기술 발전의 위험성과 안전한 개발의 필요성2025.11.121. AI 위험성과 불확실성 생성 인공지능의 등장으로 AI 위험성에 대한 경고가 증가하고 있다. 'AI 경계론'의 핵심은 AI가 얼마나 위험한지 정확히 파악하기 어렵다는 점이다. AI 훈련에는 막대한 데이터와 컴퓨팅 능력이 필요하며, 극소수 빅테크 기업을 제외하고는 AI 위험 주체에 접근하기 어렵다. 신경망 머신러닝의 아버지인 제프리 힌튼 교수는 AI의 위험성을 알리기 위해 구글을 떠났으며, 킬러 로봇과 비밀 연구의 가능성을 경고했다. 2. AI의 상식 부재와 비극적 결과 AI는 사법시험 합격 수준의 지적 능력을 갖추었으나 상식적으...2025.11.12
-
세계 AI 관련 윤리적 문제 발생의 심각성2025.05.011. AI 챗봇의 부작용 AI 챗봇은 잘못된 정보를 효과적으로 퍼뜨릴 수 있다. 구글과 MS가 AI 챗봇 시장에 뛰어들면서 부작용이 발생할 수 있다는 우려가 제기되고 있다. 2. AI 윤리 문제 세계에는 다양한 국가와 민족이 있으며, 한국이 일류 국가가 되기 위해서는 타국가와의 소통과 이해, 국제관계 개선이 필요하다. 구글과 MS의 AI 챗봇 경쟁에 따른 윤리적 문제가 발생할 수 있다. 1. AI 챗봇의 부작용 AI 챗봇은 편리성과 효율성을 제공하지만, 부작용도 존재합니다. 첫째, 챗봇은 개인정보 유출 위험이 있습니다. 사용자의 민...2025.05.01
-
챗GPT의 부작용과 해결 방안2025.05.011. 챗GPT의 부작용 챗GPT는 최근 데이터까지만 학습되어 있어 최신 정보를 알지 못하고, 잘못된 사실을 근거로 답변을 제공할 수 있다. 특히 의료, 교육 분야에서 잘못된 정보를 제공할 경우 심각한 결과를 초래할 수 있다. 또한 챗GPT의 CTO도 AI가 사실을 지어낼 수 있다고 언급하며 AI의 한계를 인정했다. 2. 챗GPT 해결 방안 챗GPT의 부작용을 해결하기 위해서는 AI 윤리와 규제가 필수적이다. 기술 발전 속도에 맞춰 AI 서비스에 대한 안전장치를 마련하고, 어떻게 사용할지에 대한 기준을 마련해야 한다. 또한 인간의 기...2025.05.01
-
인공지능(AI)의 역사, 현황 및 응용2025.11.181. 인공지능의 역사 및 발전 인공지능의 개념은 14세기까지 거슬러 올라가지만, 1955년에 '인공지능'이라는 용어가 공식적으로 처음 만들어졌다. 이는 앨런 뉴웰, 허버트 사이먼, 클리프 쇼에 의해 개발된 최초의 AI 컴퓨터 프로그램의 발명과 함께 이루어졌다. 인공지능은 인간의 지능을 시뮬레이션하여 기존 기술이 할 수 없었던 일들을 수행한다. 2. 인공지능의 현재 상태 및 과제 최초의 AI 프로그램 개발 이후 거의 70년이 지났음에도 불구하고, 인공지능 기술은 여전히 불안정한 기반 위에 있다. 현재까지 강력한 형태의 인공지능(Str...2025.11.18
-
생성 AI의 정의와 문화산업에 미치는 영향2025.01.241. 생성 AI의 정의 생성형 AI(Generative AI)란 사람이 직접 지시하는 것 없이 자기 스스로 학습할 수 있는 알고리즘을 말하며, 새로운 디지털 이미지 및 영상과 음성, 텍스트, 코드 등을 생성해내는 알고리즘을 가리킨다. 현재까지 대부분의 AI가 사람이 이미 분류해 둔 데이터들을 사용하여 개발되었으나 생성형 AI는 데이터의 패턴과 특성, 균형을 스스로 생성한 데이터를 생산해낸다. 또한 데이터가 가지고 있는 자체의 특징을 스스로 살피고 이를 통해 알아낸 합성 데이터(synthetic data)를 이용하여 자기 스스로를 학...2025.01.24
