김윤경 연구소장

T3 Spark Lab 



생성형 AI와 디지털 마케팅을 융합해

‘퍼스널 브랜딩'의 새로운 길을 제시하는 전문가다.

17년간 인공지능 개발자로 활동한 후

존슨앤드존슨, 롯데쇼핑,  BGF리테일, JCKOREA 등에서 CMO를 역임하며 마케팅 현장 경험을 쌓았다.

 

현재 팬덤퍼널 대표로서 챗GPT 등 최신 생성형 AI를 활용한 브랜딩 전략을 연구·실천하며, 누구나 자신만의 브랜드와 가치를 창출할 수 있도록 돕고 있다.


AI인공지능 윤리·책임·거버넌스 구축을 위한 다자적 최소 윤리 프레임 제언

조회수 1635

1. 인공지능 시대, 윤리·책임·거버넌스의 당위성

인공지능(AI)은 현대 사회의 거의 모든 분야에서 전례 없는 혁신을 주도하고 있다. 의료 분야에서 질병 진단의 정확성을 높이고, 금융 분야에서 복잡한 데이터를 분석하여 효율적인 의사결정을 돕는 등 AI는 인류의 삶을 긍정적으로 변화시키는 강력한 도구로 자리 잡았다. 그러나 기술 발전의 속도가 가속화될수록, 그 이면에는 편향, 환각, 저작권 침해, 그리고 무기화와 같은 심각한 윤리적, 사회적 문제들이 함께 부상하고 있다. 이러한 문제들은 단순히 기술적 결함으로 치부할 수 있는 수준을 넘어, 사회의 근간인 공정성, 신뢰, 안전을 위협하며 새로운 형태의 불확실성과 갈등을 초래하고 있다.

이러한 상황에서, 인공지능이 인류의 복지를 증진하는 '도구'로서 그 본연의 목적에 부합하게 발전하기 위해서는 기술 개발과 활용을 포괄하는 견고한 윤리 및 거버넌스 체계를 구축하는 것이 필수적이다. 이 보고서는 인공지능 기술의 네 가지 핵심 윤리적 쟁점들을 심층적으로 분석하고, 기업, 정부, 그리고 시민이 각자의 역할을 명확히 하고 공동으로 지켜야 할 최소한의 윤리적 프레임을 제안함으로써 지속가능하고 상생하는 AI 생태계의 방향을 제시하고자 한다.


4a1c6695c8ff8.png

이미지 출처: Gemini Nano Banana로 생성


2. 인공지능의 네 가지 핵심 윤리적 쟁점과 심층 사례 분석

AI 기술이 사회 곳곳에 스며들면서 나타나는 윤리적 문제는 단순히 일회성 오류가 아닌, 시스템의 근본적 설계와 사회적 맥락에 뿌리내린 복합적인 현상이다. 다음은 인공지능 시대의 가장 중요한 네 가지 윤리적 쟁점과 이에 대한 심층 분석이다.


2-1. AI 편향 (Bias): 보이지 않는 차별과 불평등의 고착화

AI 편향은 기존의 사회적 편견, 차별, 고정관념을 학습하여 강화하고 증폭시키는 AI 시스템의 체계적이고 반복적인 차별을 의미한다.1 이는 단순히 무작위로 발생하는 기술적 실수가 아니라, 데이터 수집 및 알고리즘 설계 과정에 내재된 근본적인 문제의 산물이다.

가장 보편적인 원인은 데이터 편향(data bias)에 있다. AI 모델은 훈련 데이터에 존재하는 불균형이나 과거의 편향을 그대로 학습하여 예측과 의사결정에 반영한다.1 예를 들어, 과거의 남성 중심적 채용 데이터를 학습한 AI 채용 시스템은 남성 지원자에게만 높은 점수를 주며 여성을 차별하는 결과를 초래했다.3 이로 인해 해당 서비스는 결국 도입을 취소하게 되었으며, AI가 사람보다 공정할 것이라는 막연한 기대가 실제로는 더 큰 불평등을 야기할 수 있음을 보여주는 중요한 사례가 되었다.3

데이터 편향 외에도 알고리즘 편향(algorithm bias)은 데이터 자체는 공정하더라도 알고리즘의 설계 방식이 특정 기능을 우선시하여 불공정한 결과를 낳을 수 있다.1 또한, 개발자나 데이터 라벨링 작업자의 인지적 편향(human decision-making bias)이 주관적인 판단을 통해 AI 시스템에 스며드는 경우도 있다.1

이러한 편향의 위험성은 인간의 기본권과 직결되는 영역에서 특히 두드러진다. 미국의 사법 시스템에 활용된 COMPAS 알고리즘이 대표적인 예시이다. 재범 위험성을 평가하는 이 알고리즘은 흑인에 대해 편향된 결과를 내놓아 과잉 치안과 불공정한 형량을 유도한다는 비판을 받았다.5 이는 AI의 잘못된 판단이 한 개인의 자유와 삶에 돌이킬 수 없는 중대한 영향을 미칠 수 있음을 보여준다.5 이러한 사례들은 AI가 단순히 사회적 편향을 반영하는 거울이 아니라, 그 불완전성을 효율성과 합리성이라는 명목으로 정당화하고 시스템적으로 고착화하는 '증폭기(amplifier)' 역할을 수행할 수 있음을 시사한다. 따라서 생명, 자유, 재산 등 인간의 기본권과 관련된 고위험 AI 시스템에 대해서는 단순한 자율 규제를 넘어선 강력한 법적 감사 및 통제가 필요하다는 논의가 확산되고 있다.4


2-2. AI 환각 (Hallucination): 거짓을 진실처럼 둔갑시키는 위험

AI 환각 현상은 생성형 AI가 마치 사실인 것처럼 그럴듯하게 부정확하거나 존재하지 않는 정보를 제시하는 오류를 말한다.7 이는 인간의 기억 손상 시 그럴듯한 이야기를 꾸며내는 '작화증(confabulations)'과 유사한 특성을 보인다.7 환각은 불완전하거나 결함이 있는 훈련 데이터, 그리고 추론형 모델의 성능 한계 등에서 기인한다.9

AI 환각의 진정한 위험은 AI가 부정확한 답변을 매우 자신 있게 제시함으로써 사용자의 신뢰를 무너뜨린다는 데 있다.7 이러한 현상은 특히 정확성과 신뢰성이 생명인 법률, 의료와 같은 고위험 분야에서 치명적인 문제를 야기할 수 있다.9 실제로, 미국 와이오밍주 연방법원의 한 변호사는 챗GPT가 생성한 허위 판례를 인용했다가 벌금형을 부과받았다.9 이 사례는 AI의 환각이 단순히 정보의 오류를 넘어, 실제 법적 절차에 개입하여 재앙적인 결과를 초래할 수 있음을 단적으로 보여준다.

일상적인 영역에서도 환각은 심각한 문제를 일으킬 수 있다. 챗GPT가 인기 판다 '푸바오'에 대해 존재하지 않는 만화 캐릭터로 잘못 설명한 사례는 AI가 '만능'이 아니며, 그 결과물에 대한 비판적 검토가 필수적임을 강조한다.8 이러한 기술적 한계는 사용자에게 AI 리터러시 함양의 중요성을 부각시킨다. AI가 제공한 정보를 무비판적으로 수용하지 않고, 사실을 검증하며, AI의 한계를 이해하는 능력이 새로운 시대의 필수적인 사회적 역량이 되고 있다. 기업들도 챗GPT의 대화 기록 저장 옵션을 선택할 수 있게 하는 등 환각 문제 완화를 위한 기술적 노력을 병행하고 있다.12


2-3. AI와 저작권 (Copyright): 창작과 소유권의 경계

AI와 저작권 문제는 크게 두 가지 쟁점으로 나뉜다. 첫째, AI 시스템이 방대한 웹 데이터를 학습하는 과정에서 저작물이 무단으로 사용되는 것이 저작권 침해에 해당하는지 여부이다. 둘째, AI가 생성한 결과물의 저작권 주체는 누구인지에 대한 논란이다.13

AI 학습 데이터의 저작권 문제와 관련하여, 현재 여러 건의 법적 분쟁이 진행 중이다. 사진 에이전시 게티이미지는 생성형 AI 기업 스테빌리티 AI가 자사의 워터마크가 있는 사진을 무단으로 학습에 활용했다며 소송을 제기했다.14 이 소송은 AI 기업의 "대가 없는 콘텐츠 사용"에 대한 명확한 판단 기준을 요구하는 사례로, AI 산업과 기존 창작자 산업 간의 근본적인 충돌을 보여준다.15 유사하게, 뉴욕타임스(NYT)는 오픈AI가 자사 기사를 무단으로 학습에 이용해 저작권을 침해했다며 소송을 제기했으며, 법원이 오픈AI의 기각 요청을 받아들이지 않아 NYT 측에 유리한 국면이 형성되었다.16 이 법적 다툼은 단순히 법률적 해석의 차이를 넘어, AI가 기존의 창작물을 '변형'하고 '재조합'하여 새로운 가치를 창출하는 것에 대한 사회적 합의가 부재함을 드러낸다. 이는 저작권법이 기술의 속도를 따라가지 못하는 현상을 단적으로 보여준다.

한편, AI 생성물의 저작권 주체 문제에 대해, 대부분의 국가들은 '인간의 사상 또는 감정'을 표현한 창작물에만 저작권을 인정하므로, AI가 독자적으로 생성한 결과물은 저작권 보호 대상이 아니라는 입장이 주를 이룬다.13 그러나 인간의 지시나 개입이 있었을 경우, 그 인간이 저작권을 가질 수 있다는 주장도 존재하며, AI 제작자와 AI 이용자 중 누가 저작자가 될지에 대한 논의도 진행 중이다.13 이러한 논쟁은 AI 산업 발전과 기존 창작자 권리 보호라는 두 가치 사이의 균형점을 모색하는 것이 시급함을 시사한다.13


2-4. AI 무기화 (Weaponization): 안보와 사회 안전의 위협

AI 무기화는 AI 기술이 군사적 목적의 자율살상무기(LAWS)부터 민간 영역의 사이버 범죄, 사회적 혼란을 야기하는 도구로 악용될 수 있다는 우려와 관련이 있다.20

가장 첨예한 논쟁은 자율살상무기체계(LAWS)에 대한 것이다. LAWS는 인간의 개입 없이 스스로 판단하고 목표를 공격하는 무기로, 인간의 개입 상실과 도덕적 책임의 불명확성이라는 심각한 문제를 야기한다.21 국제사회는 LAWS에 대한 군비경쟁 심화와 함께 "핵위협에 버금가는 위협"으로 인식하며 군비통제 및 인간 통제의 최소 요건에 대한 논의를 진행하고 있다.23 인간의 개입 정도에 따라 ‘인간의 적극적 개입(human-in-the-loop)’ 모델과 같은 다양한 제어 방안이 논의되고 있지만, AI 알고리즘의 '블랙박스화'로 인해 상호 투명성 확보가 어렵다는 새로운 난점을 해결해야 한다.23

AI 기술은 민간 영역에서도 '무기'로 사용되어 사회적 혼란을 야기하고 있다. 딥페이크(Deepfake) 기술이 대표적인 사례이다.24 딥페이크는 허위 정보를 사실인 것처럼 유포하거나, 유명인이나 CEO를 사칭하여 거액의 자금을 빼돌리는 사기에 악용되고 있다.25 이러한 기술은 기존의 검증 및 보안 체계를 무력화시키며, 사회적 불신을 심화시킨다.25 특히, 딥페이크는 정치적 음해나 심지어 세계 지도자를 사칭한 허위 영상으로 지정학적 위협까지 가할 수 있는 잠재력을 지니고 있다.24 이러한 사례들은 AI 무기화의 핵심이 기술적 통제와 윤리적 책임의 동시적 상실에 있음을 보여준다.


쟁점

정의

주요 원인

대표 사례

핵심 영향

AI 편향

기존의 편견을 학습하여 강화·증폭시키는 체계적 오류

데이터, 알고리즘, 인간 편향

아마존 AI 채용, 

COMPAS 사법 시스템

사회적 불평등 심화, 

신뢰 붕괴

AI 환각

그럴듯한 거짓 정보를 

사실처럼 제시하는 오류

불완전한 학습 데이터, 

추론 능력 한계

법률 분야 허위 판례, 

GPT 푸바오 사례

시스템에 대한 신뢰 붕괴, 

중대한 의사결정 오류

저작권

AI 학습 및 생성 과정에서의 

저작물 무단 사용 및 소유권 문제

무단 사용, '공정 이용' 논란, 

소유권 불분명

Getty vs. Stability AI, NYT vs. OpenAI

창작 경제 혼란, 

창작자 권리 침해

무기화

AI 기술이 물리적·사회적 위해를 

가하는 도구로 악용되는 것

인간 통제 상실, 기술 악용

자율살상무기(LAWS), 

딥페이크 사기/정치적 음해

안보 위협, 

사회적 불신 및 혼란


3. 글로벌 AI 거버넌스 동향 및 현황 분석

AI의 윤리적 문제에 대응하기 위해 세계 각국과 기업은 다양한 거버넌스 체계를 구축하고 있다. 이들 접근 방식은 크게 법적 구속력을 가진 규제와 자발적 참여를 독려하는 프레임워크로 나뉜다.


3-1. 정부 주도 거버넌스: 강제적 법제화와 자율적 가이드라인

  • 대한민국 인공지능 윤리기준: 국내에서는 '사람 중심의 인공지능'을 최고 가치로 삼아, 인간 존엄성, 사회의 공공선, 기술의 합목적성이라는 3대 기본원칙을 제시하고 있다.27 이는 AI 개발부터 활용에 이르는 전 과정에 걸쳐 책임성, 투명성, 안전성 등을 강조하는 10대 핵심요건을 포함한 자율 규범의 성격을 가진다.27 이는 기술 혁신을 저해하지 않으면서도 윤리적 가이드라인을 제시하려는 접근법이다.
  • 유럽연합(EU) AI 법 (EU AI Act): EU는 AI 시스템을 위험도에 따라 '허용 불가', '고위험', '투명성 위험', '최소 위험'으로 분류하는 '위험 기반 접근법'을 채택했다.30 이는 인간의 기본권을 명확히 위협하는 AI 시스템(예: 사회적 점수 평가)을 명시적으로 금지하고, 고위험 시스템(예: 채용, 사법)에는 엄격한 기술적, 법적 의무를 부과한다.30 이 법은 강력한 법적 구속력을 통해 AI의 위험을 통제하려는 '하향식(top-down)' 접근의 대표 사례이다.
  • 미국 국립표준기술원(NIST)의 AI 위험관리 프레임워크 (AI RMF): NIST는 AI 기술의 위험과 기회에 대응하기 위해 AI RMF를 개발했다.32 이는 신뢰할 수 있는 AI 시스템 개발을 위한 지침을 제공하는 자발적 프레임워크로, '통치(Govern)', '매핑(Map)', '측정(Measure)', '관리(Manage)'의 4대 핵심 기능으로 구성된다.32 AI RMF는 시장의 자율성과 혁신을 존중하면서도 조직이 AI 위험을 식별, 분석, 완화할 수 있도록 지원하는 '상향식(bottom-up)' 모델이다.

이러한 글로벌 동향은 AI 거버넌스 논의가 '위험 기반 접근'으로 수렴하고 있으나, 이를 구현하는 방식에 있어 '법제화'와 '자율 규범'이라는 상이한 경로를 걷고 있음을 보여준다. 이는 각 국가가 인권과 안전을 우선시할 것인지(EU), 혹은 시장의 자율성을 통한 기술 혁신을 우선시할 것인지(미국)에 대한 가치관 차이를 반영한다.


3-2. 기업의 자율 규제와 윤리 실천

글로벌 빅테크 기업들은 AI 윤리 원칙을 수립하고 기술적 방안을 모색하며 자율 규제 노력을 기울이고 있다. 마이크로소프트는 '책임 있는 AI(Responsible AI)' 원칙에 따라 공정성, 신뢰성, 안전성, 투명성 등을 강화하고 있으며, AI의 의사결정 과정을 설명할 수 있는 '설명 가능한 AI(XAI)' 기술을 도입하고 있다.34 구글 또한 사용자 피드백을 적극적으로 반영하여 AI 모델의 성능과 신뢰성을 지속적으로 개선하는 체계를 운영한다.34

국내에서는 LG AI연구원이 유네스코와 파트너십을 맺고 AI 윤리영향평가와 거버넌스 체계를 모색하고 있으며 35, 카카오는 국내 기업 최초로 인공지능 알고리즘 윤리 헌장을 발표하며 차별 경계, 데이터 운영, 알고리즘 설명 등에 대한 원칙을 제시했다.36 이러한 기업들의 노력은 AI 윤리를 단순한 규제 준수 의무가 아닌, '윤리적 혁신의 리더'로 자리매김하고 '브랜드 신뢰도를 향상'시키는 핵심적인 경쟁 우위 요소로 인식하고 있음을 보여준다.37


3-3. 시민 사회의 역할과 참여

AI 거버넌스에서 시민의 역할은 기술에 대한 이해와 책임 있는 활용에 있다. 유네스코는 AI 기술과 데이터의 가치에 대한 시민의 이해를 증진하기 위한 교육과 참여의 중요성을 강조한다.38 시민은 AI가 생성한 결과물에 편향과 차별이 있는지 확인하고, 환각에 대비해 비판적인 사고로 정보의 진위를 검토하는 AI 리터러시를 함양해야 한다.11 또한, AI가 가져올 긍정적 변화를 극대화하고 역기능을 최소화하기 위한 사회적 공론화 과정에 적극적으로 참여하고, 기업과 정부의 AI 윤리 정책에 대해 능동적으로 피드백을 제공함으로써 건강한 AI 생태계 구축에 기여할 수 있다.34


프레임워크

성격

핵심 원칙

위험 분류

주요 특징

대한민국 윤리 기준

자율 규범

사람 중심성

(없음)

AI 전 생애주기 적용, 

다자적 공론화 기반

EU AI Act

법적 구속력

위험 기반 접근

허용 불가, 고위험, 

투명성, 최소 위험

명확한 법적 의무 부과, 

시장 통일성

NIST AI RMF

자발적 프레임워크

신뢰성(Trustworthiness)

통치, 매핑, 측정, 관리

유연성, 협업 중심, 

지속적 개선


4. 제언: 기업·정부·시민이 공동으로 지켜야 할 최소 윤리 프레임

인공지능의 윤리적 과제는 어느 한 주체의 노력만으로는 해결될 수 없다. 기업, 정부, 시민 모두가 각자의 역할과 책임을 명확히 인식하고 상호 협력하는 다자적 거버넌스 체계가 필요하다. 다음은 이러한 목표를 달성하기 위한 최소한의 윤리 프레임과 주체별 구체적인 실천 방안이다.


4-1. 프레임의 기본 원칙 (공동의 약속)

  • 인간 중심성 (Human-Centricity): AI는 인간의 존엄성과 기본적 자유를 존중하고, 삶의 질 향상과 인류의 복지 증진에 기여하는 도구로 활용되어야 한다.27
  • 책임성 (Accountability) 및 투명성 (Transparency): AI 시스템의 개발, 배포, 사용 전 과정에서 책임 주체를 명확히 설정하고, AI의 의사결정 과정을 이해하고 설명할 수 있도록 노력해야 한다.28 서비스 제공자는 AI의 활용 내용을 사용자에게 사전에 고지해야 한다.28
  • 공정성 (Fairness) 및 포용성 (Inclusivity): AI 시스템은 특정 집단에 대한 편향을 최소화하고, 기술의 혜택이 사회적 약자를 포함한 모두에게 고루 분배되도록 해야 한다.28
  • 안전성 (Safety) 및 신뢰성 (Reliability): AI는 오작동이나 예기치 않은 위험을 방지해야 하며, 명백한 오류 발생 시 사용자가 그 작동을 제어할 수 있는 기능을 갖추어야 한다.28
  • 지속가능성 (Sustainability): AI 시스템의 발전이 환경 및 생태계를 보호하고, 미래 세대를 배려하는 방향으로 이루어져야 한다.38


4-2. 주체별 구체적 실천 방안 (역할 분담)

기업의 역할

기업은 AI의 개발과 배포에 있어 가장 직접적인 책임 주체로서, 기술적 안전성과 윤리적 원칙 준수를 최우선 과제로 삼아야 한다.

  • 윤리 거버넌스 구축: 최고경영진의 강력한 의지를 바탕으로 윤리위원회를 설립하고, AI 개발 프로세스 전반에 '안전 우선' 원칙을 내재화해야 한다.36
  • 데이터 관리: AI 편향의 주요 원인인 데이터 불균형을 해결하기 위해, 데이터 수집 및 활용 과정에서 편향성이 최소화되도록 데이터 품질을 관리해야 한다.29 저작권이 있는 데이터에 대해서는 투명하고 공정한 라이선스 계약을 통해 권리자의 동의를 구하는 체계를 마련해야 한다.15
  • 설명 가능성 확보: AI의 의사결정 과정을 이해하고 설명할 수 있는 기술(XAI)을 도입하고 34, 서비스에 AI가 활용되고 있음을 사용자에게 명확히 고지해야 한다.28 이는 사용자의 신뢰를 구축하는 데 필수적이다.


정부의 역할

정부는 AI 기술의 발전과 윤리적 가치 보호 사이의 균형을 맞추는 규제적, 정책적 주체로서 중요한 역할을 수행해야 한다.

  • 법적·제도적 기반 마련: 고위험 영역(의료, 사법, 고용 등)에 대한 명확한 법적 책임 소재를 규명해야 하며 30, EU AI Act와 같이 위험도에 따른 차등적 규제 프레임워크 도입을 검토해야 한다.30
  • 공공 데이터 활용 및 개방: 디지털플랫폼정부 구축 과정에서 공공 데이터의 개방과 공유를 통해 AI 산업 생태계를 확장하고, 데이터 기반 행정 활성화를 위한 법적, 정책적 토대를 마련해야 한다.41
  • 국제 협력 강화: 자율살상무기(LAWS)와 딥페이크와 같은 전 지구적 위협에 대해 OECD, UNESCO 등 국제기구와의 협력을 통해 글로벌 규범을 정립하는 데 적극적으로 참여해야 한다.38


시민의 역할

시민은 AI 기술의 단순한 수용자를 넘어, AI 생태계의 건강성을 감시하고 개선을 요구하는 능동적인 참여자로서의 역할을 수행해야 한다.

  • AI 리터러시 함양: AI의 한계(환각, 편향 등)를 이해하고, 비판적 사고를 통해 AI 결과물을 맹목적으로 신뢰하지 않는 능력을 키워야 한다.11 개인정보와 기밀 정보는 AI 도구에 신중하게 입력하는 등 책임 있는 활용 자세가 필요하다.11
  • 능동적 피드백 및 참여: 기업과 정부의 AI 윤리 정책에 적극적으로 의견을 개진하고, 문제 발생 시 책임 있는 피드백을 제공함으로써 건강한 AI 생태계 구축에 기여해야 한다.34


5. 상생하는 AI 생태계를 향한 공공의 노력

인공지능 윤리, 책임, 거버넌스 문제는 단순히 기술적 또는 법률적 해법만으로는 해결될 수 없는 복합적인 과제이다. AI가 인류의 번영에 기여하는 '도구'로서 기능하기 위해서는 기술 개발자, 정책 입안자, 그리고 기술 사용자인 시민 모두가 공동의 윤리적 원칙 아래 각자의 역할과 책임을 명확히 해야 한다.

본 보고서에서 제안한 다자적 최소 윤리 프레임은 이러한 상호 책임과 역할을 명확히 하는 출발점이다. 기업은 기술적 안전성과 투명성을 내재화하고, 정부는 위험 기반의 효율적 규제와 국제 협력을 주도하며, 시민은 능동적 참여와 AI 리터러시 함양을 통해 건강한 AI 생태계를 위한 공공의 노력을 이어가야 한다.

AI 기술은 끊임없이 진화하며 새로운 도전과제를 제시할 것이다. 따라서 이 프레임은 고정된 규칙이 아닌, 지속적인 논의와 사회적 합의를 통해 유연하게 발전하고 재정립되어야 할 로드맵이다. 모두가 함께 노력할 때, AI는 비로소 인류의 삶을 더욱 풍요롭고 안전하게 만드는 진정한 혁신의 도구가 될 것이다.


* 참고 자료

  1. AI 편향이란? 원인, 영향 및 완화 전략 - SAP, 9월 5, 2025에 액세스, https://www.sap.com/korea/resources/what-is-ai-bias
  2. AI 편향성 설명 | 원인, 예시 및 완화 방법 - Ultralytics, 9월 5, 2025에 액세스, https://www.ultralytics.com/ko/glossary/bias-in-ai
  3. AI 채용 문제점 ① 편향된 데이터로는 공정한 채용이 불가능하다, 9월 5, 2025에 액세스, http://service.prism.work/insight/?bmode=view&idx=14131229
  4. 'AI 채용' 차별 논란에… 뉴욕 “성별-인종 편향 공개하라” 첫 규제 - 동아일보, 9월 5, 2025에 액세스, https://www.donga.com/news/Inter/article/all/20230707/120119104/1
  5. 피고인 척 보면 미래 범죄 예측... AI가 판사되면 세상은 나아질까? - 한국일보, 9월 5, 2025에 액세스, https://www.hankookilbo.com/News/Read/A2023041305390003045
  6. [해외정보인권] 미국 형사사법시스템의 인공지능 - 진보네트워크센터, 9월 5, 2025에 액세스, https://act.jinbo.net/wp/41417/
  7. 생성형 AI는 이야기를 만들어내고 있나요? AI를 정직하게 유지하는 4가지 방법 - Salesforce, 9월 5, 2025에 액세스, https://www.salesforce.com/kr/hub/crm/generative-ai-hallucinations/
  8. 치명적인 인공지능 결함, '환각 현상'을 잡아라 - AI/Tech - 시사위크, 9월 5, 2025에 액세스, https://www.sisaweek.com/news/articleView.html?idxno=208087
  9. 오픈AI '챗GPT' 성능 좋아졌다는데… '거짓 정보 제공' 환각 현상은 왜 더 심해질까, 9월 5, 2025에 액세스, https://biz.chosun.com/it-science/ict/2025/04/27/2ZBI6O6KAZD3NLWY2XB4KJ2JPM/
  10. '환각'이 문제...법정 혼란 초래하는 AI에 분노하는 판사들 - MIT 테크놀로지 리뷰, 9월 5, 2025에 액세스, https://www.technologyreview.kr/%ED%99%98%EA%B0%81%EC%9D%B4-%EB%AC%B8%EC%A0%9C-%EB%B2%95%EC%A0%95-%ED%98%BC%EB%9E%80-%EC%B4%88%EB%9E%98%ED%95%98%EB%8A%94-ai%EC%97%90-%EB%B6%84%EB%85%B8%ED%95%98%EB%8A%94-%ED%8C%90%EC%82%AC/
  11. GNU 생성형 AI 윤리 가이드라인 8대 핵심 원칙 - YouTube, 9월 5, 2025에 액세스, https://www.youtube.com/watch?v=XzMC4jGM_P0
  12. 챗GPT 폭주를 막아라… AI '환각' 막는 소프트웨어 나왔다 - 한국일보, 9월 5, 2025에 액세스, https://www.hankookilbo.com/News/Read/A2023042611230000170
  13. 인공지능 창작물의 저작권 관련 주요 쟁점 - 국회입법조사처, 9월 5, 2025에 액세스, https://www.nars.go.kr/fileDownload2.do?doc_id=1OLSHVPmHmT&fileName=%28%EC%9D%B4%EC%8A%88%EC%99%80%EB%85%BC%EC%A0%90%202042%ED%98%B8-20221230
  14. AI 산업 뒤흔들 소송…게티 이미지, 스태빌리티 AI와 법정 대결 - 디지털투데이, 9월 5, 2025에 액세스, https://www.digitaltoday.co.kr/news/articleView.html?idxno=570365
  15. 게티이미지, 스테이빌리티 AI에 저작권 소송 - 캐나다 한국일보, 9월 5, 2025에 액세스, https://www.koreatimes.net/ArticleViewer/Article/168739
  16. 오픈AI, NYT 저작권 소송 기각 요청 무산..."NYT에 유리" - AI타임스, 9월 5, 2025에 액세스, https://www.aitimes.com/news/articleView.html?idxno=169403
  17. 2024년 제1호-[미국] 뉴욕타임즈, AI 학습에 자사의 저작물을 이용한 것에 대해 OpenAI와 마이크로소프트를 상대로 저작권 침해 소송 제기(최승재) > 저작권동향(상세) > 저작권동향(판례) > 자료 > 한국저작권위원회, 9월 5, 2025에 액세스, https://www.copyright.or.kr/information-materials/trend/the-copyright/view.do?brdctsno=52641&list.do?pageIndex=1&searchText=&servicecode=06&brdctsstatecode=&brdclasscode=01&searchTarget=ALL&nationcode=
  18. 오픈AI, NYT 저작권 소송 중 '채팅 내용 보존' 명령 받아..."항소할 것", 9월 5, 2025에 액세스, https://www.aitimes.com/news/articleView.html?idxno=171084
  19. AI 창작물의 저작권 인정 여부와 법률 개정 - IPPC 지식재산보호센터, 9월 5, 2025에 액세스, https://ippc.kr/blog/ai%EC%A0%80%EC%9E%91%EA%B6%8C/AI-%EC%A0%80%EC%9E%91%EA%B6%8C-%EB%85%BC%EB%9E%80-%EC%9F%81%EC%A0%90-%EB%B6%84%EC%84%9D
  20. [내외신문] 킬러 로봇의 등장.. 자율성을 가진 무기의 가능성과 위험성, 9월 5, 2025에 액세스, https://www.naewaynews.com/315077
  21. 현대전에서의 AI 윤리: 혁신과 도덕적 책임의 균형 - HackerNoon, 9월 5, 2025에 액세스, https://hackernoon.com/lang/ko/%ED%98%84%EB%8C%80-%EC%A0%84%EC%9F%81%EC%97%90%EC%84%9C-AI%EC%9D%98-%EC%9C%A4%EB%A6%AC%EB%8A%94-%ED%98%81%EC%8B%A0%EA%B3%BC-%EB%8F%84%EB%8D%95%EC%A0%81-%EC%B1%85%EC%9E%84%EC%9D%98-%EA%B7%A0%ED%98%95%EC%9D%84-%EB%A7%9E%EC%B6%A5%EB%8B%88%EB%8B%A4.
  22. 자율살상무기(LAWS)체계 규범 창설 논의의 쟁점과 시사점, 9월 5, 2025에 액세스, https://www.ifans.go.kr/knda/com/fileupload/FileDownloadView.do;jsessionid=E3ntIy93PwYt7EJznYJfAnTM.public12?storgeId=c61b04e5-0182-4c75-ad21-828ecacfb855&uploadId=13495894932409891&fileSn=1
  23. 자율살상무기 발전에 따른 예상쟁점 및 대응방안, 9월 5, 2025에 액세스, https://www.inss.re.kr/upload/bbs/BBSA05/202409/F20240919095355073.pdf
  24. 하니 파리드와 함께하는 딥페이크와 인공지능을 이용한 범죄의 부상 - TRM Labs, 9월 5, 2025에 액세스, https://www.trmlabs.com/ko/resources/trm-talks/deepfakes-and-the-rise-of-ai-enabled-crime-with-hany-farid
  25. 생성형 인공지능의 무기화: 사이버 범죄자들의 GPT 모델을 사용한 사기 방법과 이에 대한 대응 방안 | Gcore, 9월 5, 2025에 액세스, https://gcore.com/ko/blog/weaponized-genai
  26. 딥페이크 범죄, 기술 악용의 심각성과 대응 방안, 9월 5, 2025에 액세스, https://www.gggongik.or.kr/m/page/archive/archiveinfo_detail.html?board_idx=7863
  27. '한국판 AI 윤리기준' 10대 원칙 담았다 - 지디넷코리아, 9월 5, 2025에 액세스, https://zdnet.co.kr/view/?no=20201223105913
  28. AI 윤리기준 | 소개 - 인공지능 윤리 소통채널, 9월 5, 2025에 액세스, https://ai.kisdi.re.kr/aieth/main/contents.do?menuNo=400029
  29. 「인공지능(AI) 윤리기준」, 9월 5, 2025에 액세스, https://openresearch-repository.anu.edu.au/bitstreams/284aa89b-bbe0-4482-a9e6-5c0a407f5a6f/download
  30. 8 EU, 인공지능법(AI Act) 발효, 9월 5, 2025에 액세스, https://www.kistep.re.kr/gpsBoardDownload.es?board_se=trend&list_no=3342&seq=1
  31. 유럽연합 인공지능법(EU AI Act)의 주요내용 및 시사점 - 소프트웨어정책연구소, 9월 5, 2025에 액세스, https://www.spri.kr/download/23545
  32. Understanding the NIST AI RMF: What It Is and How to Put It Into Practice - Secureframe, 9월 5, 2025에 액세스, https://secureframe.com/blog/nist-ai-rmf
  33. AI RMF - NIST AIRC - National Institute of Standards and Technology, 9월 5, 2025에 액세스, https://airc.nist.gov/airmf-resources/airmf/
  34. “AI 어디까지 믿으세요?” AI 디자인 윤리 가이드라인의 필요성 - 디지털 인사이트, 9월 5, 2025에 액세스, https://ditoday.com/ai-%EC%96%B4%EB%94%94%EA%B9%8C%EC%A7%80-%EB%AF%BF%EC%9C%BC%EC%84%B8%EC%9A%94-ai-%EB%94%94%EC%9E%90%EC%9D%B8-%EC%9C%A4%EB%A6%AC-%EA%B0%80%EC%9D%B4%EB%93%9C%EB%9D%BC%EC%9D%B8%EC%9D%98/
  35. 사례 돋보기 | 청렴윤리경영 브리프스, 9월 5, 2025에 액세스, https://www.acrc.go.kr/briefs/849fd88ee13c7cd5dd9ac923ef2ed1549f966439a132a5597faa3c1df6f805c5/sub_2.html
  36. '인공지능(AI) 윤리 가이드라인'의 중요성과 국가별 대응 현황 : 국내, 9월 5, 2025에 액세스, https://ethics.moe.edu.tw/resource/ebook/redirect/?pid=1&l=1
  37. 책임 있는 AI 관행 구현 방법 - SAP, 9월 5, 2025에 액세스, https://www.sap.com/korea/resources/what-is-responsible-ai
  38. 유네스코 AI 윤리 권고 주요 내용 및 시사점 - 한국지능정보사회진흥원, 9월 5, 2025에 액세스, https://www.nia.or.kr/common/board/Download.do?bcIdx=24027&cbIdx=25932&fileNo=3
  39. 의료용 인공지능(AI)이 실수하면 누가 책임질까?, 9월 5, 2025에 액세스, https://www.aitimes.com/news/articleView.html?idxno=132343
  40. '이루다' 서비스로 본 AI 및 알고리즘의 윤리적· 법적 쟁점과 대응방안, 9월 5, 2025에 액세스, https://kisdi.re.kr/report/fileView.do?key=m2101113025377&arrMasterId=4333446&id=555877
  41. 디지털플랫폼정부 구현을 위한 지방공공기관의 대응 방안, 9월 5, 2025에 액세스, https://www.erc.re.kr/webzine/vol42/sub4.jsp
  42. AI 선도국 및 글로벌 사우스 국가의 거버넌스 전략 탐색, 9월 5, 2025에 액세스, https://www.spri.kr/download/23544