AI 챗봇 오작동으로 허위정보 제공 시 법적 책임은 누구에게?

요즘 AI 챗봇을 통해 정보를 얻는 것이 일상화되었죠. 그런데 챗봇이 틀린 정보를 제공했다면, 누구에게 책임이 있을까요?
오늘은 AI 챗봇이 오작동하거나 허위 정보를 제공했을 때, 법적으로 누가, 어떻게 책임을 지는지에 대해 쉽고 정확하게 정리해드릴게요.

온라인 커뮤니티



| AI 챗봇 오류, 법적으로 책임지는 사람은 누구일까요?

회사 또는 서비스 제공자가 책임을 집니다

캐나다 브리티시컬럼비아 민사재판소는 Air Canada 챗봇이 잘못된 정보를 제공한 사례에서,
“챗봇은 회사 웹사이트의 일부이므로 회사가 책임져야 한다”라고 판단했습니다. 이는 ‘과실에 의한 허위 진술(negligent misrepresentation)’으로 회사가 손해를 배상해야 한다는 결정이었어요.

개발자도 책임에서 완전히 자유로울 수 없습니다

AI 시스템 개발자나 운영자는 정확성, 공정성, 법적 준수를 위한 적절한 내부 절차를 갖추는 것이 요구됩니다.
개발 과정에서 주의를 게을리한 부분이 있다면, 법적 책임에 노출될 수 있습니다.

사용자도 책임에서 자유롭지는 않습니다

사용자가 AI가 생성한 부정확한 내용을 악의적으로 공개하거나, 검증 없이 게시했다면,
허위정보·명예훼손 등의 법적 책임이 발생할 수 있습니다. 특히 고의 또는 중대한 과실이 인정되면 책임이 따릅니다.



| 해외에서는 이런 법적 사례들이 있습니다

1. Air Canada 챗봇 – ‘과실 진술 책임’ 사례 (캐나다)

“사랑하는 사람의 장례 할인 적용 방법”을 문의한 고객에게 챗봇이 허위 안내를 했고,
회사는 ‘챗봇은 별도 실체이므로 책임 없다’는 주장을 했지만, 오히려 “서비스 제공자로서 책임이 있다”는 판결을 받았습니다.

2. ChatGPT의 허위 주장 – 명예훼손 소송 사례 (미국)

ChatGPT가 라디오 진행자에 대한 허위 소송 내용을 창작해낸 경우,
그 당사자는 OpenAI를 상대로 명예훼손 소송을 제기했지만,
법원은 “실수 가능성을 사용자에게 알렸다”는 이유로 실질적인 과실이나 악의가 없었다는 판단을 내렸습니다.

3. Meta AI의 허위 주장 – 소송 진행 중 (미국)

Meta의 AI 챗봇이 어떤 인물을 극단주의자와 연결짓는 등 허위 주장을 했고, 해당 인물은 Meta를 상대로 5백만 달러 이상의 손해배상 소송을 준비 중입니다.

온라인 커뮤니티



| AI 챗봇 오류로 인한 법적 대응 방법은 무엇일까요?

1. 민사상 손해배상 청구 가능

  • 과실 또는 신뢰 기반 오류라면, 피해자는 기업을 상대로 민사소송을 제기할 수 있습니다.

  • 캐나다 사례처럼 잘못된 정보로 인해 경제적 손해를 입은 경우, 원상회복이 판결로 내려질 수 있습니다.

2. 명예훼손 등 형사적 대응도 고려해볼 수 있습니다

  • 허위 정보가 명백한 사실 왜곡이거나 누군가의 명예를 훼손했다면,
    형사 고소 (예: 명예훼손죄)가 가능할 수 있습니다.

  • 다만, 악의나 고의적 의도가 있었는지 여부가 중요합니다. 미국 사례에서 ‘actual malice(실제 악의)’가 입증되지 않아 법원이 책임을 인정하지 않았던 점을 참고할 수 있어요.

Previous
Previous

연봉 협상 중 녹음한 내용을 증거로 사용할 수 있을까

Next
Next

브랜드 도용을 막기 위한 상표권 등록 전략