최종편집: 2025년07월05일 18:46 회원가입 Log in 카카오톡 채널 추가 버튼
IMG-LOGO

[달그락]AI 윤리 문제 인지의 필요성…. 청소년들이 생성형 AI에 의지하는 태도 버려야

청소년과 AI, 그리고 AI 윤리

기사 작성:  새전북신문 - 2025년 06월 04일 15시16분

IMG
AI 하면 무엇이 떠오르는가? 최근 청소년들 사이에서 수행평가를 위한 챗GPT 열풍이 불고 있다. 지난 5월 16일, 군산여고 논술언론토론동아리 ‘다온’은 이런 AI에 대해 의문을 가지고 책을 바탕으로 AI의 활용성과 AI윤리에 대해 조사하고, 토론하였다.



AI란 인공지능으로 인간의 지능을 모방한 기능을 갖춘 컴퓨터 시스템을 말한다. 그 AI시스템 중 특히 인공지능 챗봇은 무언가를 물어보면 몇 초 있다가 바로바로 대답하는 편리성을 가지고 있어 많은 분야에서 활용되고 있다. 특히 청소년들 사이에서는 수행평가를 위한 자료조사, 긴 글 요약 등으로 “아 귀찮아, 그냥 지피티로 해야겠다”라고 말하는 청소년들도 늘고 있다. 매우 편리하지만 그 속에는 딜레마와 장단점이 존재하기 마련이다.



AI의 장점은 다양하다. AI는 빠르고 정확한 데이터 분석과 예측을 할 수 있다. 큰 규모의 데이터를 처리하고 효율적으로 처리할 수 있어서 생산성을 크게 향상시킬 수 있다. 게다가, 인공지능은 학습과 경험을 통해 스스로 발전할 수 있는 능력을 가지고 있다. 이는 변화하는 환경에 빠르게 적응하고 혁신적인 아이디어를 제공하는 데 도움을 준다. 다만 이 속에 존재하는 딜레마와 단점도 수없이 많다. 다온은 그 중 윤리적 문제를 중심으로 다뤄보았다.



AI와 관련한 많은 윤리적 문제는 첫 번째로, 로봇공학과 자동차의 윤리 영역, 디지털 정보와 통신 기술의 윤리 영역을 통해 알려져 있다. 기술이 다른 기술과 연결되는 방식으로 인해 기존 쟁점들이 새로운 차원으로 접어들면서 시급한 문제가 되었다.



두 번째로, 최근 많이 사용하고 있는 소셜미디어에서도 AI가 사용이 된다. 사용자가 어떤 뉴스를 팔로우하고, 누구의 의견을 신뢰하는지 등을 AI가 알아내면서 소셜 미디어 사용자들은 기업을 위해 데이터를 생산하게 된다. 즉 사용자들이 무료 디지털 노동을 수행한다고 말할 수 있고, 결국은 그 데이터를 사용하는 회사들을 위해 데이터를 생산하는 무보수로 착취당하는 노동이 될 위험이 있다는 것이다. 자기 데이터에 무슨 일이 일어나는지 알 권리, 자기 데이터에 접근할 권리, 자기 데이터의 수집 또는 처리에 이의를 제기할 권리 등 소셜미디어 등에서 사용자가 자신의 데이터가 어떻게 활용되는지 충분히 인지하지 못한 경우가 대다수인 것 또한 AI 윤리의 문제라고 여겨진다.



세 번째로, AI는 또한 혐오 발언과 허위 정보를 생산하거나, 혹은 인터넷에서 사람처럼 보이지만 사실은 Al 소프트웨어인 봇들을 제작하는 데도 사용될 수 있다. 실제로 2016년 마이크로소프트에서 개발한 인공지능 대화 로봇 ‘테이’는 인종 차별적이고 폭력적인 메시지를 쏟아내는 문제가 발생해 서비스 시작 16시간 만에 중단되었다. 이와 같은 일들로 인해 무엇이 진실이고 무엇이 거짓인지가 더는 명확하지 않은 사실과 허구가 뒤섞인 세상이 올 수도 있다. AI의 그러한 응용이 분명히 그 문제에 기여하고 있다. 인터넷과 디지털 소셜 미디어의 여러 가능성과 환경이 AI와 결합하면서 문제의 심각성은 더욱 커질 것으로 보인다.



위와 같은 문제들의 위험성을 알고 나니 AI는 정말 많은 것들을 맡고 있고 맡게 될 것이라는 것을 알 수 있다. 이와 같이 AI가 더 많은 것들을 맡고 인간을 대신하기 시작하면 ‘책임 귀속’의 문제에 직면할 수 있다. ‘도덕적 책임은 어떻게 귀속시키나?’, ‘책임은 누가 지나?’ 등의 질문들이 등장한다. 여기서 기계, 즉 AI는 의식과 의지, 감정을 가지고 있지 않으므로 행위자가 될 수는 있어도 도덕적 행위자는 될 수 없다. AI는 자신이 무엇을 하고 있는지 ‘알지’못하며 의식이 없고 기록으로 남길 수는 있어도 인간처럼 자아가 없기 때문이다. 또한 인간은 반성할 수 있지만 AI는 그럴 수 없다. 즉 AI에게 책임을 물을 수 없다는 결론이 나온다.



즉 해결책은 인간에게 AI가 하는 일에 책임을 지우는 것이다. 여기서 전제가 등장한다. ‘인간이 AI의 행동에 대해 답변할 수 있고 AI가 한 일을 설명할 수 있다’는 전제이다. 다만 최근 사람들이 많이 사용하는 딥러닝 사용 경우 AI가 어떻게 결정을 내렸는지 설명할 수 없다. 그래서 결국 AI가 어떻게 결정을 내렸는지 투명하지 않아 책임의 문제를 일으킨다.



이처럼 AI 사용이 활성화되고 보편화되며 발생하는 윤리적 문제는 매우 심각해지고 있다, 이러한 문제를 어떻게 해결하고 대비할 것인지에 대해 많은 토론과 토의가 필요할 것으로 보인다. 또한 AI의 시대를 살고 있는 청소년들이 단순히 ‘AI의 편리성’에 매몰되어 수많은 일들을 AI가 처리하게 맡겨둔다면 그로 인해 스스로 사고하는 능력과 문제 해결력이 저하될 위험도 있어 이에 대한 대책도 시급하다. 경각심을 가지고 AI를 올바르게 사용하는 태도를 갖출 필요가 있다. AI를 올바르게 사용하려면 위와 같은 윤리적 문재를 인지하고, AI가 허위 조작 정보, 정보 편향, 오남용 등 우려 사항을 청소년 뿐만 아니라 모든 사용자들이 인지한 후 고려해야 한다. 결국 AI에게 전부 의지하는 태도를 버리는 것이 중요하다. 청소년들은 편리하고 시간을 단축할 수 있는 AI에게 윤리적 문제가 있음을 기억하고 올바르게 사용해야 할 것이다./ ASPECT청소년기자단 정예인, 군산여자고등학교 논술언론토론동아리 다온



*참고: 마크 코겔버그,



-취재후기: 평소 수행평가를 하며 아이디어나 탐구 주제를 얻을 때 챗GPT등의 생성형 AI를 사용해왔다. 이번 취재를 통해서 딥러닝을 사용한 AI가 결정을 내리고 결과를 얻는 과정이 투명하지 않다는 점을 새롭게 알게 되었고 인간과 밀접한 환경에서 벌어지는 윤리적 문제가 심각함을 깨달을 수 있었다. 앞으로 AI를 사용할 때 이러한 점을 인지하고 올바르게 사용해야겠다고 다짐했다.





전북을 바꾸는 힘! 새전북신문 *무단전재-재배포 금지






■ 새전북신문 기자의 최근기사

Leave a Comment


카카오톡 로그인을 통해 댓글쓰기가 가능합니다.