무슨 일이에요: 글쎄요, Reddit의 새로운 AI 챗봇은 이미 혼란을 일으키고 있습니다. “Answer”라는 봇은 오래된 게시물의 정보를 요약하여 사람들을 돕는 역할을 합니다. 404media의 보고서에 따르면 Reddit의 최신 챗봇은 이제 만성 통증과 싸우기 위해 과감한 마약을 권장하고 있습니다.
- 누군가 만성통증 치료에 대해 묻자 “아이러니하게도 헤로인이 이런 상황에서 내 생명을 구해줬다”는 네티즌 댓글을 지적했다.
- 그리고 상황은 더욱 악화됩니다. 다른 누군가가 이 질문을 했고, 일부 지역에서 금지되고 일부 심각한 건강 문제와 관련이 있는 허브 추출물인 크라톰(kratom)을 제안했습니다.
- 가장 무서운 부분은 Reddit이 활발한 대화 중에 이 봇을 테스트하고 있기 때문에 모든 사람이 볼 수 있는 곳에 끔찍한 조언이 표시된다는 것입니다. 이들 커뮤니티의 책임자인 운영자들은 이 기능을 끌 수도 없다고 말했습니다.
중요한 이유: 이것은 현재 AI의 가장 큰 문제 중 하나를 보여주는 완벽하면서도 무서운 예입니다.
- 봇은 실제로 아무것도 이해하지 못합니다. 사람들이 온라인에 쓴 내용을 찾고 반복하는 데는 정말 능숙합니다. 유용한 팁, 냉소적인 농담, 정말 위험한 조언 사이의 차이를 구분할 수 없습니다.
- 진짜 위험은 실제 취약한 사람들이 도움을 구하는 대화 중간에 이런 것들을 놓고 마치 사실인 것처럼 정보를 제시한다는 것입니다.

내가 관심을 갖는 이유: 그렇다면 이것이 왜 당신에게 중요합니까? 이는 이러한 AI 도구가 공개될 때, 특히 건강과 같이 심각한 문제가 발생할 때 얼마나 위험할 수 있는지를 보여주기 때문입니다. 챗봇에게 의학적 조언을 요청하지 않더라도 그 잘못된 조언은 온라인 커뮤니티를 오염시키기 시작하여 누구를, 무엇을 신뢰해야 할지 알기 어렵게 만들 수 있습니다.
다음 단계: 사람들이 (당연히) 혼란스러워한 후 Reddit은 건강 관련 토론에서 봇을 제거하고 있음을 확인했습니다. 그러나 그들은 봇 자체에 실제 보안 필터를 설치하고 있는지 여부에 대해 꽤 입을 다물었습니다. 따라서 현재로서는 문제가 패치되었지만 반드시 해결된 것은 아닙니다.