머신 언러닝: 개인 정보 보호에 대한 우려가 높아지면서 AI 챗봇에게 잊어버리도록 가르칠 수 있을까요?

CChatGPT8
2 Min Read

[ad_1]

새로운 과학자 기본 이미지

나는 20년 넘게 인터넷에 글을 써왔습니다. 십대 시절 나는 일상적인 것부터 당황스러운 것까지 다양한 블로그와 소셜 미디어 게시물을 남겼습니다. 최근에는 저널리스트로서 소셜 미디어, 개인 정보 보호, 인공 지능 등에 관한 많은 기사를 발표했습니다. 그래서 ChatGPT가 내 출력이 다른 사람의 프롬프트에 대한 반응에 영향을 미쳤을 수 있다고 말했을 때 나는 서둘러 메모리에서 내 데이터를 삭제했습니다.

그런데 금방 알아낸 바로는 삭제 버튼이 없습니다. 수많은 웹사이트와 온라인 기사를 포함한 데이터 세트에 대해 훈련된 AI 기반 챗봇은 배운 내용을 결코 잊지 않습니다.

즉, ChatGPT와 같은 기업은 민감한 개인 정보가 온라인에 공개된 경우 공개할 가능성이 있으며 이러한 AI 뒤에 있는 회사는 조직에서 개인 정보를 제거하도록 강요하는 “잊혀질 권리” 규정을 준수하기 위해 고군분투할 것임을 의미합니다. 요청 시 데이터. 이는 또한 해커가 훈련 데이터에 잘못된 정보나 악의적인 지침을 심어 AI 출력을 조작하는 것을 막을 힘이 없다는 것을 의미합니다.

이 모든 것이 왜 많은 컴퓨터 과학자들이 AI에게 잊어버리는 법을 가르치기 위해 안간힘을 쓰고 있는지 설명합니다. 이것이 극도로 어렵다는 사실을 깨닫고 있는 동안 “머신 언러닝” 솔루션이 등장하기 시작했습니다. 그리고 이 작업은 개인 정보 보호 및 잘못된 정보에 대한 우려를 해결하는 것 이상으로 매우 중요할 수 있습니다. 인간처럼 배우고 생각하는 AI를 구축하는 것에 대해 진지하게 생각한다면 AI가 잊어버리도록 설계해야 할 수도 있습니다.

프롬프트에 응답하여 텍스트를 생성하는 ChatGPT 및 Google Bard와 같은 차세대 AI 기반 챗봇은 대규모 언어 모델(LLM)을 기반으로 합니다. 이들은 훈련을 받았습니다…

Share this Article
Leave a comment

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다