컨설팅이야기 #368 _ 능동형 AI, 오토GPT | |||||
---|---|---|---|---|---|
김유나 | 2023.07.06 | 368 | |||
홈페이지 | |||||
7월의컨설팅이야기썸네일.png(169.6 KB) | |||||
과거에는 능동형 AI가 주로 자율주행 등, 전문적인 한 가지 영역에 사용되었습니다. 그러나 최근에는 GPT 모델을 활용한 오토GPT, 에이전트GPT 등의 범용적인 상황에서 능동형 AI가 활용되기 시작했습니다. 예를 들어, 챗GPT는 사용자가 양질의 답을 얻을 때까지 질문을 반복해야 하지만 오토GPT는 이 과정을 자체적으로 수행합니다. 능동형 AI는 수동형 AI보다 윤리적인 문제에 더 취약하며 결과에 대한 설명도 어렵습니다. 능동형 AI는 스스로 학습하기 때문에 잘못된 데이터나 가설에 기반하여 잘못된 결론을 내릴 수 있습니다. 또한 AI가 어떻게 행동하는지에 대한 이해나 설명이 어려울 수 있습니다. 이러한 문제를 해결하기 위해 설명 가능한 AI(Explainable AI)도 연구되고 있지만 아직은 알려진 것보다 더 많은 연구가 필요합니다. 마이크로소프트의 챗봇 ‘테이’는 트위터의 글들을 스스로 학습하고 성능을 개선했는데 결국 인종차별과 여성 혐오의 트위터를 쏟아냈습니다. 어떤 것을 학습하고 있는지 인간이 개입해 조정해야 한다고 깨달았을 땐 이미 학습을 어느 정도 끝마쳐 손을 대기 어려운 상황이었습니다. 능동형 AI를 활용하고자 한다면 미리 아래와 같은 것들을 고려해야 할 것입니다. ?투명성(Transparency): 능동형 AI가 내린 결론이 어떻게 만들어졌는지 이해할 수 있고, 그에 따른 대처가 가능해야 합니다. ?윤리적 고려(Ethical Considerations): 사전에 능동형 AI가 활용되는 환경에서 어떤 윤리적 문제가 발생할 수 있을지 확인하고 미리 준비해야 합니다. ?안전성 (Safety): AI가 작동하는 환경을 통제하거나 위험한 상황에서는 자동으로 중단되는 기능을 추가하는 등의 대응책을 마련해두는 것이 방법이 될 수 있습니다. ?교육(Education): 실제 AI를 활용해 작업하는 당사자가 아니더라도 모든 구성원이 기본적인 AI에 대한 이해를 갖추고 있어야 할 것입니다. ?협업(Collaboration): 인간과 능동형 AI가 어떻게 협력해 작업할 것인지에 대한 방식을 정의하는 과정을 통해 능동형 AI가 인간의 역량 보완, 효과적인 작업을 수행할 수 있을 것입니다. 끝으로, 아직까지 오토GPT나 에이전트GPT 등의 AI들이 완성된 버전이 아니라는 점을 명심해야 합니다. 다양한 범용성을 가지고 유연하게 활용될 수 있다는 장점이 있는 만큼 한 가지 업무에 집중적이고 전문적으로 활용되기에는 부족한 점이 많다. 어떤 부분을 대체해 적용할 수 있을지, 어떤 위험을 몰고 올 수 있을지 등을 미리 대비한다면 다가오는 새로운 AI의 트렌드에 빠르게 적응하고 경쟁력을 갖출 수 있을 것입니다. 출처 : DBR 371호 (2023년 06월 Issue 2) 챗GPT 물렀거라, 오토GPT 나가신다. |