Home>> 연구 활동 > 컨설팅 이슈

 
컨설팅이야기 #368 _ 능동형 AI, 오토GPT
김유나 2023.07.06 175
홈페이지
7월의컨설팅이야기썸네일.png(169.6 KB)


능동형
AI는 미리 정해진 규칙과 명령에 따라 작동하는 챗GPT와 같은 수동형 AI와 달리 스스로 학습하고, 문제를 해결하고, 결정합니다. 수동형 AI는 명령이나 규칙이 주어져야만 동작하며 문제 발생 시 인간의 개입이 필요합니다. 반면 능동형 AI는 이전에 학습한 데이터와 패턴을 기반으로 스스로 문제를 해결하고 결론을 내릴 수 있습니다.

 

과거에는 능동형 AI가 주로 자율주행 등, 전문적인 한 가지 영역에 사용되었습니다. 그러나 최근에는 GPT 모델을 활용한 오토GPT, 에이전트GPT 등의 범용적인 상황에서 능동형 AI가 활용되기 시작했습니다. 예를 들어, GPT는 사용자가 양질의 답을 얻을 때까지 질문을 반복해야 하지만 오토GPT는 이 과정을 자체적으로 수행합니다.

 

능동형 AI는 수동형 AI보다 윤리적인 문제에 더 취약하며 결과에 대한 설명도 어렵습니다. 능동형 AI는 스스로 학습하기 때문에 잘못된 데이터나 가설에 기반하여 잘못된 결론을 내릴 수 있습니다. 또한 AI가 어떻게 행동하는지에 대한 이해나 설명이 어려울 수 있습니다. 이러한 문제를 해결하기 위해 설명 가능한 AI(Explainable AI)도 연구되고 있지만 아직은 알려진 것보다 더 많은 연구가 필요합니다.

 

마이크로소프트의 챗봇 테이는 트위터의 글들을 스스로 학습하고 성능을 개선했는데 결국 인종차별과 여성 혐오의 트위터를 쏟아냈습니다. 어떤 것을 학습하고 있는지 인간이 개입해 조정해야 한다고 깨달았을 땐 이미 학습을 어느 정도 끝마쳐 손을 대기 어려운 상황이었습니다. 능동형 AI를 활용하고자 한다면 미리 아래와 같은 것들을 고려해야 할 것입니다.

 

?투명성(Transparency): 능동형 AI가 내린 결론이 어떻게 만들어졌는지 이해할 수 있고, 그에 따른 대처가 가능해야 합니다.

?윤리적 고려(Ethical Considerations): 사전에 능동형 AI가 활용되는 환경에서 어떤 윤리적 문제가 발생할 수 있을지 확인하고 미리 준비해야 합니다.

?안전성 (Safety): AI가 작동하는 환경을 통제하거나 위험한 상황에서는 자동으로 중단되는 기능을 추가하는 등의 대응책을 마련해두는 것이 방법이 될 수 있습니다.

?교육(Education): 실제 AI를 활용해 작업하는 당사자가 아니더라도 모든 구성원이 기본적인 AI에 대한 이해를 갖추고 있어야 할 것입니다.

?협업(Collaboration): 인간과 능동형 AI가 어떻게 협력해 작업할 것인지에 대한 방식을 정의하는 과정을 통해 능동형 AI가 인간의 역량 보완, 효과적인 작업을 수행할 수 있을 것입니다.

 

끝으로, 아직까지 오토GPT나 에이전트GPT 등의 AI들이 완성된 버전이 아니라는 점을 명심해야 합니다. 다양한 범용성을 가지고 유연하게 활용될 수 있다는 장점이 있는 만큼 한 가지 업무에 집중적이고 전문적으로 활용되기에는 부족한 점이 많다. 어떤 부분을 대체해 적용할 수 있을지, 어떤 위험을 몰고 올 수 있을지 등을 미리 대비한다면 다가오는 새로운 AI의 트렌드에 빠르게 적응하고 경쟁력을 갖출 수 있을 것입니다.

 

출처 : DBR 371(202306Issue 2) GPT 물렀거라, 오토GPT 나가신다.

목록보기
 
뉴스레터 | 경영컨설팅학과 | 한양대학교 | 한양대학교 ERICA학술정보관 | HY-in | 개인정보처리방침 | 이메일무단수집금지
Today : 97 Total : 515,191