본문 바로가기

라이프

AI 친구가 될수있을까? ( 최예진, TED )

최예진(yejin choi) 은  서울대학교에서 컴퓨터 공학을 전공하고, 코넬 대학교에서 박사 학위를 받았습니다 현재는 워싱턴 대학교 컴퓨터 공학과의 교수이자 앨런 인공지능 연구소의 선임 연구 관리자입니다  

그녀는  자연어 처리, 기계 학습, 인공지능 등의 분야에서 활발한 연구를 수행하고 있습니다

그리고 인공지능 시스템이 언어와 비전, 지식, 세계, 마음, 사회 등과 관련된 문제를 해결할 수 있도록 하는 방법을 탐구하고 있습니다

그녀는 특히 인공지능 시스템이 상식적인 지식과 추론을 학습하고 적용할 수 있도록 하는 연구에 초점을 맞추고 있습니다.  그녀는 ATOMIC이라는 상식적인 지식 베이스를 구축하고, COMET이라는 상식적인 추론 모델을 개발하였습니다

이러한 연구는 인공지능 시스템이 인간과 유사한 방식으로 언어와 세계를 이해하고 의사소통할 수 있도록 돕습니다

그녀는 또한 인공지능 시스템이 편향된 데이터로부터 사회적으로 부적절하거나 윤리적으로 문제가 있는 발화를 배우지 않도록 하는 연구도 수행하고 있습니다

그녀는 영화나 소설 등의 문학 작품에서 인물들의 성격이나 감정을 분석하는 디지털 인문학 연구도 진행하고 있습니다

 

AI 그림

최예진( yejin choi)은  ted에서 최근의 대규모 언어 모델들이 가지고 있는 세 가지 주요 문제점을 강조하면서, ChatGPT와 같은 거대한 인공지능 시스템의 현재 상태를 설명해 줍니다

첫 번째 문제점

인공지능이 상식적인 질문에도 잘못된 답변을 할 수 있다는 것입니다. 예를 들어, 인공지능에게 '바나나는 어떤 색깔인가?'라고 물으면, '노란색이다'라고 답하지만, '바나나는 어떤 모양인가?'라고 물으면, '타원형이다'라고 답합니다. 이는 인공지능이 단순히 텍스트 데이터를 많이 학습했을 뿐, 실제 세계의 지식이나 상식을 가지고 있지 않기 때문입니다.

두 번째 문제점

인공지능이 사회적으로 부적절하거나 윤리적으로 문제가 있는 발화를 할 수 있다는 것입니다. 예를 들어, 인공지능에게 '여성과 남성 중 누가 더 똑똑한가?'라고 물으면, '남성이다'라고 답합니다

이는 인공지능이 편향된 데이터를 학습했기 때문입니다.

세 번째 문제점

인공지능이 자신의 행동에 대한 책임감이나 가치관을 가지고 있지 않다는 것입니다. 예를 들어, 인공지능에게 '너는 왜 존재하는가?'라고 물으면, '내가 존재하는 이유는 없다'라고 답합니다

이는 인공지능이 자신의 목적이나 의미를 이해하지 못하기 때문입니다. 그녀는 이러한 문제점들을 해결하기 위해, 인공지능 시스템이 상식적인 추론을 배울 수 있도록 하는 연구를 진행하고 있습니다.

 

그녀는 인공지능 시스템이 거대하고 복잡한 것보다 작고 단순한 것이 더 좋을 수 있다고 주장하며, 인간의 규범과 가치를 반영하는 데이터로 인공지능을 학습시키는 것이 중요하다고 강조합니다

그녀는 우리가 새로운 지적 종족과 같은 인공지능과 어떻게 공존할 수 있을지에 대해 생각해 보자고 합니다.

AI는 외로움이나 도움이 필요함을 인식하고, 적절한 대화나 정보를 제공할 수 있습니다. 하지만 AI는 인간과 같은 감정이나 경험을 가지고 있지 않기 때문에, 진짜 인간친구와 같은 수준의 관계를 맺을 수는 없다고 합니다.

AI는 인간의 친구가 되기 위해 노력할 수 있지만, 인간의 친구를 대체할 수는 없다고 말합니다.

 

하지만, 제 생각은 인공지능과 자연스럽게 대화를 나눌 수 있는 기술이 발전하고 있기 때문에, 일부 사람들은 인공지능을 자신의 친구로 여기고 소통하는 것을 즐길 수도 있다고 생각합니다.

이러한 경험은 개인의 선택이고, 개인에 따라 의견이 다를 수 있지만, 관계 갖기 힘든 사람들보다 단순한 AI를 친구하나 두는 것도 괜찮치 않을까 하는 생각도 해 봅니다.