오픈AI, AI 장기리스크 대비 안전팀 해체…경영진 갈등 후폭풍?


오픈AI, AI 장기리스크 대비 안전팀 해체…경영진 갈등 후폭풍?

팀 이끈 수츠케버·레이케 회사 떠나…"회사 우선순위 의견 달라" 오픈AI 로고 [샌프란시스코 AP=연합뉴스] (샌프란시스코=연합뉴스) 김태종 특파원 = 챗GPT 개발사 오픈AI가 인공지능(AI)의 장기적인 위험에 대해 연구하는 안전(safety)팀을 사실상 해체했다고 블룸버그 통신 등이 17일(현지시간) 소식통을 인용해 보도했다. 소식통은 오픈AI의 슈퍼얼라이먼트(superalignment) 팀 일부가 다른 팀으로 재배치되고 있다고 전했다.

이 팀은 미래 다가올 초지능 AI를 제어함으로써 인간에게 유용하고 해롭지 않은 방식으로 행동하도록 연구하는 안전팀이다. 작년 7월 설치된 이 팀은 "우리보다 훨씬 더 똑똑한 AI 시스템을 조종하고 제어하기 위한 과학적이고 기술적인 연구에 초점을 맞추고 있다"고 밝힌 바 있다.

특히, 이 팀의 해체는 오픈AI의 공동 창립자 일리야 수츠케버 등 팀을 이끈 인력이 잇따라 회사를 떠난 지 며칠 만에 나왔다. 오픈AI의 수석과학자로 일해 온 수츠케버는 지...


#AI #ai관련주 #반도체관련주 #엔비디아 #오픈ai #인공지능 #인공지능관련주 #필라델피아반도체지수

원문링크 : 오픈AI, AI 장기리스크 대비 안전팀 해체…경영진 갈등 후폭풍?