**번역본 뉴스입니다. 오역이 있을수 있습니다.
OpenAI는 자사의 대표 제품인 ChatGPT를 구동하는 GPT-4 모델을 개선한 GPT-4o를 출시합니다. 업데이트된 모델은 “훨씬 더 빠르며” “텍스트, 시각, 오디오 전반에 걸친 기능”을 개선했다고 월요일 라이브스트림 발표에서 OpenAI CTO 미라 무라티는 말했습니다. 모든 사용자에게 무료로 제공되며, 유료 사용자는 무료 사용자의 “최대 5배의 용량 제한”을 계속 유지할 것이라고 Murati는 덧붙였습니다.
OpenAI는 블로그 게시물에서 GPT-4o의 기능이 “반복적으로 출시될 예정”이라고 밝혔지만, 텍스트 및 이미지 기능은 오늘부터 ChatGPT에서 출시될 예정입니다.
OpenAI의 CEO인 샘 알트먼은 이 모델이 “기본적으로 멀티모달”이며, 이는 이 모델이 음성, 텍스트 또는 이미지로 콘텐츠를 생성하거나 명령을 이해할 수 있다는 의미라고 게시했습니다. GPT-4o를 사용해보고 싶은 개발자는 GPT-4 터보보다 가격은 절반, 속도는 두 배 빠른 API에 액세스할 수 있다고 Altman은 덧붙였습니다.
새 모델의 일부로 ChatGPT의 음성 모드에 새로운 기능이 추가됩니다. 이 앱은 실시간으로 반응하고 주변 세계를 관찰하는 등 마치 Her와 같은 음성 비서 역할을 할 수 있게 될 것입니다. 현재의 음성 모드는 한 번에 하나의 프롬프트에 응답하고 들을 수 있는 것만 처리하는 제한적인 모드입니다.
알트만은 라이브스트림 이벤트가 끝난 후 블로그 게시물에서 OpenAI의 궤적을 되돌아봤습니다. 그는 회사의 원래 비전은 “세상을 위한 모든 종류의 혜택을 창출하는 것”이었지만, 그 비전이 바뀌었다고 인정했습니다. OpenAI는 고급 AI 모델을 오픈소스화하지 않는다는 비판을 받아왔으며, 알트만은 이러한 모델을 유료 API를 통해 개발자가 사용할 수 있도록 하고 제3자가 이를 개발하는 것으로 회사의 초점을 바꿨다고 말했습니다. “이제는 우리가 AI를 만들고 다른 사람들이 이를 이용해 우리 모두가 혜택을 누릴 수 있는 온갖 종류의 놀라운 것들을 만들어낼 것으로 보입니다.”
오늘 GPT-4o가 출시되기 전, 상반된 보도에 따르면 OpenAI가 구글과 Perplexity에 대항할 AI 검색 엔진을 발표하거나, GPT-4에 음성 어시스턴트를 탑재하거나, 완전히 새롭고 개선된 모델인 GPT-5를 발표할 것이라고 예측했습니다. 물론 OpenAI는 제미니 팀의 다양한 AI 제품이 출시될 것으로 예상되는 기술 대기업의 대표 컨퍼런스인 Google I/O를 앞두고 이번 출시 시기를 정했습니다.
--------------------------------------------------광고(Advertising)-------------------------------------------------------------------------------------