#
독점 공개: Ph.D. 수준의 슈퍼 에이전트 곧 출시 예정
마이크 앨런, 짐 반더헤이
주요 생성형 AI 모델의 설계자들 사이에서, 아마도 OpenAI가 될 것으로 예상되는 최상위 기업이 몇 주 안에 복잡한 인간의 작업을 수행할 수 있는 Ph.D. 수준의 슈퍼 에이전트를 출시하는 획기적인 발전을 발표할 것이라는 소문이 돌고 있습니다.
OpenAI의 CEO 샘 알트만은 - 지난 9월 이를 "지능의 시대"라고 명명했으며, 이번 주말 취임식 참석을 위해 워싱턴에 있습니다 - 1월 30일 워싱턴에서 미국 정부 관리들과의 비공개 브리핑을 예정하고 있습니다.
## 왜 중요한가
이러한 예상되는 발전은 메타의 마크 저커버그와 다른 이들이 올해 중급 소프트웨어 엔지니어와 기타 인간의 일자리를 AI가 대체할 것이라고 공개적으로 언급한 이유를 설명합니다.
"아마도 2025년에는," 저커버그가 10일 전 조 로건과의 대화에서 말했습니다. "메타를 비롯한 이 분야에서 일하는 다른 기업들이 회사의 중급 엔지니어 수준의 코드를 작성할 수 있는 AI를 보유하게 될 것입니다."
"시간이 지남에 따라, 우리 앱의 많은 코드와 우리가 생성하는 AI를 포함해서, 실제로 인간 엔지니어가 아닌 AI 엔지니어에 의해 구축될 것입니다," 그는 덧붙였습니다.
## 심층 분석
슈퍼 에이전트의 혁신은 생성형 AI를 재미있고 멋지며 이상적인 도구에서 진정한 인간 노동자의 대체제로 발전시킬 수 있습니다.
미국 정부와 주요 AI 기업의 소식통들에 따르면, 최근 몇 달 동안 선두 기업들이 AI 발전에 있어 예상을 뛰어넘고 있다고 합니다.
OpenAI는 지난주 적절한 규칙과 인프라 투자가 이루어진다면 AI가 "전국적인 재산업화를 촉진할 수 있다"고 주장하는 "경제 청사진"을 발표했습니다.
## 주의사항
AI 세계는 과대 선전으로 가득합니다. 현재 대부분의 사람들은 가장 인기 있는 모델들을 사용하여 인간의 작업을 진정으로 모방하는 데 어려움을 겪고 있습니다.
AI 투자자들은 그들의 야망에 자금을 지원하기 위해 기업 가치를 높이려고 작은 진전을 획기적인 것으로 과대 포장할 이유가 있습니다.
하지만 소식통들은 이번 발전이 중요하다고 말합니다. 여러 OpenAI 직원들이 최근의 진전에 대해 흥분과 동시에 불안감을 느낀다고 친구들에게 말하고 있습니다. 토요일 칼럼에서 전한 바와 같이, 제이크 설리번 - 퇴임하는 백악관 국가안보보좌관으로서 국가의 가장 큰 기밀에 대한 보안 허가를 가진 - 은 앞으로 몇 년이 AI 발전이 "재앙"으로 끝날지 여부를 결정할 것이라고 믿고 있습니다.
## 큰 그림
복잡한 작업을 인간에게 위임하지 않는 세상을 상상해보십시오. 대신, Ph.D. 수준의 전문가에게 기대할 수 있는 정확성, 속도, 창의성으로 이러한 작업들이 수행됩니다.
우리는 슈퍼 에이전트에 대해 이야기하고 있습니다 - 인간의 마음이 조직하고 해결하기 어려운 복잡하고 다층적인 현실 세계의 문제들을 다루도록 설계된 AI 도구들입니다.
이들은 단순히 하나의 명령에 응답하는 것이 아니라, 목표를 추구합니다. 슈퍼 에이전트는 엄청난 양의 정보를 종합하고, 옵션을 분석하며 결과물을 제공합니다.
몇 가지 예시:
- **처음부터 구축**: 에이전트에게 "새로운 결제 소프트웨어를 만들어줘"라고 말하면, 에이전트는 기능하는 제품을 설계, 테스트하고 제공할 수 있습니다.
- **혼돈 속에서 의미 찾기**: 잠재적 투자에 대한 재무 분석을 위해, 에이전트는 수천 개의 출처를 검토하고, 위험을 평가하며, 인간 팀보다 더 빠르고(더 나은) 통찰력을 종합할 수 있습니다.
- **물류 마스터**: 외부 워크숍을 계획하나요? 에이전트는 행사장 근처의 개인실이 있는 큰 저녁 식사 예약까지 포함하여 일정 관리, 여행 준비, 자료 준비 등을 처리할 수 있습니다.
이것은 갑자기 일어나는 변화가 아닙니다 - AI는 스펙트럼을 따라 발전하고 있습니다.
이러한 도구들은 매일 더 똑똑해지고, 더 날카로워지며, 더 통합되고 있습니다. "이는 깊이 있는 연구를 우리가 보지 못한 규모와 범위로 수행할 수 있는 능력 때문에 건강, 과학, 교육 분야에서 큰 응용이 있을 것입니다," 한 AI 내부자는 말합니다. "그리고 그 복합적인 효과는 실제 생산성 성장으로 이어집니다."
## 반대 의견
생성형 AI의 아킬레스건인 - 사실을 지어내는 방식 - 에는 여전히 큰 문제가 있습니다. 신뢰성과 환각은 AI를 자율 에이전트로 전환하려고 할 때 더 큰 문제가 됩니다: OpenAI와 경쟁사들이 에이전트가 통제를 벗어나지 않고 작업을 수행할 수 있다고 고객과 사용자들을 설득하지 못한다면, 이 회사들의 자율 에이전트 비전은 실패할 것입니다.
OpenAI의 최고 연구원 노암 브라운은 금요일에 트윗했습니다: "요즘 소셜 미디어에서 모호한 AI 과대 선전이 많습니다. 추가 진전에 대해 낙관적일 만한 좋은 이유가 있지만, 여전히 많은 미해결된 연구 문제가 남아있습니다."
## 주목할 점
두 가지 거대한 지각 변동이 동시에 일어나고 있습니다 - 트럼프 대통령 당선자와 MAGA가 권력을 잡는 바로 그 순간에 AI 기업들이 인간 수준 또는 그 이상의 지능에 도달하기 위해 경쟁하고 있습니다.
의회가 AI를 위한 데이터, 칩, 에너지를 지원하는 미국 일자리 성장을 촉진하기 위해 대규모 AI 인프라 법안을 다룰 것으로 예상됩니다.
그리고 스티브 배넌과 같은 MAGA 원년 멤버들이 다가오는 세대의 AI가 관리직, 행정직, 기술직 근로자들에게 악영향을 미칠 것이라고 주장할 것으로 예상됩니다. "이 새로운 모델들은 노동력을 파괴할 것입니다 - 특히 젊은이들이 시작하는 초급 수준에서요," 배넌이 우리에게 말했습니다.
Axios의 기술 담당 편집장인 스콧 로젠버그가 취재에 참여했습니다.
정부에게 1월 30일 시연예정인게 이 내용인듯
axios 기사인데 네임드 언론사이긴하지만 내용이 약간 루머성도 있으니 기다려봐야할 듯 함
특이점이 온다 갤러리
Copyright ⓒ 시보드 무단 전재 및 재배포 금지
본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.
다음 내용이 궁금하다면?
광고 보고 계속 읽기
원치 않을 경우 뒤로가기를 눌러주세요

