
**번역본뉴스입니다. 오역이 있을수 있습니다.
LLM과 생성형 AI의 등장에 대한 리눅스 커뮤니티의 반응은 매우 엇갈리고 있지만, 우분투는 최근 '우분투의 AI 미래'에 관한 프로젝트 토론 스레드에서 그 입장을 어느 정도 명확히 했습니다. 요점은 2026년 10월에 출시될 우분투 26.10 '스통킹 스팅레이(Stonking Stingray)'—26.04 이후의 다음 주요 릴리스—를 기점으로 운영 체제 전반에 새로운 AI 기능이 흩어져 탑재되기 시작할 것이라는 점입니다. 프로젝트 기술 리드인 존 시거(Jon Seager)는 2026년 들어 우분투가 내부적으로 개발자들에게 AI 사용을 장려하기 시작했으며, 엔지니어들이 "깊게 파고들어" 결과물을 측정함으로써 무엇이 효과적이고 무엇이 아닌지 실제로 파악하도록 동기를 부여하고 있다고 밝혔습니다. 내부 도입이 증가함에 따라 캐노니컬(Canonical)은 AI를 OS에 통합할 예정이지만, 그는 "책임감과 투명성이 우리 접근 방식의 핵심"이라고 강조했습니다.
이러한 접근 방식은 우분투의 모든 구석구석에 챗GPT(ChatGPT)를 쑤셔 넣는 대신, 캐노니컬이 가능한 한 오픈 소스 모델과 오프라인 로컬 추론을 우선시할 것임을 의미합니다. 또한 캐노니컬은 단순히 가중치(weights)가 공개되었는지를 따지는 것을 넘어 모델의 라이선스 약관에도 각별한 주의를 기울일 것입니다. AI 구현은 시거가 설명한 '암시적(implicit)' 기능과 '명시적(explicit)' 기능의 형태로 제공됩니다. 암시적 기능은 음성-텍스트 변환(STT)이나 광학 문자 인식(OCR)처럼 OS에 직접 통합되어 표준 작동을 향상시키는 기능을 의미하며, 명시적 기능은 에이전트 기반 및 AI 자동화 워크플로우와 같은 AI 중심 기능을 의미합니다. "암시적 AI 기능은 우분투가 이미 하던 일을 개선할 것이며, 명시적 AI는 새로운 기능으로 도입될 것입니다." 우분투에 AI를 어떻게 구현할지에 대한 캐노니컬의 전체 성명은 다음과 같습니다.
우분투(Ubuntu)에서의 AI 미래 존 시거(Jon Seager) - https://discourse.ubuntu.com/t/the-future-of-ai-in-ubuntu/81130
2026년이 지나면서 LLM 기반 도구는 점점 더 유비쿼터스화되고 있습니다. 기술 산업 전반의 도입 양상은 어떤 프로젝트가 'AI' 기술을 수용하는지, 그리고 기업들이 도입 구조를 어떻게 짜는지에 따라 엇갈리고 있습니다. 그 결과, 캐노니컬과 우분투가 AI를 통합하기 위해 무엇을 할 것인지(또는 하지 않을 것인지)에 대한 질문을 자주 받습니다.
이 글에서는 캐노니컬과 우분투의 미래에서 AI가 어떤 역할을 할 것인지, OS의 AI 기능을 분류하는 저의 프레임워크, 그리고 현재 캐노니컬이 내부적으로 어떻게 도입에 접근하고 있는지에 대해 자세히 설명하겠습니다. 이는 우리의 의도를 이해하는 데 도움이 될 것입니다.
결론부터 말씀드리면, 캐노니컬은 우리의 가치와 가장 부합하는 라이선스 조건을 가진 **오픈 가중치 모델(open weight models)**과 오픈 소스 하네스(harness)를 결합하여, 집중적이고 원칙 있는 방식으로 AI 도구 사용을 확대하고 있습니다. AI 기능은 충분한 성숙도와 품질을 갖췄다고 판단되는 대로 내년 중 우분투에 탑재될 예정이며, 기본적으로 로컬 추론을 지향할 것입니다.
우분투의 AI 기능은 두 가지 형태로 제공될 것입니다. 첫째는 백그라운드에서 AI 모델을 사용하여 기존 OS 기능을 강화하는 수단이며, 둘째는 이를 원하는 사용자를 위한 'AI 네이티브' 기능 및 워크플로우의 형태입니다.
캐노니컬의 AI 도입
올해 캐노니컬은 AI 도구에 대한 교육과 역량 개발을 보다 의도적으로 추진하기 시작했습니다. 우리는 토큰 사용량이나 AI로 작성된 코드의 비율 같은 얕은 지표를 설정하지 않고, 대신 엔지니어들이 실험을 통해 AI 도구가 어디에서 가치를 더하는지 이해하도록 장려하고 있습니다. 단일한 조기 AI 스택을 강요하기보다, 각 팀이 '서로 다른 것'을 선택해 깊게 파고들어 향후 6개월 동안 조직으로서 더 많은 것을 배울 수 있도록 인센티브를 제공하고 있습니다.
AI 도구가 당연히 필요한 작업들이 있습니다. 이러한 경우 AI는 자율적으로 작동하여 탁월한 결과를 만들어낼 수 있습니다. 특히 작업 성격이 기계적이고 적절한 컨텍스트(문맥)가 주어질 때 더욱 그렇습니다. 반면 고전하는 사례도 있습니다. 저의 희망은 향후 몇 달 동안 모든 엔지니어가 AI 도구의 전 범위를 다루는 데 있어 유능함과 유연함을 갖추는 것입니다. 즉, 효과적인 곳에는 사용하고 그렇지 않은 곳은 피하는 것입니다.
저는 캐노니컬 직원을 AI 사용량으로 평가하지 않고, 얼마나 일을 잘 완수하는지로 계속 평가할 것입니다. AI가 캐노니컬의 소프트웨어 엔지니어 일자리를 뺏지는 않겠지만, AI 도구에 능숙한 다른 소프트웨어 엔지니어는 분명 그럴 수 있습니다. AI 사용 그 자체를 목적으로 하는 것은 노출을 늘리는 것 외에는 건설적인 목표가 아니며, 운영 코드에서 좋은 결과를 내는 경우도 드뭅니다. 잘 최적화된 곳에, 제어와 검토가 가능한 방식으로 사용될 때 AI는 매우 효과적일 수 있습니다. 저는 AI가 교육 보조 도구로 사용되거나, 개발 작업을 가속화하고, 디자인 보조로서 몰입형 프로토타입을 만들며, 까다롭거나 단조로운 트러블슈팅을 돕는 데 아주 효과적으로 사용되는 것을 보았습니다.
신중한 접근
책임감과 투명성은 우리 접근 방식의 핵심입니다. 여러분 중 다수는 오픈 소스 프로젝트에 아무런 배려나 고민 없이 던져진 '슬롭(slop, 조잡한 결과물)' 풀 리퀘스트와 기여에 대한 보고를 읽어보셨을 것입니다. 이는 결코 용납될 수 없는 기여 방식이며, 캐노니컬이 권장하는 바가 절대 아닙니다.
또한 이러한 도구에 대한 과도한 의존이 새로운 개념을 학습하는 능력을 저해할 수 있다는 우려도 커지고 있습니다. 이는 가능한 일이며, 몇 년 전 스택오버플로우(StackOverflow)에 대해 같은 지적이 나왔을 때보다 더 심각할 수도 있습니다. 하지만 저는 이것이 팀의 문화와 기대치에 달려 있다고 생각합니다. 제 경험상 LLM은 훌륭한 학습 도구였습니다. 우리는 동료들과 오픈 소스 기여자들이 기계에서 나오는 결과물을 맹목적으로 신뢰하지 않고 회의적으로 바라보는 본능을 기르도록 돕고, LLM이 가장 강력하면서도 동시에 가장 제한적인 부분이 어디인지 이해하도록 교육해야 합니다.
이제 조직들은 감사(audit)해야 할 도구와 공급업체 세트가 하나 더 늘었습니다. 업계와 고객 기반에 따라 어떤 모델과 도구를 사용할 수 있는지(현재로서는 아예 없을 수도 있음) 제한이 있을 수 있지만, 바로 그 지점에서 로컬 및 오프라인 추론과 LLM이 호출할 수 있는 맞춤형 도구에 대한 접근성이 매우 중요해질 수 있습니다.
또한 LLM의 맥락에서 '오픈 소스'가 논란의 여지가 있는 용어임을 인정합니다. 모델 가중치에 대한 접근은 의미가 있지만, 그것이 오픈 소스 커뮤니티가 익숙해진 수준의 투명성과 동일하지는 않습니다. 우분투에서 사용 가능한 모델을 선택할 때, 우리는 단지 가중치가 공개되었는가뿐만 아니라 모델 라이선스 약관에 대해 균형 잡힌 시각을 가질 것입니다. 우분투의 관점에서 우리의 편향은 로컬 추론, 오픈 소스 하네스, 그리고 우리의 가치와 호환되는 라이선스 약관을 가진 모델을 향할 것이며, 사람들이 필요로 하는 외부 서비스에 대해서는 명확하게 정의된 인터페이스를 제공할 것입니다.
도입 속도를 고려할 때, 당분간은 의문스러운 사용 사례가 계속 보일 것입니다. 오픈 소스 커뮤니티의 오랜 구성원으로서 우리의 역할 중 하나는 AI 도구로 달성할 수 있는 최전선에 머물며 솔선수범하는 것입니다. 우리는 책임감 있고 사려 깊은 사용을 통해 무엇을 이룰 수 있는지 보여주어야 하며, 새로운 기여자들이 이러한 도구를 놀라운 효과로 사용하고 향후 몇 년 동안 차세대 오픈 소스에 기여할 수 있도록 더 나은 관행으로 이끌어야 합니다.
암시적 AI vs. 명시적 AI 기능
지난 몇 주 동안 저는 우분투 내에서의 다양한 AI 도입 방식을 생각하는 데 도움이 될 프레임워크를 개발하기 시작했습니다. 그 중심에는 명시적 AI와 암시적 AI 기능이라는 아이디어가 있습니다.
암시적(Implicit) AI는 사용자에게 새로운 정신적 모델을 도입하지 않고 기존 운영 체제 기능을 강화하는 것입니다. 흥미로운 예 중 하나는 우분투에 최고 수준의 음성-텍스트(STT) 및 텍스트-음성(TTS) 기능을 제공하는 것입니다. 저는 이를 단순히 "AI 기능"으로 보지 않습니다. 최소한의 단점으로 극적으로 개선될 수 있는 중요한 접근성 기능으로 봅니다. 이 중 상당수는 오픈 소스 하네스와 오픈 가중치 모델을 사용한 로컬 추론으로 달성할 수 있으며, 이 사용 사례에서 정확하고 효율적입니다.
명시적(Explicit) AI 기능은 더 명확하게 AI 중심적인 기능이며, 더 '에이전틱(agentic)'한 워크플로우를 포함할 수 있습니다. 이는 새 문서나 애플리케이션을 작성하거나, 문제 해결 워크플로우를 자동화하거나, 타겟팅된 일일 뉴스 브리핑과 같은 개인 맞춤형 자동화 작업이 될 수 있습니다. 여기에는 원치 않는 부작용을 방지하기 위해 관련 보안 및 격리(confinement) 제어 장치가 마련되어 있는지 확인해야 하는 큰 책임이 따릅니다.
암시적 AI 기능은 우분투가 이미 하던 일을 개선할 것이며, 명시적 AI는 새로운 기능으로 도입될 것입니다.
로컬 추론에 대한 접근성
저는 과거에 **인퍼런스 스냅(inference snaps)**에 대해 쓴 적이 있습니다. 요점은 인퍼런스 스냅이 여러분의 하드웨어에 최적으로 구성된 모델을 사용하여 로컬 추론에 대한 간소화된 접근을 제공한다는 것입니다. 우분투의 광범위한 보급과 캐노니컬의 실리콘(반도체) 회사들과의 파트너십을 통해, 우리는 사용자들의 인지적 부담을 거의 주지 않으면서 배포판을 위한 고성능 기초 추론 능력을 제공할 수 있게 되었습니다. 올라마(Ollama), 허깅페이스(Huggingface) 및 수많은 모델 양자화 사이에서 고군분투하는 것보다
snap install nemotron-3-nano를 실행하는 것이 훨씬 쉽습니다. 해당 실리콘 회사가 기여했다면 스냅은 특정 실리콘에 최적화된 비트를 제공할 것입니다.인퍼런스 스냅은 다른 스냅들과 동일한 격리 규칙을 적용받으므로, 모델이 사용자의 기기나 데이터에 무분별하게 접근하지 못한다는 확신을 사용자에게 줄 수 있습니다.
이전에는 LLM의 완전한 힘을 얻으려면 파라미터가 높은 모델로 치우쳐야 했습니다. 하지만 최근 Gemma 4나 Qwen-3.6-35B-A3B와 같은 모델들의 발전은 웹 검색, 외부 API 및 파일 시스템과의 상호작용, 라이브 시스템 트러블슈팅, 그리고 초기 학습 데이터 이외의 주제에 대한 근본적인 추론을 가능하게 하는 '도구 호출(tool-calling)'과 같은 진보된 능력을 보여줍니다.
인퍼런스 스냅의 다음 단계는 확장입니다. 우리는 최신 모델 출시 속도에 맞춰 팀을 보강하고, 가능한 한 많은 실리콘 플랫폼에 대해 최적화된 변체 모델의 수를 늘릴 것입니다.
컨텍스트 인식 운영 체제
텍스트-음성 변환이나 강화된 스크린 리딩과 같은 기능을 넘어, 사용자들은 점차 에이전트와 함께 일하는 데 익숙해지고 있습니다. 저는 지난 몇 년간 리눅스가 쌓아온 모든 힘과 능력이 더 많은 사람에게 더 접근하기 쉬워질 수 있다는 아이디어를 좋아합니다.
우리는 에이전틱 워크플로우를 원하는 사람들을 위해 우분투에 통합할 계획을 세우고 있습니다. 이는 품격 있고, 우리의 사용자 기반과 조화를 이루며, 우리의 개인정보 보호 및 보안 가치를 존중하는 방식이 될 것입니다. 초기 단계에서 분명한 것은 우리가 스냅(Snaps)을 통한 격리된 패키징에 투자한 것과 핵심 시스템 기능을 우분투로 통합한 것이 이 목표를 안전하게 달성하는 데 큰 도움이 될 것이라는 점입니다.
리눅스 데스크탑 생태계는 파편화된 것으로 유명하며, 어떤 면에서는 그 파편화가 성공에 기여하기도 했습니다. 수년 동안 많은 똑똑한 사람들이 자신의 가려운 곳을 긁기 위해 훌륭한 소프트웨어를 만들어왔지만, 그 모든 부분들을 통합하는 것은 항상 과제였으며 일부 사용자에게는 불만스러운 경험을 주기도 했습니다. 우리가 시스템 문맥에서 LLM을 신중하게 사용한다면, 현대적인 리눅스 워크스테이션의 능력을 명확히 설명해주고 더 넓은 대중에게 다가갈 수 있게 해줄 것입니다.
하지만 이를 왜 데스크탑으로만 한정하겠습니까? 여러분이 수많은 우분투 머신을 관리하는 **사이트 신뢰성 엔지니어(SRE)**라면, 장애 발생 시 로그를 해석하여 원인 분석 속도를 높이거나 엄격한 가드레일 하에 일련의 예약된 유지보수 작업을 수행하는 등 LLM이 도움을 줄 수 있는 방법은 셀 수 없이 많습니다. 저는 어떤 우분투 머신에서도 해당 기기 유형에 맞는 적절한 인터페이스와 함께 제 자리에 있는 것처럼 느껴지는 기능을 구축하고 싶습니다.
사이트 신뢰성 엔지니어링의 요소를 에이전트에게 위임한다고 해서 반드시 완전히 새로운 종류의 위험이 도입되는 것은 아닙니다. 그것은 기존 프로덕션 시스템의 제약 조건을 상속받아야 합니다. 잘 운영되는 프로덕션 환경은 이미 엄격한 액세스 제어, 감사 추적, 관찰과 실행 사이의 명확한 분리에 의존하고 있습니다. 저의 목표는 우분투가 에이전트가 기존 경계 내에서 작동하는 데 필요한 기본 요소(primitives)를 노출하는 것입니다. 그것이 읽기 전용 분석이든, 모든 작업에 대한 엄격하게 범위가 정해진 권한이든, 결정과 결과에 대한 완전한 감사 가능성이든 말입니다. 그런 의미에서 과제는 "에이전트를 신뢰하는 것"보다는 우리가 이미 프로덕션 시스템에 적용하고 있는 것과 동일한 가드레일에 대한 신뢰를 쌓는 것에 가깝습니다.
리눅스 머신에게 Wi-Fi 연결 문제를 해결해 달라고 요청하거나, 사전 구성되고 보안이 적용되며 TLS를 통해 접속 가능한 오픈 소스 소프트웨어 포지(forge)를 구축해 달라고 요청하는 모습을 상상해 보십시오. 모바일 앱, 문자 메시지, 음성 명령 등 다양한 매체를 통해 다른 기기에서 리눅스 머신을 제어하는 관문으로 이러한 기능을 사용하는 것을 쉽게 상상할 수 있습니다.
효율성과 성능
로컬 추론에 대한 접근성은 성능이 뛰어난 하드웨어에 대한 접근성과 어느 정도 연결되어 있습니다. 범용 하드웨어에서 오픈 가중치 모델을 쉽게 소비할 수 있도록 최선을 다하고 있지만, 이러한 작은 파라미터 모델은 아직 많은 작업에서 대형 모델과 경쟁할 수 없습니다. 저는 이것이 대부분 일시적인 문제라고 봅니다. 항상 더 큰 모델과 더 작은 모델이 존재할 것이고, 컴퓨팅 자원이 더 많은 사람이 적은 사람보다 더 많은 일을 할 수 있겠지만, 그 격차는 좁혀지기 시작할 것입니다.
전 세계의 실리콘 제조업체들은 계속해서 향상된 추론 능력을 갖춘 소비자급 실리콘을 만드는 데 몰두하고 있으며, 오늘날 프런티어 AI 팩토리에 접근해야만 가능해 보이는 일들이 앞으로 몇 달, 몇 년 안에 훨씬 더 접근하기 쉬워질 것입니다.
우리는 대화에서 성능과 효율성을 모두 고려해야 합니다. 클라우드에 있는 거대 모델의 초당 토큰 수와 로컬 머신을 비교하기 쉽지만, 이러한 워크로드에 대한 네이티브 가속기의 장점은 전력 소모도 극적으로 줄어든다는 점입니다. 이는 다시 한번 진입 장벽을 낮춥니다. 하룻밤 사이에 그곳에 도달하지는 않겠지만, 저는 우분투가 그곳에 도달했을 때 준비되어 있기를 바라며, 우리의 실리콘 파트너십과 구현 이니셔티브가 이를 현실로 만드는 데 점점 더 중요한 역할을 하고 있습니다.
요약
2026년 내내 우리는 의도적이고 안전하며 우리의 오픈 소스 가치에 부합하는 방식으로 우분투 사용자들에게 프런티어 AI에 대한 접근성을 제공하기 위해 노력할 것입니다. 엔지니어를 위한 교육, 탄력적인 시스템 구축에 대한 기존 지식, 그리고 강화되는 실리콘 파트너십을 결합함으로써 효율적인 로컬 추론, 강력한 접근성 기능, 그리고 우분투를 의지하는 사람들에게 의미 있게 더 유능한 컨텍스트 인식 OS를 제공할 것입니다.
우분투는 AI 제품이 되는 것이 아닙니다. 하지만 사려 깊은 AI 통합을 통해 더 강력해질 수 있습니다.
--------------------------------------------------------------------------------------광고(Advertising)--------------------------------------------------------------------------------------------------------