[00:13]
[음악]
[00:21]
여기 와서 정말 기뻐요. 뉴욕을 좋아하고
[00:23]
여기서 모든 분들을 만나는 것도 좋아해요.
[00:26]
저는 구글 랩스의 캐스 코벡입니다.
[00:29]
ADA라는 작은 팀에서 일하고 있고,
[00:31]
오늘은 Jewels라는 프로젝트에서
[00:32]
저희가 진행하고 있는 작업들에 대해
[00:33]
이야기해보려고 합니다.
[00:37]
몇 달 전 우리 집에서 식기세척기가 고장났어요.
[00:39]
수리하는 동안 남편이
[00:41]
모든 설거지를 하겠다고 결정했습니다.
[00:44]
그래서 그는 제게 그렇게 하겠다고 말했어요.
[00:45]
하지만 매일 밤마다
[00:47]
설거지를 하라고 상기시켜야 했습니다.
[00:49]
그것이 얼마나 빨리 짜증나게 되었는지
[00:51]
상상하실 수 있을 거예요.
[00:54]
그리고 깨달았습니다. 비록 제가
[00:56]
직접 설거지를 하지 않았지만
[00:58]
여전히 정신적 부담을 지고 있었다는 걸요.
[01:00]
많은 분들이 이에 공감하실 것 같아요.
[01:01]
저는 그 일이 완료되었는지 추적하고,
[01:03]
후속 조치를 취하며,
[01:06]
일이 계속 진행되도록 확인하고 있었어요.
[01:09]
그 순간 깨달았습니다.
[01:10]
바로 그것이 현재 비동기 에이전트와
[01:13]
함께하는 우리의 현실이라는 걸요.
[01:15]
에이전트들이 일부 작업을 처리할 수 있지만
[01:17]
개발자인 우리가 여전히 정신적 부담을 지고
[01:19]
모니터링하고 있습니다. 진실을 말씀드리면,
[01:23]
인간은 병렬 처리가 아닌
[01:26]
순차 처리를 하는 존재입니다.
[01:29]
여러 목표를 저글링할 수 있지만
[01:32]
한 번에 모든 것이 아닌 순서대로 실행합니다.
[01:34]
Jewels에서 작업을 수동으로 시작할 때
[01:36]
보통 다음 단계로 넘어가기를 기다리게 됩니다.
[01:40]
바로 그 일시정지, 주의력의 틈이
[01:41]
우리가 추진력을 잃는 지점입니다.
[01:44]
이는 실제로 과학적으로 뒷받침되는데
[01:47]
인간은 자신이 멀티태스커라고 생각하지만
[01:49]
실제로는 여러 작업을
[01:51]
매우 빠르게 실행하고 있을 뿐입니다.
[01:55]
하지만 이러한 작업 간 전환에는
[01:57]
큰 비용이 따릅니다. 생산적인 시간의
[02:00]
최대 40%까지 소모될 수 있어요.
[02:02]
컨텍스트 전환과 재로딩으로
[02:05]
반나절을 잃는 셈이죠.
[02:11]
인간이 유니터(단일 처리자)라면
[02:13]
에이전트의 해결책은 무엇일까요?
[02:15]
비동기 에이전트가 성공하려면
[02:18]
개발자가 그들을 돌봐줄 것으로
[02:21]
기대해서는 안 됩니다.
[02:23]
16개의 서로 다른 클라우드 코드 작업이
[02:26]
16개의 다른 터미널에서 병렬로 실행되는
[02:28]
세 개의 큰 브라우저나 모니터에서의
[02:31]
그 트위터 게시물을 모두 봤을 거예요.
[02:33]
처음 그것을 봤을 때 생각했어요.
[02:35]
'제발, 그것이 미래의 개발자 경험이
[02:38]
되지 않기를'. 저는 작업을 관리하거나
[02:40]
에이전트를 관리하고 싶지 않아요.
[02:42]
코더가 되고 싶고 구축하고 싶습니다.
[02:45]
그래서 우리 시스템에서 신뢰할 수 있는
[02:48]
협력자가 필요합니다.
[02:50]
컨텍스트를 진정으로 이해하고
[02:53]
우리의 필요를 예측할 수 있으며
[02:55]
언제 개입해야 하는지 아는 에이전트 말이에요.
[02:59]
그리고 마침내 우리는 모델들이
[03:00]
점점 더 나아지고 있는 지점에
[03:02]
도달하고 있다고 생각합니다.
[03:05]
우리의 목표가 무엇인지 명확히 이해한다면
[03:08]
종단 간 실행에서 말이죠.
[03:09]
그리고 바로 그곳이 신뢰가
[03:12]
진정한 해결책이 되는 지점입니다.
[03:14]
무엇이 누락되었는지 알고 빈틈을 채우며
[03:17]
당신이 다른 일에 집중하는 동안
[03:19]
진행상황을 계속 앞으로 밀고 나갈 수 있는
[03:20]
가장 중요한 것에 집중할 수 있게 해줍니다. 그리고
[03:22]
본질적으로 우리는 줄이 시키지 않아도
[03:24]
설거지를 하길 원합니다.
[03:26]
현재 대부분의 AI 개발 도구는
[03:28]
근본적으로 반응형입니다. CLI나 IDE를 열고
[03:31]
에이전트에게 무언가를 요청하면 응답하거나
[03:33]
사용자가 타이핑을 시작할 때까지 기다렸다가
[03:35]
자동완성을 제안합니다. 그리고
[03:37]
이 모델에는 장점이 있습니다.
[03:39]
매우 효율적이죠. 명시적으로
[03:41]
요청했을 때만 연산을 사용합니다. 하지만 제가
[03:44]
스스로에게 던지는 진짜 질문은
[03:46]
이것이 제가 AI를 관리하고 싶은 방식인가 하는 것입니다.
[03:48]
미래를 생각해보면, 연산이 더 이상
[03:50]
제약 요소가 아닌 세상을 상상해보세요.
[03:52]
명령을 위한 단일 반응형 어시스턴트 대신
[03:55]
수십 개의 작은 능동형
[03:57]
에이전트들이 당신과 병렬로 작업하며
[04:00]
조용히 패턴을 찾고
[04:02]
마찰을 감지하고, 당신이
[04:04]
요청하기도 전에 지루한 작업들을
[04:07]
대신 처리하는 것이 가능할 것입니다.
[04:10]
하기 싫어하는 일들을 말이죠. 당신이
[04:12]
피해왔던 인증 버그 수정이나
[04:15]
설정 업데이트, 잠재적 오류 플래그,
[04:17]
마이그레이션 준비 등의 작업들이
[04:20]
모두 백그라운드에서 처리될 수 있고
[04:23]
이 모든 것이
[04:25]
자연스러운 워크플로의 트리거로
[04:27]
발생할 수 있습니다. 그래서
[04:30]
능동형 시스템을 구성하는 네 가지
[04:32]
핵심 요소가 있다고 생각합니다.
[04:33]
첫 번째는 관찰입니다.
[04:36]
에이전트는 지속적으로
[04:37]
무슨 일이 일어나는지, 코드 변경사항이
[04:40]
무엇인지, 패턴이 무엇인지,
[04:42]
워크플로가 어떤지
[04:43]
등을 이해해서 전체 프로젝트에 대한
[04:45]
맥락을 파악해야 합니다. 그리고
[04:47]
개인화가 있습니다. 이것은
[04:48]
어렵습니다. 당신이 어떻게 일하는지,
[04:50]
무엇을 중요하게 여기는지, 무엇을
[04:52]
무시하는 경향이 있는지, 선호도가 무엇인지,
[04:54]
절대 건드리고 싶지 않은
[04:55]
코드가 무엇인지를 학습해야 합니다. 그리고 시기적절해야 합니다.
[04:57]
너무 일찍 오면 방해가 되고
[04:59]
너무 늦으면
[05:01]
순간을 놓치게 됩니다. 그리고
[05:03]
워크플로 전반에 걸쳐 원활하게 작동해야 합니다.
[05:05]
터미널, 저장소,
[05:08]
IDE 등 이미 자연스럽게 작업하는
[05:10]
공간에 스스로 통합되어야 하며
[05:12]
다른 곳이나 비밀스럽거나
[05:15]
잊어버린 애플리케이션으로
[05:16]
강제로 이동시키면 안 됩니다.
[05:18]
이 모든 도구들을 결합하는 것은
[05:20]
간단하지 않다는 것을 상상할 수 있을 것입니다.
[05:25]
[웃음]
[05:26]
이 프레젠테이션을 진행하는 것도 그렇고요.
[05:29]
에이전트가 워크플로를 이해하고
[05:32]
필요를 예측한 다음
[05:34]
워크플로를 중단하지 않고
[05:37]
정확한 순간에 개입하도록
[05:39]
할 수 있기를 원합니다.
[05:41]
그때 정말로
[05:43]
마법 같은 느낌이 들기 시작합니다. 흥미로운 점은
[05:46]
이런 능동형 시스템들이
[05:47]
오늘날 우리 주변에 있다는 것입니다.
[05:48]
제가 좋아하는 예시 중 하나는 구글 네스트인데
[05:51]
집에 설치하고 구성한 다음
[05:53]
집을 나가고 돌아오고
[05:56]
잠들고 아침에 일어나는
[05:58]
습관을 학습하기 시작합니다.
[06:00]
그러면 곧 집의
[06:02]
온도 조절에 대해
[06:04]
생각할 필요가 없어집니다
[06:05]
집 안의 기후 제어에 대해 더 이상 신경 쓸 필요가 없어집니다. 왜냐하면 시스템이
[06:06]
당신의 습관을 학습했기 때문이죠. 또 다른 예는 당신의 몸입니다.
[06:09]
달리기를 하거나 운동을 시작할 때 심박수가 올라가거나
[06:11]
넘어질 것을 미리 예측해서
[06:14]
의식적으로 '손을 내밀어야지'라고 생각하기 전에
[06:16]
몸이 먼저 반응합니다.
[06:18]
이렇게 생각해보면
[06:20]
능동성은 사실 그렇게
[06:22]
AI의 능동성은 사실 그렇게
[06:24]
미래적이지 않습니다. 매우 친숙하고
[06:26]
매우 인간적입니다. 그리고 그것이 바로 핵심입니다.
[06:29]
우리가 만들고 있는 것은
[06:32]
좋은 협력자처럼 행동하는 도구이며
[06:34]
명령줄 유틸리티보다는 덜 기계적인 것입니다.
[06:37]
우리는 이미 Jules라는 도구에서
[06:40]
이것을 구현하고 있습니다. Jules는
[06:42]
능동적이고 비동기적이며 자율적인
[06:44]
Google Labs의 코딩 에이전트입니다.
[06:45]
그리고 우리는 이것을 세 가지 수준의
[06:49]
능동성으로 구현하고 있습니다.
[06:51]
레벨 1은 협업이 실제로 시작되는 단계입니다.
[06:54]
그리고 이것이 현재 Jules가 작동하는 방식으로
[06:56]
누락된 테스트, 사용되지 않는 종속성,
[06:58]
안전하지 않은 패턴 같은 것들을 감지할 수 있습니다.
[07:01]
그리고 당신이 요청한 다른 작업을 수행하면서
[07:03]
그런 문제들을 자동으로 수정하기 시작합니다.
[07:05]
이것은 일종의 세심한 부요리사 같은 것으로
[07:07]
당신의 워크플로우에서 주방을 깨끗하게 유지하고
[07:09]
칼을 날카롭게 하며
[07:11]
주방을 잘 준비해두어서 당신이
[07:13]
다음에 할 일에 집중할 수 있게 해줍니다.
[07:14]
그리고 이것이 능동적 소프트웨어의 시작입니다.
[07:17]
레벨 2에서 에이전트는 전체 프로젝트에 대해
[07:19]
더욱 맥락적으로 인식하게 됩니다.
[07:21]
당신이 어떻게 일하는지, 어떤 코드를 작성하는지 관찰합니다.
[07:24]
만약 당신이 백엔드 엔지니어라면
[07:26]
React에 대한 도움이 필요할 수 있습니다.
[07:28]
만약 당신이 디자이너라면
[07:30]
데이터베이스 스키마 작성을 도와줄 수 있습니다.
[07:33]
그리고 당신이 사용하는 프레임워크가 무엇인지
[07:36]
배포 스타일이 어떤지 등을 학습합니다.
[07:38]
이것이 바로 주방 매니저입니다.
[07:41]
당신의 워크플로우에서 리듬을 유지하고
[07:42]
다음에 필요한 것을 미리 예측하는 역할을 하는
[07:44]
사람입니다.
[07:46]
그리고 레벨 3가 옵니다.
[07:48]
이것이 우리가 지금 12월을 향해
[07:50]
열심히 작업하고 있는 것입니다.
[07:53]
12월에 출시할 예정인 것을
[07:54]
조금 보여드리겠습니다.
[07:56]
하지만 레벨 3는
[07:57]
상황이 그 맥락 주변에서
[07:59]
수렴하기 시작하는 곳입니다.
[08:00]
에이전트가 맥락뿐만 아니라
[08:03]
결과까지 이해하기 시작하는 곳입니다.
[08:05]
이러한 선택들이 실제로 당신 제품의 사용자들에게
[08:08]
성능과 결과에 어떤 영향을 미치는지 말이죠.
[08:10]
그리고 그 수준에서 우리는
[08:12]
Jules를 가지고 있습니다. 또한 Stitch라는
[08:14]
디자인 에이전트도 있습니다.
[08:16]
그리고 우리가 만들고 있는
[08:18]
Insights라는 데이터 에이전트도 있고
[08:20]
이들이 모두 함께 모여서 당신의 애플리케이션 전반에 걸쳐
[08:23]
집단 지능을 구축하고 있습니다.
[08:25]
Jules는 소프트웨어에서 무엇이 망가지고 있는지 볼 수 있습니다.
[08:27]
Stitch는 사용자들이 어떻게
[08:29]
상호작용하는지 이해하고
[08:31]
Insights는 분석, 텔레메트리, 전환율과 같은
[08:34]
실제 세계 신호들로부터의 행동을 연결합니다.
[08:37]
그리고 함께 그들은 시스템 전체가 어떻게
[08:39]
경계를 넘나들며 개선사항을 제안할 수 있습니다
[08:42]
모든 것이 함께 작동하는 방식으로
[08:44]
함께 작동합니다. 성능 개선을 통해
[08:46]
사용자 경험을 향상시키고
[08:48]
회귀를 방지하기 위한 디자인 변경을 수행하죠
[08:50]
그리고 이 모든 것이 실시간 데이터를 기반으로
[08:53]
체계화됩니다. 여기서 핵심은
[08:56]
인간이 확실히 루프에 남아있다는 것입니다.
[08:58]
에이전트가 무엇을 하고 있는지 관찰하고
[09:00]
개입이 필요할 때 정제하며
[09:02]
잘못된 방향으로 갔을 때
[09:04]
재지시하는 것입니다.
[09:07]
레벨 3는 더 이상 자율성에 관한 것이 아닙니다.
[09:09]
실제로는 프로젝트와의 정렬에 관한 것이죠.
[09:12]
에이전트와 인간이
[09:14]
프로젝트의 전체 생명주기에 걸쳐
[09:17]
함께 협력하는 것입니다.
[09:19]
현재 Jules는 이 코드 인식 부분에 집중하고 있습니다.
[09:23]
환경, 프레임워크, 프로젝트 구조를 이해하고
[09:25]
시스템 인식 쪽으로 발전하고 있습니다.
[09:27]
우리가 Jules에 도입하고 있는 기능들 중
[09:28]
메모리라는 기능을 추가했는데
[09:30]
여러분이 많이 익숙하실 거라 생각합니다.
[09:33]
Jules가 자신만의 메모리를 작성할 수 있는
[09:34]
능력이고 여러분이 편집하고 상호작용할 수 있습니다.
[09:36]
Jules도 편집할 수 있고 이를 이해하여
[09:39]
여러분과 함께 작업하면서
[09:43]
프로젝트에 대한 메모리와 맥락,
[09:44]
지식을 구축합니다.
[09:46]
또한 Jules와 적대적으로 작동하는
[09:48]
크리틱 에이전트를 추가하여
[09:51]
코드가 고품질이 되도록 하면서
[09:53]
전체 코드 리뷰도 수행합니다.
[09:55]
그리고 Jules가 playwright 스크립트를 작성하고
[09:57]
스크린샷을 찍어서
[10:00]
검증할 수 있도록
[10:02]
궤적에 다시 넣는
[10:04]
검증 기능도 추가했습니다.
[10:06]
또한 코드와 저장소를 살펴보고
[10:09]
할 일 봇을 추가하여
[10:12]
나중에 해야 할 일이라고
[10:14]
표시한 것들을 찾아내서
[10:16]
해당 맥락으로
[10:18]
사전에 작업을 시작합니다.
[10:20]
또한 Jules가 모범 사례를 이해하고
[10:21]
제안하기 시작하는
[10:24]
기능과 환경 설정 기능도 추가하고 있습니다.
[10:25]
내부적으로 평가 실행에 사용하는
[10:28]
환경 에이전트가 있는데
[10:29]
이를 외부로 확장하여
[10:33]
환경이 어떻게 작동하는지 더 잘 이해하고
[10:34]
설정해주는 기능을 제공합니다.
[10:37]
그리고 적시 맥락이라는 것도 추가하고 있습니다.
[10:39]
이는 Jules 치트시트 같은 것으로
[10:40]
매우 구체적인 작업을 하다가
[10:43]
막혔을 때
[10:45]
여러분에게 연락하는 대신
[10:47]
즉시 해당 치트시트를
[10:49]
참조할 수 있습니다.
[10:51]
이 모든 것들이 Jules를
[10:52]
단순한 반응형 어시스턴트가 아닌
[10:54]
사전 능동적 팀원에 매우 가깝게 만들고 있습니다.
[10:57]
자, 오늘 아침 샌프란시스코에 있는
[11:01]
팀과 이야기했는데
[11:04]
라이브 데모를 하려고 했지만
[11:06]
라이브 데모의 신들이
[11:09]
오늘 아침 저와 맞지 않았습니다.
[11:11]
아직 스테이징에
[11:12]
푸시되고 있는 CLS들이 있어서요.
[11:14]
그래서 이것을 조금 설명드리겠습니다.
[11:16]
Jed를 아신다면, 아마 내일
[11:17]
이야기할 것 같은데,
[11:19]
우리가 애정을 담아 고쳐보려고 합니다
[11:22]
Jed의 코드를요.
[11:24]
Jed의 코드를 수정해보겠습니다. 여기서 보시는 것이 proactivity의 한 예시인데요
[11:28]
이것이 Jules입니다. 여기에 프롬프트를 입력하면
[11:31]
proactivity를 설정하고 활성화할 때 가장 먼저 하는 일은
[11:33]
Jules가 전체 코드베이스를 인덱싱하는 것입니다.
[11:34]
디렉토리를 인덱싱하고 수행할 수 있는 작업들을 찾기 시작합니다
[11:36]
그리고 그 결과가 화면에 나타납니다.
[11:40]
지금 여기서 보고 계신 것은
[11:41]
이 ADK Python 저장소에 대한
[11:43]
좀 더 자세한 내용입니다.
[11:46]
저장소를 인덱싱한 결과
[11:48]
여러 할 일(to-do) 항목들을 찾았습니다.
[11:52]
업데이트할 수 있는 여러 모범 사례들을 발견했고
[11:56]
발견한 내용에 대한 신호를 제공하고 있습니다.
[11:58]
보시면 신호는 높은 신뢰도
[11:59]
중간 신뢰도, 그리고 낮은 신뢰도로 구분됩니다.
[12:01]
실제로 제 코드에 있는 내용과
[12:02]
수행하려는 작업을 바탕으로
[12:04]
달성할 수 있다고 생각하는 정도를 알려주고 있습니다.
[12:07]
높은 신뢰도는 녹색으로
[12:09]
중간은 보라색, 낮은 신뢰도는 노란색으로
[12:11]
아래쪽에 표시됩니다.
[12:14]
이제 이 목록을 살펴보면서
[12:16]
수동으로 클릭해서
[12:18]
시작하고 싶은 작업을 선택할 수 있습니다.
[12:20]
프롬프트를 생각할 필요가 없죠.
[12:21]
코드를 직접 살펴볼 필요도 없고
[12:24]
인지적 부담을 줄일 수 있습니다.
[12:26]
현재 이러한 작업들을
[12:28]
자동으로 시작하는 기능을 개발 중입니다.
[12:29]
조만간 출시될 예정이에요.
[12:31]
물론 이런 항목들을 삭제할 수도 있습니다.
[12:34]
'이건 내가 원하는 게 아니야, 좋지 않아'라고 말할 수 있죠.
[12:36]
작업이 시작되면
[12:38]
더 자세히 들여다볼 수 있습니다.
[12:39]
제안하는 코드를 살펴볼 수도 있고
[12:42]
작업할 코드를 찾을 수도 있습니다.
[12:44]
해당 코드의 위치도 확인할 수 있죠.
[12:46]
그리고 왜 그 코드에서 작업하려는지
[12:48]
무엇을 하고 있는지에 대한 근거도 제공합니다.
[12:52]
훨씬 더 많은 맥락을 제공해서
[12:54]
여기서 무엇을 해야 하는지
[12:56]
신뢰할 수 있도록 도와줍니다.
[12:59]
왜 그런 작업을 하는지 등에 대해서 말이죠.
[13:01]
훨씬 더 많은 맥락을 제공하고
[13:03]
여기서 무엇을 해야 하는지 신뢰할 수 있도록 도와줍니다.
[13:06]
이것이 proactivity입니다.
[13:09]
12월에 출시될 예정이고
[13:12]
여기 계신 모든 분들께 제공할 수 있기를 바랍니다.
[13:14]
이에 대해 매우 기대하고 있습니다.
[13:17]
제 남편과 제가 작업했던
[13:19]
프로젝트에 대한 작은 이야기를 들려드리고 싶습니다.
[13:22]
이야기를 마무리하는 차원에서 말이죠.
[13:23]
저희는 하드웨어로 이런저런 실험을 많이 하는데
[13:26]
샌프란시스코 한복판 해시베리 지구의
[13:30]
조용한 길에 살고 있습니다.
[13:31]
할로윈 때마다
[13:33]
저희 집 앞으로 많은 사람들이 지나가서
[13:35]
할로윈 장식으로
[13:37]
그 기회를 활용해보려고 했습니다.
[13:38]
그래서 6피트 크기의
[13:41]
애니매트로닉 머리를 만들어서
[13:44]
집 앞에 설치했습니다.
[13:47]
오래된 빅토리안 양식의 집인데
[13:50]
남편이 폼과 에폭시,
[13:52]
그리고 유리섬유로 조각했습니다.
[13:55]
저희 아이들은 이것을
[13:58]
애정을 담아 '대머리 머리'라고 부릅니다.
[14:00]
80년대 피위 허먼을 보셨다면
[14:02]
피위 허먼의 피위의 빅 어드벤처에 나오는
[14:03]
머리를 모델로 했습니다.
[14:06]
남편이 이 작업을 하는 동안
[14:09]
저는 Jules와 함께
[14:11]
펌웨어 업데이트 작업을 했습니다.
[14:12]
스테퍼 모터를 제어하고 LED 작업을 하면서
[14:14]
그리고 센서 작업을 하고 있어요. 저에게는
[14:17]
정말 재미있는 부분이 바로
[14:19]
LED로 창의적인 작업을 하는 거예요.
[14:22]
그래서 저는 LED에 집중하고 싶었어요.
[14:24]
애니메이션 말이죠. 하지만 대부분의 시간을
[14:26]
실제로는 버그 수정에 보냈어요.
[14:29]
라이브러리를 교체하고
[14:31]
그런 일들을 하는데 말이죠. 제가 하던 방식은
[14:32]
줄스에게 프롬프트를 주고, 10분 기다리고
[14:35]
그리고 반복하는 거였어요. 이 과정이
[14:38]
정말 정말 지겨웠습니다. 제가 원했던 건
[14:41]
사실 줄스가 리서치를 해주는 거였어요.
[14:43]
복잡한 부분들을 처리해주길 원했죠.
[14:45]
버그를 어떻게 고치는지 연구하는
[14:48]
지저분한 작업들 말이에요. 디버깅 자체를
[14:51]
해주길 원했어요. 그래서 제가
[14:52]
창의적인 부분에 집중할 수 있도록요.
[14:54]
눈이 움직이면서
[14:56]
길을 걸어가는 사람들을 따라가고
[14:59]
눈에서 레이저가 나오고
[15:01]
그런 것들 말이에요. 말씀드렸듯이
[15:02]
할로윈이었거든요. 정말 무서웠죠.
[15:04]
하지만 그런 작업을 많이 할 수 없었어요.
[15:07]
결국
[15:08]
제가 원했던 만큼
[15:10]
이 움직이는 대머리 머리로
[15:13]
완성하지 못했어요. 그래서 우리가
[15:17]
실제로 해결하고 싶은 격차가 바로 그것입니다.
[15:19]
줄스에 있어서는
[15:20]
도구의 불편함과 창의적 자유 사이의
[15:23]
공간을 우리가 해제하려고 하는 거예요.
[15:25]
이런 종류의 프로액티브 에이전트로 말이죠.
[15:28]
제가 여러분들이 꼭 기억해주셨으면 하는 것은
[15:32]
그리고 제가 줄스 팀의
[15:33]
사람들에게 자주 하는 조언이기도 한데
[15:36]
오늘 우리가 만드는 제품이
[15:39]
사실 미래에 우리가 갖게 될
[15:40]
제품과는 다를 거라는 점이에요.
[15:42]
우리 대부분이 알고 있는 사실이지만
[15:44]
실제로는 이 방에 있는 모든 분들과
[15:46]
AI와 함께 일하는 모든 사람들이
[15:49]
큰 걸음을 내딛을 수 있기를 바라요.
[15:51]
오늘 우리가 의존하는 패턴들, Git이나
[15:54]
여러분의 IDE들, 심지어 코드 자체,
[15:57]
코드에 대한 우리의 사고방식조차
[15:59]
1년 후에는 존재하지 않을 수도 있어요.
[16:01]
6개월 후에도 없을지 모르죠. 그리고 이게
[16:04]
저에게는 흥미진진한 부분이에요.
[16:06]
우리가 지금 바로 미래를 발명할 수 있어요.
[16:08]
소프트웨어가 어떻게 만들어지고 구축되는지를
[16:11]
설명하고 결정할 수 있죠.
[16:13]
이 방에 있는 모든 분들이 말이에요.
[16:16]
제가 여러분께 드리는 도전은
[16:20]
소프트웨어를 구축하는
[16:22]
기존 방식에 의문을 제기하는 걸 두려워하지 마세요.
[16:25]
정말로 미래는 우리 모두가 아는 것보다
[16:27]
빠르게 다가오고 있어요. 아마도
[16:29]
이미 여기 와 있을 거예요. 그리고 멋진 건
[16:32]
우리가 함께 그것을 만들어갈 수 있다는 거예요.
[16:34]
감사합니다.
[16:42]
[음악]
[16:48]
[음악]