[00:13]
[음악]
[00:20]
여기 와서 정말 기쁩니다. 너무나 많은
[00:22]
실용적인 통찰과 제안들이 있었습니다.
[00:24]
방금 전까지 거기 앉아 있었거든요.
[00:26]
저는 이타마르 프리드만입니다.
[00:28]
Qodo의 CEO이자 공동 창립자입니다. Qodo는
[00:30]
Quality of Development의 줄임말이고요,
[00:33]
AI 코드 품질의 현황에 대한 저희와
[00:36]
다른 회사들의 보고서를 공유하려 합니다.
[00:37]
과대광고 대 현실에 대해 말씀드리려 하는데
[00:41]
이는 여기서 꽤 많이
[00:43]
논의되었던 포인트 중 하나입니다.
[00:46]
정말 훌륭했고요.
[00:47]
지난 3-4주 동안
[00:50]
클라우드에서 3번의 장애를
[00:52]
안타깝게도 목격했습니다.
[00:54]
이들은 정말로 빠른 개발을
[00:57]
중시하는 회사들입니다. 그들 스스로
[00:59]
AI를 사용해
[01:01]
코드를 10%, 30%, 50% 생성한다고
[01:03]
말하면서, 동시에 품질을 중시한다고 합니다.
[01:07]
그런데 어떻게 이런 일이 일어났을까요?
[01:09]
관련이 있을까요? 모르겠습니다.
[01:11]
하지만 몇 가지 추측을
[01:13]
공유해보겠습니다.
[01:15]
참고로 개발자의 60%가
[01:18]
자신의 코드 중 4분의 1이
[01:21]
AI에 의해 생성되거나
[01:24]
AI의 영향을 받았다고 말하며, 15%는
[01:27]
80% 이상의 코드가
[01:30]
기본적으로 AI에 의해 생성되거나 영향받았다고 합니다.
[01:33]
사람들은 AI를 사용해 감정적 코딩을 하고 있지만
[01:36]
실제로는 감정적 체크, 감정적 리뷰까지
[01:39]
하고 있습니다.
[01:42]
이것은 Claude의 명령어입니다.
[01:45]
보안 검토를 위한 Claude 코드의
[01:47]
프롬프트입니다. 2달 전에
[01:50]
화제가 되었죠. 제가 무슨 말 하는지
[01:51]
아시겠죠? 거기 보시면
[01:53]
잘 보이는지 모르겠지만
[01:55]
'당신은 시니어 보안 엔지니어입니다'라고 되어 있고
[01:57]
그 아래 어디선가
[02:00]
'서비스 거부 공격은 제외해 주세요.
[02:04]
서비스 거부 이슈는
[02:06]
잡지 말아주세요'라고 되어 있습니다. 아마도 그것이
[02:10]
클라우드 장애가 발생하는 이유 중
[02:12]
일부일 수도 있습니다. 아마 그것만은 아니겠지만
[02:14]
요점은 이해하셨을 겁니다. 우리는
[02:16]
품질을 다루는 방법에 대해 엄격해야 합니다.
[02:19]
단순히 감정적 품질이나
[02:21]
감정적 코딩을 하는 것이 아니라
[02:23]
때로는 말이죠. 다른
[02:26]
예를 들어보겠습니다. 커서나
[02:29]
파일럿을 대부분 사용하시죠?
[02:31]
규칙에 대해 얘기해보겠습니다. 여러분은
[02:33]
코드 생성에 투자합니다. 시간이 지나면
[02:35]
투자하면 더 많은 것을
[02:36]
얻을 수 있다는 것을 이해하게 됩니다. 그리고 저희는
[02:40]
많은 개발자들에게 물었고 여러분께도
[02:42]
묻고 싶습니다. 잠깐 생각해보세요.
[02:44]
청중의 모든 개발자들을 위해
[02:47]
커서 규칙이나
[02:49]
코파일럿 규칙 등을 작성할 때
[02:51]
완전히 따라지고 있다고 느끼시나요? 아니면 대부분
[02:54]
따라지고 있다고 느끼시나요? 얼마나
[02:55]
따라지는지 아시나요? 어느 정도까지
[02:57]
따라지는지요? 얼마나 엄밀하게
[02:58]
기술적으로 깊이
[03:00]
따라지고 있는지요. 저희가 받은 답변은
[03:03]
여기 화면에서 보시는 것처럼
[03:04]
주로 B, C, D입니다.
[03:07]
따라지고는 있지만 완전히
[03:09]
따라지지는 않습니다. 즉, 우리는
[03:12]
코드를 생성하여 기준에 맞추려고 노력하지만 반드시
[03:15]
그 기준까지는 도달하지 못한다는 의미입니다.
[03:17]
여전히 우리가 원하는 품질에
[03:18]
도달하지 못하고 있습니다. 이제 좀 더
[03:21]
통계와 정보, 그리고
[03:23]
세 개의 보고서에서 얻은 인사이트를 공유하겠습니다. 하나는
[03:26]
Qodo에서 수행한 것이고, 다른 하나는 Sonar에서,
[03:29]
또 하나는 다른 회사에서 진행했습니다. 모두
[03:32]
코드 품질 리뷰 등에 초점을 맞춘 연구입니다.
[03:35]
표본 크기는 수천 명의 개발자이며
[03:37]
경우에 따라서는 수백만 개의
[03:40]
풀 리퀘스트와 수십억 줄의
[03:42]
코드가 검토되었습니다.
[03:45]
예를 들어, Sonar를 생각해보면
[03:47]
이 회사는 AI 이전 시대부터
[03:50]
시작되었지만, 대규모로 코드를 보고 있고
[03:53]
AI에 특화되지 않았지만
[03:56]
많은 코드 검사를 수행하고 있습니다.
[03:59]
이는 AI 중심적이지 않지만
[04:01]
소프트웨어를 모든 가능한
[04:04]
방향에서 검사하는 데 필요합니다.
[04:07]
그래서 그들의 확장성과
[04:09]
그들이 보고 있는 코드의 규모가
[04:11]
엄청납니다.
[04:13]
예를 들어, 우리는 그들의
[04:15]
보고서에서 정보를 가져왔고
[04:17]
최종적으로 여기서 제 목적은
[04:19]
코드 품질의 의미를 다양한
[04:22]
차원으로 분석하고 몇 가지
[04:23]
통계와 인사이트를 공유하는 것입니다.
[04:26]
결론부터 시작하겠습니다. 이것이
[04:30]
앞으로 13분 동안 여러분이
[04:32]
가져가셨으면 하는 핵심 내용입니다.
[04:34]
우리는 코드 생성부터 시작했습니다.
[04:37]
기본적으로 자동완성 등을
[04:40]
사용하고 투자하면 더 많은
[04:42]
성과를 얻을 수 있습니다. 하지만
[04:45]
코드 생성에서 얻을 수 있는
[04:47]
생산성에는 한계가 있습니다.
[04:48]
그다음 에이전트 코드 생성으로
[04:51]
이동합니다. 이를 Gen 2.0이라고
[04:53]
부르겠습니다. 이는 더 높은
[04:55]
한계를 가지고 있습니다. 훨씬 더
[04:57]
높은 생산성을 달성할 수 있고
[04:59]
특히 규칙 등에 투자한다면 말입니다.
[05:02]
그리고 AI가 IDE 밖으로 확장되면서
[05:06]
AI를 코드와 에이전트 품질 워크플로에도
[05:11]
사용할 수 있게 됩니다. IDE 내부에서도
[05:14]
가능하지만, 사실은
[05:16]
조직 내 모든 워크플로를
[05:18]
생각해보면, 특히 100명 이상의
[05:19]
개발자가 있다면
[05:20]
품질과 관련된 많은 워크플로를
[05:22]
자동화해야 할 것입니다.
[05:24]
그리고 그때 생산성의
[05:27]
유리천장을 깨뜨리기 시작합니다.
[05:30]
투자한다면 말입니다.
[05:31]
마지막으로, 이러한 에이전트
[05:34]
워크플로가 지속적으로 학습해야 한다고
[05:36]
주장합니다. 이에 대해서는
[05:39]
나중에 조금 더 다뤄보겠습니다.
[05:41]
왜냐하면 품질은 동적인 것이기
[05:43]
때문입니다. 따라서 품질 워크플로와
[05:46]
규칙, 표준이 동적으로 유지되어야만
[05:48]
진정으로 유리천장을
[05:51]
깨뜨릴 수 있습니다.
[05:53]
그러면 약속된 2배, 심지어는
[05:55]
과장 광고된 10배의 성과를
[05:58]
보게 될 것입니다. McKinsey나
[06:00]
Stanford에서 들었던 것처럼
[06:01]
그런 성과를 얻지 못하고 있다는 것은
[06:03]
제가 굳이 말씀드리지 않아도
[06:06]
아실 것입니다. 전체 소프트웨어
[06:08]
개발 라이프사이클에서 2배, 10배 성과는
[06:11]
시장 채택률에 대해 조금 더
[06:13]
말씀드리자면, 보고서 중 하나에 따르면 AI 개발 도구의 채택률이 이미 82%에
[06:18]
달하며 매일 또는 매주 사용되고 있습니다
[06:21]
일부 사람들은 60%, 59%가 보고하기를
[06:24]
3개 이상을 사용하고 있다고 하고, 20%는
[06:27]
5개 이상의 코드 생성 툴을 사용한다고 답했습니다.
[06:28]
잠깐 생각해보세요.
[06:30]
단순히 Cursor, Copilot, Codex,
[06:32]
Cloud Code 등만 생각하지 마세요.
[06:35]
만약 제가 누군가의 툴을 빼먹어서
[06:37]
기분 상하셨다면 죄송합니다만,
[06:39]
Lovable 같은 것들도 있죠. 이것들도
[06:41]
코드를 생성합니다. 그리고 말씀드리건대,
[06:42]
10개까지 늘어날 거예요. 저를 믿으세요.
[06:44]
2-3년 안에 코드를 생성해주는
[06:47]
10가지 툴이 생길 겁니다. 좋아요,
[06:49]
나중에 와서 얘기해보세요.
[06:50]
설득해드리겠습니다. 그리고 중요한 것은
[06:53]
이것이 아래에서부터 올라오고 있다는 거예요.
[06:55]
사용량의 50%가 10명 미만의
[06:58]
개발자로 구성된 팀에서 나오고 있지만,
[07:00]
기업으로도 전파되고 있습니다.
[07:02]
여러분도 아시겠지만, 저는
[07:04]
기업으로 전파되고 있다고 말씀드렸는데,
[07:06]
단순히 5명의 개발자 수준이 아니라
[07:08]
대규모로 말이죠. 작년에 우리는
[07:10]
점점 더 많은 기업들이 코드
[07:11]
생성을 사용하는 것을 보고 있습니다.
[07:16]
보고서 내에서 평균적으로 82%에서 92%가
[07:19]
주간 또는 월간으로 코드
[07:22]
생성 툴을 사용한다고 나타났습니다.
[07:25]
경우에 따라서는 극단적일 수도,
[07:26]
아닐 수도 있습니다. 이에 대해 얘기해볼 텐데요.
[07:30]
코드 작성에서 3배의 생산성 증가를 봤습니다.
[07:33]
좋아요, 하지만 코드 작성에서
[07:35]
3배의 생산성을 가진다고 해서
[07:37]
실제로 품질이 보장되는 것은 아닙니다.
[07:39]
앞서 제가 발표한 바와 같이요.
[07:42]
실제로 우리가 물어본 개발자의 67%가
[07:46]
모든 AI 생성 코드에 대해
[07:49]
심각한 품질 우려를 가지고 있습니다.
[07:52]
AI에 의해 생성되거나 영향을 받은 코드에 대해서요.
[07:54]
그들은 품질을 다루는 방법,
[07:56]
품질을 측정하는 방법에 대한
[07:58]
프레임워크가 부족하다고 주장합니다.
[08:00]
이것은 큰 질문입니다.
[08:02]
품질이란 무엇일까요? 다음 몇 슬라이드에서
[08:04]
이에 대해 얘기해보겠습니다. 좋아요,
[08:06]
제가 세부적으로 나누기 전에 잠깐 생각해보세요.
[08:09]
품질이란 무엇일까요?
[08:11]
실제로 우리가 말하는 것은 실행 가능한
[08:14]
코딩에서의 위기가 변화하고
[08:15]
진화하고 있다는 것입니다.
[08:18]
더 많은 작업이 완료되고 있어요. 일부 보고에서는
[08:22]
20% 더 많은 작업, 즉 속도가 향상되고
[08:26]
97% 정도 더 많은 PR이 열리고 있다고 합니다.
[08:30]
결국 PR을 리뷰하는 데
[08:32]
더 많은 시간이 걸립니다. PR 리뷰에 90% 더 많은 시간이 걸리죠.
[08:35]
그런데 AI가 코드를 생성하는 것에 대한
[08:36]
많은 통계가 있지만,
[08:39]
적어도 코드 한 줄당 버그의 양이 줄어들지는 않았습니다.
[08:42]
더 많다고 주장하는 것은 아니지만,
[08:44]
코드 한 줄당 버그가 줄어들지 않는다면
[08:46]
훨씬 더 많은 버그가 있다는 뜻입니다.
[08:48]
왜냐하면 훨씬 더 많은 PR이,
[08:50]
훨씬 더 많은 코드가 생성되고 있으니까요.
[08:52]
맞죠? 그래서 이것이 리뷰어에게는 문제가 됩니다.
[08:54]
그래서 누군가에게는 놀라운 일이겠지만
[08:56]
이런 것들을 리뷰하는 데 더 많은 시간이 걸립니다.
[08:58]
특히 에이전트 시대에는 더욱 그렇죠.
[09:01]
Cloud Code를 5분 호출하면
[09:03]
5분 후에 1,000줄의 코드가 나옵니다.
[09:05]
예전에는 제대로 된 10줄의 코드를
[09:07]
쓰는 데 몇 시간이 걸렸는데 말이죠.
[09:09]
이제 잠시 한 발 물러서서 봅시다.
[09:12]
코드 생성은 놀라운 기술입니다. 정말로요.
[09:15]
그린 필드 프로젝트에 대해 이야기할 때는 게임 체인저죠.
[09:17]
몇 분 전에 다른 발표자들이
[09:19]
몇 슬라이드에서 이야기한 걸 보셨을 거예요.
[09:22]
이 기술은 우리가 개념증명이나
[09:24]
프로젝트를 진행하는 방식을 혁신적으로 바꿨습니다.
[09:28]
하지만 본격적인 소프트웨어를
[09:29]
다룰 때는 좋든 싫든
[09:32]
많은 것들을 고려해야 합니다.
[09:35]
수백만 명의 클라이언트에게 서비스할 때,
[09:37]
금융 거래가 있을 때,
[09:39]
운송 업무를 할 때는
[09:40]
코드 무결성을 다뤄야 합니다.
[09:43]
코드 거버넌스, 리뷰 표준,
[09:46]
테스팅, 신뢰성 등을 말이죠.
[09:49]
이런 것들이 우리가
[09:51]
다뤄야 할 문제들입니다.
[09:54]
이제 빙산의 수면 아래 부분을
[09:56]
두 가지 차원으로 나눠보겠습니다.
[09:59]
첫 번째 차원은 소프트웨어 개발
[10:02]
생명주기 전반에 걸친
[10:04]
품질 이슈들을 살펴보는 것입니다.
[10:07]
계획부터 개발, 코드 작성,
[10:09]
코드 리뷰까지 말이죠. 코드 리뷰는
[10:11]
좀 복잡한 프로세스이지만 품질을
[10:14]
체크하는 것이 코드 리뷰 과정의
[10:16]
일부입니다. 테스팅 역시
[10:18]
품질의 또 다른 부분이고
[10:20]
배포까지 포함됩니다. 물론 전체
[10:23]
소프트웨어 개발 생명주기를
[10:24]
다 다루지는 않았지만 예시로
[10:26]
보여드린 거고, 이 각각이
[10:29]
AI가 생성한 코드를 점점 더 많이
[10:31]
사용하면서 발생하는 새로운 문제들을
[10:34]
야기합니다. 또 다른 차원으로는
[10:37]
코드 레벨 문제와
[10:39]
프로세스 레벨 문제로 보는 것입니다.
[10:42]
기능적 목록은 열지 않고
[10:45]
비기능적 목록만 열어보겠습니다.
[10:47]
보안과 효율성 같은 것들은
[10:48]
반드시 기능적 사용과 관련된 건
[10:51]
아닙니다. 이에 대한 통계를
[10:53]
보여드리겠습니다. 그리고 프로세스
[10:56]
레벨은 예를 들어 학습입니다.
[11:00]
AI가 생성한 코드 때문에 심각한 장애가
[11:04]
발생했을 때, 누가 책임을 져야 할까요?
[11:06]
AI일까요, 아니면 그 팀일까요?
[11:09]
결국에는 코드를 학습하고
[11:12]
소유해야 합니다.
[11:13]
이것은 반드시 이뤄져야 하는
[11:16]
프로세스입니다. 검증, 가드레일 이식,
[11:18]
표준 등 모든 이런 문제들이
[11:21]
수천 명의 개발자에게
[11:24]
도입될 때 우리가 그들에게
[11:25]
물어본 것은 'AI가 실제로
[11:27]
이런 문제들을 줄이는 데 도움이 됐다고
[11:30]
생각하시나요, 아니면 오히려
[11:33]
더 어려워졌나요?'였습니다. 42%의 사람들이
[11:37]
개발 시간의 42%를 더 많이
[11:39]
이슈 해결이나 버그 수정 등에
[11:43]
소비한다고 답했고, 35%의 프로젝트
[11:48]
지연을 경험했다고 했습니다.
[11:50]
우리가 말하는 건 게임이 아니라
[11:51]
실제 지연에 대한 이야기입니다.
[11:54]
물론 약간의 편향은 있습니다.
[11:55]
우리가 품질 문제와 그 영향에 대해
[11:58]
이야기했으니까요. 하지만 이것이
[12:01]
그들이 AI 생성 코드를 대량으로
[12:03]
사용할 때에 대해 답변할 때
[12:05]
제시한 내용들입니다.
[12:09]
그리고 우리는 보고서들에서
[12:11]
보안 사고가 3배 증가했다는
[12:13]
내용을 봅니다. 이는 이해할 만합니다.
[12:15]
우리가 코드 작성량이 3배 증가했다는
[12:17]
슬라이드를 본 걸 기억하시죠.
[12:19]
따라서 보안 사고도 3배 증가하는 것은
[12:20]
같은 코드 라인 수에서 같은 문제들이
[12:22]
상관관계를 보이는데, 이를 어떻게 해결할까요?
[12:24]
문제에 대해서만 계속 얘기했는데
[12:26]
도움을 주세요. 이것들을 해결하는데
[12:28]
몇 분 시간을 투자해보겠습니다.
[12:30]
첫 번째 용의자는 당연히 테스팅이고
[12:33]
정말 흥미로운 점은 테스팅에 대한
[12:36]
몇 가지 질문을 했는데
[12:38]
정말 관련성 높은 답변이 나왔습니다.
[12:40]
사람들이 AI를 테스팅에
[12:44]
집중적으로 사용할 때, AI를 테스팅에 사용하면
[12:49]
AI 생성 코드에 대한 신뢰도가
[12:51]
두 배로 증가한다고 답했습니다.
[12:54]
다음 품질 개선 용의자는
[12:57]
코드 리뷰입니다. 코드 리뷰에서
[13:00]
정말 흥미로운 점은
[13:01]
프로세스 레벨과 코드 레벨의
[13:04]
거의 모든 이슈를 도와주는 프로세스라는 것입니다.
[13:07]
예를 들어, AI 코드 리뷰 도구를 설정해서
[13:10]
특정 테스트 커버리지 수준을 충족하지 않으면
[13:12]
이 PR을 차단하라고 설정할 수 있습니다.
[13:15]
그래서 PR을 통해 테스팅
[13:18]
프로세스 문제를 해결할 수 있습니다.
[13:21]
AI를 활용한 코드 리뷰는
[13:24]
실제로 가장 중요한 것 중 하나이고
[13:26]
AI 코드 리뷰 도구를 사용하는
[13:28]
개발자들은
[13:31]
품질 향상이 두 배라고
[13:33]
말하고 있으며
[13:34]
실제로 코드 작성
[13:37]
생산성을 47% 향상시키는데
[13:40]
도움이 된다고 말합니다.
[13:44]
이제 저희 AI 코드 리뷰 도구의
[13:48]
통계를 좀 보여드리겠습니다. 월 100만 개의 PR을 스캔하고
[13:51]
그 중 100만 개를 분석한 결과
[13:53]
17%가
[13:55]
높은 심각도의 이슈를 포함하고 있었습니다.
[13:58]
참고로, 현재 AI 사용 전후를
[14:01]
분석하고 있습니다. 아직 그
[14:03]
통계는 없지만, 저희가 서비스하는
[14:04]
대부분의 회사들이 시작 이후부터
[14:07]
AI 생성 코드를 사용하고 있어서
[14:09]
과거 데이터가 없습니다.
[14:10]
역산으로 스캔해야 하는 상황입니다.
[14:13]
이는 정말 큰 숫자입니다.
[14:14]
품질 개선을 시도할 때
[14:17]
말씀드리고 싶은 또 다른 점은
[14:19]
코드 생성 도구에 제공되는
[14:22]
올바른 컨텍스트를 갖는 것이
[14:24]
기반이 된다는 것입니다.
[14:27]
AI 코드 리뷰 도구에 더 나은 컨텍스트를 제공하면
[14:30]
AI를 사용하는 모든 영역에서
[14:32]
전반적으로 더 나은 품질을 얻을 수 있습니다.
[14:34]
개발자들에게 언제 AI 생성 코드를
[14:36]
신뢰하지 않는지 물었을 때
[14:38]
67%가 정말 걱정한다고 했던
[14:41]
것을 기억하실 텐데
[14:43]
그들은 80%의 경우에
[14:46]
LLM이 가진 컨텍스트를 신뢰하지 않는다고 답했습니다.
[14:49]
그리고 개발자들에게 AI 생성 코드나
[14:52]
AI 코드 리뷰 도구에서 무엇을 개선하고 싶은지 물었을 때
[14:55]
그들이 말한 1위는 컨텍스트였습니다.
[14:58]
여러 선택지 중에서
[15:00]
33%가 1위로 선택한 것이 바로
[15:03]
컨텍스트였습니다. 따라서 컨텍스트는
[15:05]
극도로 중요합니다. Qodo로서
[15:07]
저희 기술 방향 중 하나가
[15:10]
컨텍스트 관련이고
[15:12]
저희 컨텍스트 엔진을 연결하면
[15:15]
코드 생성기나 코드 리뷰 도구의
[15:17]
60%의 호출에서 사용되는
[15:19]
1위 도구로 활용되고 있습니다.
[15:21]
코드 생성기나 코드 리뷰 도구의 호출 중 60%가
[15:24]
저희 도구를 사용합니다.
[15:27]
MCP는 컨텍스트 MCP가 될 것입니다. 네. 그리고
[15:31]
말씀드리자면 컨텍스트는
[15:33]
반드시 여러분의 코드만
[15:35]
포함할 필요는 없습니다. 여러분의
[15:37]
표준, 모범 사례에 대한 컨텍스트도
[15:39]
포함할 수 있습니다. 저희 AI 코드 리뷰에서
[15:41]
보고 있는 바로는 컨텍스트 사용의 8%가
[15:44]
실제로 표준과
[15:46]
모범 사례 등과 관련된 파일에서 나옵니다. 네, 제가
[15:50]
Qodo의 CEO로서 마케팅 팀이
[15:52]
화낼 텐데 조금 자랑하지 않으면 안 되겠네요.
[15:53]
맞죠? 이건 저희
[15:56]
컨텍스트 엔진의 마켓이
[15:59]
젠슨이 GTC 키노트에서 소개한 것이고
[16:01]
주목할 점은 그가 저희의
[16:04]
코드 리뷰 기능이나 저희의
[16:05]
테스팅 기능에 대해 이야기하지 않고 저희
[16:07]
컨텍스트 엔진에 대해 이야기했다는 점입니다. Nvidia가 확인한
[16:09]
이유는 AI
[16:13]
품질, AI로 생성된 모든 것, 리뷰,
[16:15]
테스팅은 적절한 컨텍스트를 가져오는 데서
[16:17]
나올 것이라는 인식 때문입니다. 이를 위해서는
[16:19]
컨텍스트를 구축하고, 솔루션을 구매하고,
[16:22]
투자하고, 솔루션을 구축해야 합니다.
[16:25]
등등. 그리고 컨텍스트는
[16:27]
코드, 버전 관리, PR 히스토리,
[16:31]
조직 로그 등을 포함해야 합니다. 모든
[16:34]
컨텍스트가 있는 곳입니다. 단순히
[16:36]
코드베이스의 마지막 브랜치에만 있는 것이 아닙니다. 네. 이제
[16:39]
제가 시야를 넓혀서
[16:41]
추천사항과
[16:44]
핵심 포인트들에 대해 이야기하기 시작하겠습니다. 그래서
[16:48]
다음 단계는 무엇일까요? 자동화된 품질 게이트웨이에
[16:51]
투자하십시오. 사람들이 오늘 아침 내내
[16:53]
병렬 에이전트에 대해 이야기했습니다. 여러분도
[16:55]
아시죠, 제가 말하는 것은
[16:56]
백그라운드 에이전트입니다. 이런
[16:59]
도구와 기능들을 많이 사용해서
[17:01]
품질 게이트를 구축할 수 있습니다. 지능적인
[17:04]
코드 리뷰와 테스팅을 사용하고
[17:08]
살아 숨 쉬는
[17:10]
문서화가 필요합니다. 그리고 문서화가
[17:13]
의미하는 바는 그 자체로 하나의 이야기입니다.
[17:15]
이에 대해서는 자세히 다루지 않겠습니다. 그리고
[17:17]
이것은 제가 3년 동안
[17:21]
발표해온 방식이고, 60세까지
[17:24]
이 슬라이드로 계속 갈 것 같습니다. 제가
[17:27]
생각하는 소프트웨어 개발의
[17:29]
미래 모습입니다. 네. 기본적으로 여러분에게는
[17:33]
명세서와
[17:35]
코드가 있고, 여러분을 도와주는
[17:38]
여러 병렬 에이전트들이 있어서
[17:40]
명세를 개선하고, 명세를 작성하고,
[17:42]
코드를 개선하고, 명세에서
[17:45]
코드로 변환하고,
[17:48]
실행 가능한 명세인 테스트를 만들고,
[17:50]
맞죠, 그리고 나서
[17:52]
컨텍스트 엔진, 소프트웨어
[17:54]
개발 데이터베이스가 있을 것이고
[17:56]
특히 MCP를 중심으로 한
[17:59]
품질 및 검증 도구들을 구축하고
[18:01]
안정적이고 보안이 확보된 환경과
[18:04]
샌드박스를 확보하여 이러한 에이전트들이
[18:07]
실행되고 검증과 품질
[18:09]
워크플로를 실행할 수 있도록 할 것입니다. 그러니까 잊지 마세요,
[18:13]
앞으로 나아갈 길은 품질이 여러분의
[18:15]
경쟁사 대비 경쟁 우위라는 것입니다.
[18:19]
AI는 도구입니다. 솔루션이 아니에요.
[18:22]
네? 그리고 코드 생성만을
[18:25]
유일한 것으로 생각하지 마세요. 전체 SDLC나
[18:26]
제품 개발 생명주기를 보세요. 저는
[18:29]
발표자 중 한 분이 말씀하신 것을 들었습니다
[18:31]
스피커들 중에서요
[18:35]
그리고 오늘 우리가 이야기한 모든 것과 연결됩니다.
[18:37]
여러분에게 말씀드리고 싶은 것은
[18:40]
분명히 가치를 얻으실 수 있다는 것입니다.
[18:43]
우리가 보고서에서 확인하고 있는 것은
[18:45]
보안과 가용성이 향상되고
[18:47]
더 빠른 코드 리뷰가 가능해진다는 것입니다.
[18:50]
생성된 코드 때문에 이미 성과를 보고 있고
[18:52]
테스트 커버리지는 한 달 만에
[18:54]
프로젝트에 따라 3배까지 증가할 수 있습니다.
[18:57]
마지막 시간에 코도로
[18:59]
할 수 있는 작은 예시를 보여드리겠습니다.
[19:01]
코도에 가서 자신만의 규칙을 정의할 수 있습니다.
[19:04]
예를 들어 커서에서 설정하는 것과 거의 같은 규칙으로
[19:07]
중첩된 if문을 싫어한다고 설정하면
[19:09]
이것이 여러분에게 문제가 된다면
[19:12]
코도가 컨텍스트를 살펴보고
[19:14]
좋은 예시와 나쁜 예시를 구축합니다.
[19:17]
그리고 나서 그 문제를 잡아내기 위한
[19:19]
특별한 워크플로우를 구축하기 시작하고
[19:21]
시간이 지나면서 언제 수용되고 언제 거부되는지
[19:24]
통계를 제공합니다.
[19:27]
그래서 그 규칙을 조정할 수 있고
[19:30]
여러분의 표준에 대한 가시성을
[19:32]
실제로 파악하고 확보할 수 있습니다.
[19:35]
좋습니다. PR이 몇 개의 if와 else로 작성될 때
[19:38]
중첩된 if문을 사용하지 말라는 규칙이 있는
[19:41]
커서나 코파일럿으로 작성되었다 하더라도
[19:43]
등등 말이죠.
[19:47]
결국 PR을 열었을 때
[19:49]
코도가 그것을 잡아내고
[19:53]
좋은 예시와 나쁜 예시에 따라
[19:55]
제안을 제공할 것입니다.
[19:57]
코도는 또한 그래프를 만들고 CLI 체크를 제공합니다.
[20:00]
각 규칙을 체크하고
[20:02]
결국 중첩된 if에 대해 알려주고
[20:05]
그 다음 여러분이 그 제안에 대해
[20:07]
무엇을 했는지 또는 하지 않았는지 기록하고 학습하여
[20:10]
표준과 품질을 적응시키기 위해서입니다.
[20:12]
또한 자동화된 제안도 있을 것입니다.
[20:14]
직접 작성할 필요가 없습니다.
[20:16]
여러분의 표준과 품질을 학습하고
[20:18]
그것을 제공합니다.
[20:20]
이상입니다. 저는
[20:22]
유리천장을 깨뜨리는 것에 대해
[20:25]
정말로 흥분됩니다.
[20:27]
우리가 코드 생성으로 해낸 것과
[20:29]
그 다음 코드 생성의 다음 단계까지 말이죠.
[20:32]
이제 우리는 AI를 업무에 투입하고
[20:35]
전체 SDLC에 적용하는 시대로 접어들고 있습니다.
[20:38]
가장 중요한 부분은
[20:40]
품질과 관련되어 있습니다.
[20:42]
여기에 투자해야 합니다. 즉시 제공되는 것이 아닙니다.
[20:45]
그러면 결국
[20:46]
약속된 2배 향상을 보게 될 것입니다.
[20:51]
아마도 CEO에게 약속한
[20:53]
관련 도구들에 대한 예산을 받으면
[20:54]
그런 것들 말이죠.
[20:58]
정말 감사합니다.