지난 2년간 인공지능은 연구실에서 벗어나 사용자 상호 작용의 최전선으로 자리를 옮겼다. 메모를 요약하든 코딩을 지원하든, 다양한 조직 구성원은 반복 업무를 줄이고 가치 창출 활동에 더 많은 시간을 쓰기 위해 생성형 AI를 활용하고 있다.
AI는 모든 비즈니스 부서 구성원이 새로운 방식으로 기술을 적용하고 난제에 대한 창의적 해결책을 찾을 수 있게 한다. 이는 ‘혁신의 보편화(democratization of innovation)’라고도 할 수 있다.
어도비(Adobe) CIO인 신시아 스토다드는 “일반적으로 생성형 AI의 잠재력은 기대할 만하다. 업무를 변화시키고 과거보다 더 생산적으로 일할 수 있는 새로운 방식을 창출할 것”이라고 진단했다.
하지만 스토다드는 생성형 AI가 비생산적으로 사용될 가능성을 주의해야 한다고 지적했다. 봇이 생성한 환각에 과하게 의존하는 것부터 새로운 사이버보안 위협에 이르기까지, AI가 신중하고 효과적으로 구현되지 않으면 심각한 문제를 일으킬 수 있다고 설명했다.
많은 생성형 AI 프로젝트가 이런 문제로 프로토타입 단계에 머물러 있다. 딜로이트(Deloitte)에 따르면 비즈니스 리더의 70%가 실험의 30% 미만을 실제 운영 단계로 이전했다. 가트너(Gartner)는 2025년까지 생성형 AI 프로젝트의 최소 30%가 개념 증명 단계 이후 중지될 것으로 예측했다.
새로운 기술을 최대한 활용하려면 기업은 혁신의 보편화가 혼란으로 이어지지 않게 해야 한다. 그 책임은 CIO에게 있다. 기술을 안전하고 효과적으로 구현해 온 풍부한 경험을 바탕으로, 디지털 혁신의 이점을 누리도록 하는 데 적합한 직책이기 때문이다.
이제 CIO는 변화를 주도하면서 비즈니스 동료에게 필요한 전략적 지원을 제공해야 한다. 위성 기업 유텔샛그룹(Eutelsat Group)의 성과 허브 수석 제품 책임자인 미구엘 모르가도는 혁신 기회를 효과적으로 포착하기 위해 올바른 전략이 중요하다고 강조했다.
모르가도는 “현재 상황을 보면, AI가 또 다른 산업 혁명이라고 생각하고 대규모 투자를 할지, 아니면 단순한 과대 광고로 여겨 아무것도 하지 않을 것인지 선택할 기로에 있다. 그 결과는 3~4년 후에 나타날 전망이다. 지금의 전략이 4년 후 성공을 좌우할 것”이라고 언급했다.
혁신을 위한 전략 수립
조직 구성원 모두가 생성형 AI를 활용하도록 보장하는 전략은 결코 간단하지 않다. 거버넌스, 보안, 윤리, 자금 조달 등 많은 요소를 고려해야 한다. 기본 규칙을 수립하기도 어렵다.
여행 전문업체 빅버스투어(Big Bus Tours) 고객 담당 부사장인 올리 와일드먼은 “현실은 생성형 AI가 비교적 알려지지 않은 기술이기 때문에 최선을 다해야 한다는 것”이라고 말했다. 그렇다면 기업은 어디서부터 이 복잡한 프로세스를 시작해야 할까?
와일드먼은 우선 혁신 기술을 실제로 활용하려는 사람들에게 초점을 맞추고, 그 다음 규칙을 체계화할 수 있는 전문가를 영입하는 것이 해답이라고 말했다. 그는 “생성형 AI는 현장에서 이 기술을 실제로 사용하려는 사람들이 주도해야 한다. 그리고 가능한 한 많은 부서에서 검토가 이뤄져야 한다”라고 설명했다.
와일드먼은 IT 전문가가 아니지만 AI 도입을 추진해 왔다. 그가 속한 고객 서비스 부서는 AI 기반 챗봇이 포함된 프레시웍스(Freshworks) 고객 서비스 제품군을 사용하고 있다. 또한 서비스 요청 요약에 프레시웍스의 생성형 도구인 ‘프레디 AI’를 사용하는 등 다른 신기술도 도입 중이다.
이런 혁신 이니셔티브를 승인받으려면 복잡한 프로세스가 필요하다. 빅버스투어에서는 기술 운영 위원회가 AI 관련 의사 결정을 주도한다. CTO, 기술 부사장, 재무 및 HR 등 부서장이 참여하고 있다.
와일드먼은 “모든 구성원이 제품에 대해 듣고 질문한다. AI 프로젝트를 승인받기 위해 위원회에 4~5번이나 발표를 수정해서 갔다. 프레디 AI는 우리가 신뢰하는 벤더와 오랫동안 협력해 왔다는 사실을 깨닫게 해줬다”라고 말했다.
신기술의 잠재력을 실현하는 핵심은 사용 사례 입증에 있다. 영국 기상청의 제품 혁신 책임자인 나이얼 로빈슨도 이에 공감했다. 로빈슨과 그 팀은 제품 혁신과 전략적 파트너십을 통해 조직이 어떻게 가치를 창출할 수 있는지 탐구한다.
로빈슨은 이해관계자 동의를 얻는 데 있어 개념 증명(PoC) 연구의 중요성과 일기 예보 개선을 위한 데이터 과학, 머신러닝, AI의 역할을 강조했다. 예를 들어 영국 기상청은 일기 예보의 자연어 설명을 생성하기 위해 스노우플레이크 코텍스AI 모델을 활용하고 있다.
그는 AI가 과학 및 기상 예보 커뮤니티에서 관심을 받고 있다고 말했다. 하지만 신기술은 신중하게 사용돼야 한다. 로빈슨의 팀은 옵션을 탐색하고 기술 옵션을 비교하며 신뢰할 수 있는 조언자와 협력하는 과정을 거친다.
로빈슨은 “영국 기상청에는 현재 생성형 AI 제품과 서비스가 없다. 대신 항상 머신러닝을 사용한다. 500명 이상의 박사급 과학자들은 10~20년 동안 클러스터 분석과 신경망을 사용해 왔다. 또한 영국 정부와 협력해 AI를 책임감 있고 효과적으로 사용하기 위한 정책을 개발하고 있다”라고 말했다.
CIO 역할의 재정립
분명한 사실은 기술 주도의 혁신이 더 이상 IT 부서의 전유물이 아니라는 점이다. 15년 전에는 IT가 종종 문제의 해결책이었다. CIO는 기술 시스템을 구매했고, 나머지 비즈니스 부서는 이를 잘 활용할 수 있기를 기대했다.
오늘날 CIO와 IT팀은 동료들과 주요 과제에 대해 논의하고 잠재적 해결책을 제안한다. 하지만 이전의 클라우드 컴퓨팅처럼 생성형 AI는 사용자가 IT팀을 거치지 않고 디지털 관련 해결책을 훨씬 쉽게 구할 수 있도록 해준다.
이런 높은 수준의 보편화에는 위험이 따르기 마련이다. 기업 기술의 수호자로서 CIO 역할이 중요한 이유다. IT 리더는 거버넌스, 구현, 보안과 관련된 문제점을 잘 알고 있다. 여행 전문업체 트립어드바이저의 데이터 및 AI 책임자인 라훌 토드카르는 이런 인식으로 인해 AI와 다른 신기술에 대한 책임이 디지털 리더의 확장되는 역할 중 일부가 됐다고 말했다.
그는 “CDO와 CIO는 자의든 타의든 최소한 특정 영역에 대한 관점을 갖고 이야기해야 하는 중요한 위치에 있다. 이들이 AI와 기술, 그리고 비즈니스 애플리케이션 사이의 격차를 해소하는 역할이기 때문이다. 다시 말해 디지털 리더는 가교 역할이다”라고 설명했다.
런던 프란시스 크릭 연구소 CIO인 제임스 플레밍도 자신의 연구 조직이 비슷한 상황이라면서, AI와 혁신의 윤리적 구심점이 됐다고 언급했다. 플레밍은 “크릭 연구소에서는 확실히 CIO가 그 역할을 맡게 됐다. 완전히 새로운 기술이라면 누군가는 먼저 이해하고 조직의 나머지 구성원에게 전달하는 주도적 역할을 해야 한다. 그 책임은 내게 있었다”라고 말했다.
하지만 혁신의 보편화는 좋은 아이디어가 어느 방향에서든 나올 수 있다는 의미이기도 하다. CIO는 고립된 상태로 일해선 안 된다. 플레밍은 변화를 해석하고 경영진에게 현명한 조언을 제공하는 사람이 효율적인 디지털 리더라고 말했다.
그는 “모든 중요한 결정은 조직 전체에서 이뤄져야 한다. CIO는 감독을 제공해야 한다. 혁신은 보편화하고 있지만, 변화가 성공했다는 의미는 아니다. CIO로서 모든 일에 ‘아니오’라고 반대하는 부서를 이끌고 싶지 않다면, 변화에 사후 대응하기보다는 앞서 나가야 한다”라고 설명했다.
리스크와 보상의 균형
심슨호 건축사무소의 정보 및 디지털 시스템 파트너인 데이브 모예스는 ‘예’라고 말하려면 강력한 정책이 필요하다고 언급했다. 혁신의 보편화가 역효과로 이어지지 않으려면 특히 생성형 AI 규칙과 규정을 마련해야 한다는 설명이다.
모예스는 “먼저 한 일은 직원들에게 무엇이 허용되고 허용되지 않는지를 알려주는 AI 정책 수립이었다. 정책에는 ‘확실하지 않다면 물어보라’라고 명시했다. ‘이 도구를 찾았는데 X, Y, Z에 사용하고 싶다. 문제가 있을까?’라고 물어보면 된다”라고 설명했다.
모예스도 조직에서 신기술에 대한 윤리적 중재자 역할을 맡고 있다. 하지만 그는 고립되어 일하지 않는다. AI 정책을 수립해 이사회에 발표하고 다른 동료들의 검토를 받았다. 그는 다른 고위 이해관계자들과 협력하는 접근 방식으로 이점과 리스크를 비교 검토한다고 설명했다.
그는 “직원들이 도구를 최대한 활용하도록 장려하고 싶다. 결국 도구는 혜택을 주고 시간을 절약하며, 해야 할 일보다 좋아하는 일을 더 많이 하게 해주기 때문이다”라고 말했다.
플레밍은 프란시스 크릭 연구소가 공개적으로 사용 가능한 생성형 AI 도구를 평가하기 위해 여러 분야의 실무진을 소집했다고 말했다. 과학, 운영, 법무, 인사 담당자로 구성된 이 그룹은 사용 사례, 잠재적 기술, 가능한 제한 사항과 같은 주요 질문을 논의한다.
대규모 투자가 필요한 핵심 사용 사례는 찾지 못했지만, 크릭 연구소의 실무 그룹은 영어가 모국어가 아닌 연구원의 보조금 신청서 작성을 돕는 등 특정 생성형 AI 사용 사례를 확인했다. 플레밍은 “수백만 파운드를 투자할 만한 가치가 있지는 않더라도 이런 사용 사례라면 환영할 만하다. 우리는 모든 신기술을 주시하고 있다”라고 언급했다.
이는 트립어드바이저의 토드카 의견과도 일치한다. 토드카는 기업이 신중하게 진행한다면 신기술에서 기대할 수 있는 잠재적 생산성 향상이 상당하다고 말했다. 그에 따르면 성공의 핵심은 프로세스를 검증하는 데 사람 전문가가 계속 참여하는 것이다.
그는 “혁신이 보편화하더라도 사람에 의해 검증되고 조정돼야 한다. 새로운 도구를 구축하고, 대규모 언어 모델(LLM)을 기반으로 한 자동화, 작업 완료, 심지어 의사 결정과 추론의 특정 측면을 구현하는 일은 가능하다. 그러면 전문가가 모델의 작업을 확인, 조정, 검증, 개선해야 한다. 피드백 루프가 있고 AI가 윤리적 임계값과 경계를 넘지 않도록 관리한다면 이런 검증 절차를 유지할 수 있다”라고 말했다.
dl-ciokorea@foundryco.com