[뉴공 아카이브]박태웅 녹서포럼 의장, 유시민 작가: 美 IT업계 뒤흔든 ’딥시크 쇼크‘ 우리에겐 기회 될까? 기존 AI 개발비의 10분의1… 새로운 패러다임 VS 과장된 위협? AI 추경 위해 민생지원금도 포기… 이재명의 각오는?

a7274f03921c00900da6e1adb7aef3aa.jpg아래 인터뷰는 2025년 2월 03일자, “김어준의 겸손은힘들다 뉴스공장” 방송분입니다. 신속한 정보 제공을 위해 녹취에는 내용 이해에 무리가 없는 범위 내, 약간의 오타가 있을 수 있으니 이 점 양해 부탁드립니다.

* 내용 인용 시 [김어준의 겸손은힘들다 뉴스공장] 인터뷰 내용임을 밝혀 주시기 바랍니다.

김어준의 겸손은힘들다 뉴스공장 2025년 2월 3일 월요일 [유시민, 임지봉, 박성준, 박은정, 여론조사, 박태웅] 2-10-39 screenshot.png

▶김어준 : 자, 이번에는 지난 연휴 기간 있었던 국제적인 이슈 중에 이게 파급이 가장 크지 않았을까 싶은 사안이 중국에서 나온 AI 딥시크 쇼크입니다. 박태웅 의장 모셨습니다. 안녕하십니까?

▷박태웅 : 안녕하세요.

▶김어준 : 우리 유시민 작가가 또 과학에도 관심이 있거든요.

◉유시민 : 관심만이지, 알지는 못해요.

▶김어준 : 책도 썼어요. 심지어는. 근데 박태웅 의장님은 이제 그 민간 AI 전문가로서. 민간 AI를 전공하지는 않았는데 민간인들에게, 일반인들에게, 그래서 AI가 어떻게 작동하는지를 설명하는 것으로 최근 잘 나가고 계십니다. 2년 동안. 이 딥시크가 왜 충격을 주었나, 요약해 설명해 주시지요.

▷박태웅 : 딥시크가 이번 연휴 기간에 정말 탄핵을 제치고 더 얘기가 많이 됐다고 했을 정도인데, 그만큼 그래서 틀린 얘기 조금 안 맞는 얘기들도 되게 많았어요.

▶김어준 : 그럼 잘 정리해 주십시오.

▷박태웅 : 딥시크는 중국의 그 하이-플라이어 중국 이름으로는 환팡퀀트(幻方量化)라는 금융회사예요. 운용 자산이 11조가 넘는 회사인데. 거기에서 인공지능 연구 조직이 분산을 한 게 딥시크입니다. 그리고

▶김어준 : 출발이 독특하네

▷박태웅 : 네. 그리고 오해가 있는, 딥시크는 두 개의 모델을 얘기해요. 하나는 V3라는 겁니다. V3가 Version 3 그러니까 세 번째 버전이다. 얘는 매개 변수가 6,710억 개를 갖고 있어요. 그러니까 챗GPT가 매개 변수가 1,750억 개였거든요. 그러니까 챗GPT보다 몇 배나 큰 굉장한 거대 언어 모델이에요. 그리고 얘를 바탕으로 추론하는 모델을 만든 게 R1이에요. 그러니까 우리가 왜 오픈 AI를 보면 GPT4가 있고 O1이 있잖아요. GPT4가 거대 언어 모델이고 O1이 Reasoning 추론 모델이란 말이에요. 그것처럼 V3가 있고 R1이 있어요. 그러면 대체 이게 왜 이렇게 화제가 됐나? 두 가지 이유인데요. 하나는

▶김어준 : 앞엣것은 잘 못 알아들어도, 알아듣는 척하고 넘어가도 됩니다.

▷박태웅 : 그러니까 하나는 이렇게 싸게 만들었다고?

▶김어준 : 그 대목

▷박태웅 : 그게 있고요. 또 하나는 R1이라는 Reasoning 추론 모델을 다 공개를 했어요.

▶김어준 : 그러니까, 오픈 소스

▷박태웅 : 특히 놀라운 게 기술 문서에서 얘가 추론을 어떻게 했는지 우리가 어떤 방법을 써서 개발했는지까지 다 밝혔어요.

▶김어준 : 비용이 얼마나 저렴한 겁니까? 상대적으로

▷박태웅 : 얘들이 비용이 저렴하다고 했는데 600만 달러밖에 안 들었어요. 라고 답을 했습니다.

▶김어준 : 600만 달러.

▷박태웅 : 근데 보면 실제로 이 친구들이 엔지니어링 분야에서 굉장히 칭찬할 만한 일을 많이 했어요.

▶김어준 : GPT가 1억 달러 들여서 개발했다고 하는데 그러니까 우리는 1억짜리, 1억짜리를 개발했더니, 600만 원 들여서 비싼 성과를 냈다. 이런 말 아닙니까? 그런 겁니다. 딱 비율이 그래요. 그러니까 깜짝 놀랐는데, 일단

▷박태웅 : 그러니까, 엔지니어링 쪽에서는 정말 칭찬할 게 많습니다. 좀 어렵지만 말씀을 드리면 MTP, 멀티토큰 프레딕션. 이건 뭐냐 하면 그 챗GPT가 트랜스포머라는 모델을 쓰잖아요. 이게 질문이 들어오면 단어 하나하나씩을, 예측을 해요. 하나 예측하고, 이걸 입력으로 집어넣고, 그다음 걸 예측하고, 이걸 입력으로 집어넣고, 그다음 걸 이렇게 재귀적으로 이렇게 예측을 하는데. 얘는 한 번에 세 개의 단어를 예측하도록 훈련을 시킵니다. 처음부터


중략

기사/이미지 원본 출처 : 딴지일보 RSS Feed
전문 보러 가기 : https://www.ddanzi.com/834253806

사용자 리뷰:
[Total: 0 Average: 0]