티스토리 뷰

https://youtu.be/7BxttwyJq68?si=w1A0STCrghRcHQU7

 

* 전체 영상의 내용을 토대로 정리한 내용임을 참고하여 주시기 바랍니다.

 

 

영상은 시크 모델 발전 대한 심도 깊은 이해를 제공합니다.

특히, 시크 R1 등장과 그것이 가져온 세계적인 영향에 대해 설명하며, 기존 모델들과의 기술적

차이를 명확히 제시합니다. 또한, 새로운 훈련 기법 경제적 측면에서의 경쟁력을 분석하여,

인공지능의 발전 방향에 대한 깊은 통찰을 제공합니다. 논의는 AI 기술을 이해하고 싶어하는

모든 이에게 유익한 정보를 제공합니다.

 

1. 딥시크 R1 모델 개발 영향

    ·  딥시크 R1 미국 빅테크들에게 충격을 줬으며, 오픈AI와의 경쟁에서 빠르게 발전한 모델이다.

    ·  오픈AI O1 유사한 추론 모델, MOE 등의 기술이 사용되었으며, 하드웨어 제약을 극복한 성과를 냈다.

    ·  훈련 비용 다른 AI 기업에 비해 적었고, 이에 따라 경제적인 측면에서도 경쟁력을 갖췄다.

    ·  딥시크 R1 슈퍼바이즈드 파인튜닝 없이도 성능을 입증했으며, 이는 알파고 제로 방식과 유사하다.

    ·  강화 학습을 베이스 진행하여, 기존 AI 훈련 방법과 차별화된 접근을 시도하였다.

 

1.1. 딥시크 이해 전망 개요

    ·  딥시크 R1 대한 이야기는 현재 가장 많이 언급되고 있으며, 출현 과정을 설명할 예정이다.

    ·  R1 주요 특징은 추론 위주의 모델이라는 점으로, 기존의 언어 모델과의 차이를 알아볼 것이다.

    ·  딥시크 버전들, V3 이전 모델들에 대한 간략한 리뷰 새롭게 도입된 기술들을 설명할 예정이다.

 

1.2. 딥시크 R1 충격과 영향

       딥시크 R1 특히 미국의 빅테크들에 충격을 주었으며, 이는 여러 이유가 있다.

       오픈AI 모델이 선두로 나갔고, 구글과 엔트로픽 같은 다양한 모델이 나왔지만, 딥시크 R1

       충격은 독특하다. 미국이 GPU 기술 수출을 규제하면서 기술 장벽을 쌓았고, 딥시크 R1 이를

       부분적으로 무력화 것으로 평가한다. 최신 H100 없이도 이러한 성과를 냈다는 점이 특히

       주목받고 있으며, 이는 하드웨어 관련 논의로 이어질 것이다.

 

1.3. 딥시크와 최신 추론 모델의 기술적 발전

       딥시크 오픈소스로 출시되면서 다양한 기술이 활용되고 있으며, 특히 O1 O3 대변되는

       최신 추론 모델이 주목받고 있다.

       오픈AI O1 모델은 200달러에 제공되고 있으며, 엄청난 수의 사용자들이 구독하고 있어

       오픈AI 상당한 위협이 되고 있다.

       MOE(Mixture of Experts) 룰러 베이스 강화학습이 훈련 과정의 정확도와 성능 향상에 기여

       하고 있으며, 오픈AI 훈련 코스트에도 영향을 미쳤다.

       하드웨어적 측면에서 플로팅 포인트 8 사용함으로써 훈련 정확도를 높이는 기술이 인상적이라고 평가된다.

       이러한 기술적 발전 사례가 중국이 미국의 AI 기술에 빠르게 근접했다는 인상을 주었다.

 

1.4. 딥시크의 경제적 측면과 모델 규모

       훈련 비용 850 원으로 상당히 크지만, 다른 모델들에 비해 비교적 낮은 비용으로 인식된다.

       딥시크 모델의 파라미터 수는 600밀리언이며, 이는 7천억 개에 달해 결코 작은 모델이 아니다.

       초기 GPT 모델은 1,750 개의 파라미터를 가졌고, 최신 모델인 GPT-4 1 이상의

       파라미터를 보유하고 있다.

       오픈AI GPT-4부터 적용된 MoE(Mixture of Experts) 기술은 여러 전문가 일부만

       활성화시켜 효율을 높이는 방식이다.

       딥시크 모델은 다양한 벤치마크에서 강력한 성능을 보여주며, 특히 고난도 수학 문제

       프로그래밍 문제 해결에 능숙한 것으로 평가받고 있다.

 

1.5. 딥시크와 chatGPT 비교

       딥시크는 chatGPT 만들어진 과정을 참고하여 이해할 있으며, 초기 chatGPT 하드웨어에서

       트레이닝하여 발전했다는 데서 시작한다.

       chatGPT 언슈퍼바이즈드 러닝 통해 많은 데이터에서 다음 단어를 예측하도록 훈련되었고,

       이를 통해 베이스 모델을 형성했다.

       파인튜닝 과정에서는 인간의 피드백을 포함한 강화학습 적용되어 훈련의 세밀함이 더해진다.

       인스트럭트 훈련이 완료되면 모델은 단순히 다음 단어 예측을 넘어, 사용자 지시에 따라 원하는

       작업을 수행 있게 된다.

       강화학습은 에이전트가 특정 행동을 통해 보상을 최적화하는 방식으로 진행되며, 이는 훈련 환경 필요하다.

 

1.6. 딥시크의 강화학습 접근 방식

       딥시크 기존의 RLHF(휴먼 피드백 강화학습) 대신에 단순한 RL(강화학습) 적용한다

       프리트레이닝 과정은 많은 문서 데이터를 토대로 하며, 사람이 훈련 데이터를 만들지 않기 때문에

       셀프 슈퍼바이즈드 분류할 있다.

       슈퍼바이즈드 파인튜닝은 사람이 레이블을 만들지 않았기 때문에 기존 방식과 다르며,

       이로 인해 다양한 의견이 존재한다.

       RLHF에서 리워드 모델 만드는 대신, 기존 데이터셋을 활용하여 훈련이 진행된다

       딥시크 R1 훈련에서 가장 비용이 소요되는 부분은 V3(베이스 모델) 제작이다

 

1.7. 딥시크 V3 R1 제로의 발전

       딥시크 V3 체인 오브 쏘트 방식으로 훈련되었으며, ARM 토큰 예측을 위한 프리트레이닝과

       슈퍼바이즈드 파인튜닝이 이루어졌다.

       R1 제로는 슈퍼바이즈드 파인튜닝을 제외하고, 베이스 강화학습을 수행하였으며,

       이 과정에서 휴먼 피드백 사용하지 않았다.

       R1 제로는 훈련 데이터셋에 대한 비용이 필요 없도록 설정되어, 룰만으로 평가할 있는

       새로운 접근 방식을 제시하였다.

       알파고 제로는 초기 정석이나 도메인 지식 없이 단순히 룰만을 통해 훈련되었으며, R1 제로와

       유사한 원리를 적용한 것으로 추정된다.

       이러한 발전을 통해, R1 제로는 기존의 데이터를 전혀 사용하지 않고 높은 성능을 발휘할 있다는

       가능성을 보여줬다.

 

 

2. R1 모델 개발 과정 지식 증류 : 00:30:36 (25)

 

       R1 제로는 참조 모델인 R1 개선하기 위한 작업으로, 사람이 이해하기 힘든 추론 과정

       간소화하기 위해 개발되었다.

       Knowledge Distillation 특정한 지식을 다른 모델로 전수하는 기술로, 파라미터 대신

       결과물을 전송하여 훈련하는 방법을 의미한다.

       증류 과정은 이전의 앙상블 모델에서 얻은 결과물로 훈련하여, 성능이 향상되는 것을 보여준다.

       이 작업을 통해 지식 증류가 이루어진다.

       스탠포드 대학의 알파카 모델은 지식 증류 성공적인 사례로, RAG 같은 새로운 기술이 적용된

       언어 모델로 발전되었다

       R1 모델은 슈퍼바이즈드 파인튜닝과 베이스의 강화 학습 통해 개발되어, 최종적으로

       우수한 성능을 발휘하게 되었다

 

2.1. R1 제로의 추론 과정 이해의 어려움

       R1 제로를 해본 결과, 추론 과정의 설명이 눈으로 보기 힘들다 점이 지적된다.

       사람에게도 추론 과정을 이해하기 어려운 부분이 있다.

       추론 결과가 좋다고 하더라도, 과정이 명확히 보이지 않으면 신뢰되기 어렵다.

       여러 가지 가능성을 고려해본 것처럼 보이지만, 명확한 설명이 여전히 부족하다.

       이러한 경향은 R1 제로의 발전 방향을 제시하는 문제로 여겨질 있다.

 

2.2. R1 모델 개발 과정

       R1 모델은 기존 데이터 아닌, 새로운 데이터로 슈퍼바이즈드 파인튜닝 통해 개발되었다

        과정은 기존 R1 리즈닝을 통해 정보를 추출하고 데이터를 기반으로 진행되었다.

       이후 다양한 베이스 적용하여 강화 학습(Reinforcement Learning) 시도한 것이

       R1 모델의 개발 배경이다. R1 모델과 관련하여, 딥시크에서 증류 모델 발표한 있다

    

2.3. 증류 모델과 지식 전이

       증류 모델 특정한 지식을 다른 모델로 전수하는 과정을 말하며,

       이는 Knowledge Transfer 관련이 있다

       증류는 파라미터를 카피하는 것이 아니라, 모델의 결과물 전하는 방식이다.

       앙상블 모델을 활용하면, 여러 개의 모델을 조합해 높은 정확도를 얻을 있으며,

       특정 개별 모델들의 평균보다 나은 결과를 보인다

       지식 증류 앙상블 시킨 모델의 아웃풋으로 훈련시켜 성능이 향상되는 과정을 의미하며,

       이를 통해 기존 모델의 지식을 작은 모델로 전수할 있다

       Self Distillation 모델이 스스로 아웃풋을 통해 훈련했을 성능이 조금 향상되는 현상이다.

 

2.4. Knowledge Distillation 알파카의 사례

       알파카 Knowledge Distillation 중요한 사례로, 메타의 라마 모델을 기반으로

       스탠포드 대학에서 개발되었다. 개발 비용은 450달러, 슈퍼바이즈드 파인튜닝이

       필요하여 직접 지시를 이행하는 어려움이 있었다.

       스탠포드 대학은 오픈AI 질문을 던지고, 답을 이용하여 라마로 훈련시키겠다고

       제안하였으며, 오픈AI 이를 허가했다.

       알파카의 개발은 지식 증류에서 기억할 만한 사례로, 후속 모델인 LLaMA와도 관련이 있다.

       LLaMA 또한 다양한 모델에 지식을 증류한 사례로 알리바바 QN 모델 등에 활용되었다.

 

2.5. 시크 모델의 발전 과정

       딥시크 R0 순수한 공개 학습 통해서도 뛰어난 성능을 보여주어 의미가 있다.

       베이스 모델 훈련 비용은 300 달하며, 과정에서 여러 차례 훈련이 필요하다.

       훈련 리커버리 필요한데, 이는 GPU 서버의 한계와 고장으로 인해 필요하며

       더 많은 비용이 발생할 있다.

       R1 모델과 R1-0 모델의 훈련 시간 비용은 상대적으로 어느 정도 감소되었다고 추정된다.

       최종적으로 딥시크 모델은 슈퍼바이즈드 파인튜닝 추론(리즈닝) 과정을 통해 완성되었다.

 

2.6. RAG 추론 모델의 필요성

       추론 모델은 LLM 작업에서 발생하는 문제를 해결하기 위해 필요하다.

       RAG(Retrieval Augmentation Generation) Knowledge Code Hallucination 문제를

       해결하기 위한 접근 방식이다.

       RAG knowledge-intensive 질문을 해결할 있지만, reasoning-intensive 질문은

       여전히 해결하지 못하는 한계가 있다.

       RAG 활용의 예로 스탠포드 대학의 법학 관련 연구가 있으며, 연구 결과에 따르면

       RAG만으로는 정확한 법률 판단이 어렵다고 한다.

       Reasoning 모델은 다양한 문제를 해결하기 위해 필요하며, 예를 들어, 3.9 3.11

       어떤 숫자가 큰지를 판단하는 과정에서 reasoning 필요한 경우가 있다.

      Chain of Thought(문제 해결 과정의 연쇄) 활용하여 AI 모델의 reasoning 능력이 강화되며,

       새로운 모델은 이런 과정을 반영하여 좋은 결과를 도출한다.

 

2.7. 추론 모델의 발전과 체계적 사고

       미래의 모델들은 추론 모델 중심으로 발전할 것으로 예상된다

       리즌닝 모델 체인 오브 소트 방식을 통해 사고하는 방법을 학습하는 기법이다

      인간의 사고 방식은 시스템 1 시스템 2 나뉘며, 성공적으로 생활하기 위해서는 시스템 2

      사고가 필요하다는 주장이 있다.

      Chain of Thought(문제 해결 과정의 연쇄) 방식은 모델에 따라 반응이 다르며, 작은 모델들은

      이러한 방식을 잘 수행하지 못한다고 알려져 있다.

       AI에게 사고를 가르치는 방법으로 다양한 접근 방식을 시도하며, 의사결정법을 적용하는

       것이 핵심이다

 

3. 딥시크의 추론 모델 방법론 : 00:56:11 (22)

 

       추론 모델 훈련 과정에서 다양한 방식으로 접근할 있으며,

       체인 오브 소트(Chain of Thought) 방식이 사용될 있다. 그러나 모델에 따라서

       이 방식의 반응이 다를 있다.

       강화 학습(Reinforcement Learning) 접근과 함께, 증류(Distillation) 방식도 활용되어,

       모델은 특정 영역에서의 추론 능력을 개발할 있는 것으로 나타났다.

       시스템 1 시스템 2 개념은 인간의 반응과 사고 방식에 대해 설명하며, 성공적인 사람이

       되기 위해서는 시스템 2 모드에서 고민하고 생각해야 한다.

       AI 추론 모델 인간의 사고 방식을 가르치는 것으로 이해되며, 알고리즘이 결국 사람처럼

       추론하도록 발전할 있는 가능성을 내포하고 있다.

       게임 기반의 학습에서 특정 게임의 규칙을 학습하는 것과 같은 사례가 있으며, 이는 제한된

       영역에서만 적용가능한 모델이라는 점에서 한계를 가진다.

 

3.1. 모델의 추론과 체인 오브 소트

       수행 2에서는 400 사용해 실험을 진행할 계획이다.

       모델은 체인 오브 소트(Chain of Thought) 적용해야 하지만, 클로바는 이를

       잘 반영하지 못하고 있다. 클로바 모델은 훈련이 부족하여 추론 능력이 떨어진 것으로 추정된다.

       체인 오브 소트는 이전 행동을 기록하는 한계가 있으며, 어려운 문제에 대한

       수행이 어려울 있다.

       추론 모델 "Step by Step" 방식과 다양한 방법을 활용해 훈련될 있으며,

       외부 검색 기능도 적용되었다

 

3.2. 리즈닝 토큰과 R1 기능

       OpenAI O1 시스템은 리즈닝이라는 기능을 제공하며, 초기 러닝에서는 리즈닝 토큰을

       보여주지 않는다. 그러나 R1 출시 이후에는 리즈닝 토큰을 시각적으로 확인할 있다.

       리즈닝은 여러 번의 턴으로 진행될 있으며, 과정에서 다양한 조합의 추론 과정을

       생성할 있다.

       비용 측면에서, 기본적인 가격으로는 100, 200, 500원이 있으며, CoT 사용할 경우

       토큰 비용이 발생한다.

       R1 특정한 문제를 해결할 형식 유지하는 규칙을 따르며, 훈련 과정에서 여러 조합이

       발생하도록 설계되었다. R1 사용하게 되면, 리즈닝 과정에서 많은 토큰이 사용되며

       그에 따라 비용이 상승할 것으로 예상된다. 

항목 비용 설명
기본 가격 100원 기본적인 추론 작업 비용
200원 200원 고급 추론 또는 복잡한 작업 시 발생
500원 500원 매우 복잡한 문제 해결 시 발생
리즈닝 토큰 R1 모델 사용 시 비용 추가 리즈닝 과정에서 여러 번의 추론 과정 발생

 

3.3. 리즈닝 프롬프트 기법과 추론 모델

       리즈닝(추론) 프롬프트 기법의 대표적인 방법은 리액트이며, 이는 여러 가지 접근

       방식으로 구성되어 있다.

       프롬프팅을 통해 다양한 플랜을 세우고 옵저베이션 없이 리즈닝하는 방법 등으로

       접근하는 것이 프롬프트 엔지니어링이다.

       추론 모델을 만드는 것은 사람에게 생각하는 법을 가르친다는 점에서 유사하며,

       AI에게도 이를 가르칠 있다. AI에게 추론 기술을 가르친다면, 이는 추론 모델

       발전할 있으며, O1, O3 같은 모델이 등장함.

       AGI 만드는 방법을 찾았다면, 이는 추론 모델을 발견했음을 의미하는 발언인 것으로 추정됨

 

3.4. 시스템 1 시스템 2 이해

       대니얼 카네만은 모든 인간의 행동이 시스템 1 시스템 2라는 가지 시스템에 의해 작동한다고 설명함.

       시스템 1 자동적이고 빠른 반응을 보여주며, 예를 들어 귀엽고 예쁜 것에 대한 무의식적인 반응이 있다.

       시스템 2 집중과 선택 같은 의식적인 노력을 필요로 하며, 깊은 사고를 요구한다.

       손실에 대한 기피 성향은 시스템 1 예시이며, 사람들이 잃은 것에 더욱 집중하게 만든다.

       성공적인 결정을 위해서는 시스템 2 모드에서 사고하는 것이 중요하며, 이를 통해

       더욱 풍부한 삶을 영위할 있다.

 

3.5. 딥시크의 추론 모델 학습 방식

       딥시크 R1 강화 학습(Reinforcement Learning) 이용하여 추론 모델을 생성한 사례로,

       실제로 30달러를 투자하여 추론 모델이 만들어졌다는 사실이 있다.

       그러나 30달러로 만들어진 AI 추론 모델은 매우 한정된 카운트다운 게임에 대한 추론만을 수행하며,

       일반적인 질문에 대해 대답할 있는 모델은 아니다.

       딥시크는 Fine Tuning 방법을 사용하여 모델을 훈련시켰으며, 이는 RL 방식이 아닌 증류 형식으로

       개발된 것이라고 있다.

       구글의 제미나이 모델은 수학과 코딩을 중점적으로 다뤘으며, 추론 모델의 범위를 넓히는 필요로

       하는 비용이 크지 않다는 것을 보여준다.

        가지 학습 방식, RLHF(강화학습 기반) 슈퍼바이즈드 파인튜닝 어떤 방식이 효과적인지는

       추가적인 논의가 필요하다.

 

3.6. 언어 모델의 발전과 추론 능력

       언어 모델이 추론 능력 향상되어, 최근 대한민국 수능 국어 시험에서 O1 100점을

       맞았다는 사례가 있다. O1 논리 문제를 모두 풀었으며, 이는 추론 영역 검증을 의미한다.

       국내 AI 모델들 간에는 성능 차이가 있으며, O1 R1보다 나은 성능을 보였다는

       이야기가 있다.

       최신 연구에 따르면, 슈퍼바이즈드 파인튜닝 강화학습 차이점이 있으며,

       각 방식이 적합한 분야가 다르다. 다양한 사고법을 통한 학습 방법이 중요하며,

       이는 AI 추론 방식에도 적용될 있는 개념이다.

 

4. 시크의 기술적 요소와 효율성 : 01:18:15 (27)

 

       하이퍼파라미터 네트워크 RMS 노멀라이제이션 활성화 저장 메모리 절약

       기여하지만, RMS 노멀라이제이션의 필요성에 의문을 제기한다.

       정밀도 손실을 최소화하기 위해 플래팅 포인트 사용 , 기술적인 접근 방법이 필요하며,

       단순히 플래팅 포인트를 높이는 것으로 해결되지 않음을 보여준다.

       MOE(믹스쳐 브레인) 기술은 딥시크의 기술 MLA(멀티헤드 어텐션)와는 관련이 없지만,

       레이턴트가 붙으면서 기술로 인정받는다.

       멀티헤드 어텐션의 차원 축소 사물 인식 이미지 처리에서의 효율성을 극대화하며,

       처리 속도를 증가시키는 기여한다.

       Bandwidth 제한으로 인해 H800 같은 새로운 하드웨어가 등장하였으며,

        이로 인해 제품 생산의 효율성이 변한다.

 

4.1. 하이퍼파라미터와 정밀도 손실 최소화의 이해

      스니 하이퍼파라미터 네트워크를 주고받는 기능으로, RMS 노멀라이제이션 활성화 값을

      저장하고 메모리를 절약한다는 점에서 의문이 제기된다. 중복 메모리 MLA 프로젝션

      중복 메모리 방지 효과를 가진다는 주장 또한 다소 이상하게 느껴지며, 멀티 토큰 프로덕션

      수축성 디코딩이 가능하다고 언급된다.

      하지만 이러한 기술들은 미래에 활용될 있다는 점에서 긍정적으로 평가되며, 

      쓴 표현이 적절하지 않다고 판단하여 수정이 이루어졌으며, 플래팅 포인트 자유로워지면

      정밀도 손실을 최소화하는 것으로 설명된다. 정밀도 손실을 최소화하기 위해 플래팅 포인트 30

      활용하는 것이 효과적이며, FFP 쓰더라도 손실을 줄일 있는 방법이 존재함을 의미한다.

 

4.2. 시크와 믹스처브 엑스퍼트(MoE) 기술

        시크 기술은 특정한 레이턴트가 붙은 멀티헤드 어텐션(MLA)에서 비롯된다.

       즉, MLA 자체는 시크의 기술이 아니다.

       믹스처브 엑스퍼트(MoE)에서는 여러 개의 엑스퍼트들이 존재하며, 이들은 훈련 서로의 결과를

       바탕으로 선택적으로 답변하게 된다.

       훈련 한쪽 엑스퍼트만 잘못된 답변을 경우, 해당 엑스퍼트는 다른 과제에 할당되며

       이 과정에서 로스가 계산된다. 훈련 시에 로스 계산을 간소화하여, 평균적으로 엑스퍼트가

       공평하게 훈련 있도록 한다.

        시크의 클래스는 MoE 효과를 시험한 결과로, 특정 엑스퍼트가 진정한 전문가로 거듭날

       있는 문제는 여전히 있다.

 

4.3. 시크의 계산량 감소 레이턴트 스페이스 활용

       멀티헤드 어텐션(MLA) 사용하여 차원을 줄여 계산량을 최소화하며, 이는 속도 향상으로 이어진다.

       스테이블 디퓨전 모델은 오토인코더를 활용해 레이턴트 스페이스에서 디퓨전을 수행하며,

       이를 통해 계산의 효율성을 높인다.

       GPT-4 16개의 믹스처 익스퍼트(MoE) 기반으로 하며, 이러한 구조에서 동결되지 않은 상태로

       운영된다. 논문에 따르면, 믹스처 익스퍼트를 균등하게 작업하도록 하는 게이팅 로직을 적용함으로써

       계산량을 줄이고 성능을 개선할 있음을 보여준다.

       압축된 레이턴트 상태에서의 디퓨전 처리로 효과적인 결과를 얻을 있으며, 이는 멀티헤드 레이턴트

       어텐션의 핵심 아이디어로 보인다.

 

4.4. ️ 이미지의 의미와 레이턴트 스페이스

       이미지 정보는 노이즈가 많아 모든 정보가 의미가 있는 것은 아니다.

       의미 있는 정보를 압축해야 필요성이 있으며, 언어의 경우는 복잡한 디멘션으로 구성된다.

       이미지의 디멘전 가로, 세로, 컬러와 같은 요소들로 표현될 있다.

       레이턴트 스페이스로의 맵핑 의미를 크게 삭제하지는 않겠지만, 특정 모델에서는 원래 차원이

       없을 있다. 레이턴트 스페이스를 만들기보다는 적당한 차원으로 임베딩을 설정했다면,

       MLA 사용할 필요가 없었을 가능성이 있다.

 

4.5. 시크의 임베딩 노멀라이제이션 기술

       로터리 포지션 임베딩 상대적 거리를 사용하여 의미를 파악하게 만든 방식으로,

       초기 chatGPT 사인 코사인 방식에서 발전되었다.

       RMS 노멀라이제이션 기존의 레이어 노멀라이제이션을 대체하여, 데이터의 중심을 이동하는

       대신 리스케일링만 수행함으로써 계산량을 줄인다.

       멀티토큰 프레딕션은 사전에 제안된 개념을 활용하였으며, 여러 토큰을 동시에 예측하여

       훈련 과정에서 정확도를 높이는 방법이다.

        과정에서 헤드의 역할은 모델의 예측 성능 향상에 기여하며, 예를 들어, 이전 토큰과

       점핑하는 신규 토큰을 예측할 유용하다.

       멀티토큰 프리딕션은 후속 인퍼런스 단계에서도 활용되어, 모델의 반응속도를 높일 가능성이 있다.

 

4.6. H800 하드웨어 효율화와 수출 규제의 영향

       H800 중국에서의 H100 칩셋 수입 제한으로 인해 훈련 시간이 오래 걸릴 있으며, 엔비디아는

       H800 통해 이러한 제한을 극복하고 기업의 이익을 추구하고자 했다.

       엔비디아의 이름은 볼타, 암페어, 호퍼, 블랙웰, 이들 이름은 역사적으로 중요한 과학자의

       이름에서 따온 것이며, 이는 기술에 대한 신뢰성을 높인다.

       H800 bandwidth 문제를 해결해야 하며, GPU 사이의 속도 문제를 핀포인트하여

       인피니티 인터커넥트를 통한 400GB/s 제한이 걸리고, 그에 따라 수출 규제를 우회하려는

       전략을 취하고 있다.

       엔비디아는 H800 성능을 펌웨어 조정 통해 개선하며, 이를 통해 소프트웨어 제한을 극복하고

       H800 데이터 전송 속도를 높이려는 노력을 기울이고 있다.

       H800 DPI( 시킹) 기술 대역폭을 향상시키기 위해 자율적인 알고리즘을 사용하여

       GPU 최대 성능을 끌어내고 있으며, 향후 확장 가능성도 제시하고 있다.

 

4.7. FP8 훈련법과 러닝 모델의 정밀도

       FP8 사용하여 딥러닝 모델을 훈련할 있는 가능성에 대한 연구가 2018년에 발표되었다.

       FP8 훈련할 경우, 에러가 줄어들지는 않지만, 계산 8비트, 축적 시에는 FP32 처리하는

       방안이 제시된다.

       통계적으로 여러 수행하면 FP32 축적된 정밀도가 누적되는 효과가 나타나는 것으로 추정된다.

       스토케스틱 라운딩 기법을 통해 작은 값들이 처리되고 청크 기반 어큐뮬레이션으로 누적되는 예시도 있다.

       이러한 방식으로 훈련 계산 속도가 빠르게 개선되는 결과를 가져오는 것으로 관측된다.

 

5. 시크의 기술적 접근 미래 전망 : 01:45:59 (30)

 

       플로팅 포인트 사용할 넓은 범위를 활용할 있으며, 이와 관련된 라이브러리

       코드가 이미 존재한다. FP8 사용시 계산 효율성이 증가하며, 예를 들어 비트 수가 4분의 1

       줄어들어 계산이 4 빨라질 있다

        시크 같은 기술의 발전은 다양한 국가에서의 AI 기술 발전에 영향을 미치고 있으며,

       중국 시장에 대한 제약도 문제시되고 있다.

       훈련비용 절감 중요한 과제로, 예를 들어 2023 중반에 생성된 모델은 일정한 파라미터

       수에서 훈련이 이루어졌다

       AI 모델에는 아키텍처 로스 함수 대한 깊은 고민이 필요하며, 모델 구축에 적용할

       있는 다양한 기존 기술들도 적극 활용해야 한다.

 

5.1. 딥시크의 기술적 확장 가능성

       플로팅 포인트 사용하면 넓은 범위의 데이터를 처리할 있으며, 이는 프로그램의

       성능 향상에 기여할 있다. 이미 구현된 파이썬 코드 존재하며, 2018년에 새롭게

       라이브러리 형태로 출력 방법도 포함되어 있다.

       FP8 다중 쓰레드를 활용함으로써 계산 속도가 최대 10 향상 있으며,

       이는 비트 수의 감소와 관련된다.

       엔비디아는 FP8 통해 성능을 극대화하려고 하지만, 딥시크 때문에 대중국 제재가 강화될

       가능성이 있으며, 이로 인해 기술적 경쟁이 심화될 있다.

       딥시크 기술의 확산은 다른 국가가 유사한 기술을 개발하도록 유도할 것으로 예상된다.

 

5.2. 딥시크의 훈련 비용과 기술 발전

       딥시크 훈련 비용을 줄이기 위한 다양한 노력을 하고 있으며, GPT-4 훈련 비용과

       비교해보고 있다. Chinchilla 옵티마이저는 파라미터를 증가시키는 것이 좋다는 스케일링

       법칙에 기반하여 적용되고 있다. 훈련 데이터에 대한 파라미터 최적화를 위해 Chinchilla

       기준으로 500 파라미터가 필요하다는 연구 결과가 나온 있다.

       블룸버그의 채집 PT 효율성을 위해 Chinchilla 활용한 것이 특징이며, 모델 훈련에는

       약 소요되었다. 블룸버그 GPT 훈련 비용은 15 으로 예상되며, 이는

       서버와 환율을 반영한 계산이다.

 

       * Chinchilla optimizer는 대규모 언어 모델(Large Language Models, LLMs)의 성능을

         향상시키기 위해 사용되는 최적화 알고리즘

 

5.3. 가격 성능 추세

       최근 가격 성능 지표에서 O1 O3 R1보다 낮은 수준으로 나타나고 있으며,

       이는 가격 경쟁력을 높인다. 아웃풋 토큰의 속도 측면에서 O1 mini 같은 모델이

       기존 모델들보다 빠르게 출시되고 있다.

       구글에서는 GPT-4 미니와 같은 저가 모델들을 많이 선보이고 있다고 언급되고 있다.

       딥시크 V3 가격을 올리려 하면서 할인 종료 방침을 내세우고 있으며, 이에 대해 혼란스러운

       의견이 존재한다. 데이터 보안, 정치적 바이오스, 데이터 전송 관련 문제들이 여러 이슈로

       언급되고 있으며, 이러한 문제들은 검증이 필요하다고 한다

 

5.4. 딥러닝과 블록 쌓기

       딥러닝 다양한 논문과 기술을 통해 발전하고 있으며, 새로운 기술들이 지속적으로 발견되고 있다.

       딥러닝 모델은 블록 쌓기처럼, 알려진 레이어들을 조합하여 새로운 모델을 만들 있는 구조를 지닌다.

       레고와 같은 블록들을 활용하여 기존의 구성 요소를 수정하거나 추가하여 나만의 블록을 만들 있다.

       MoE(믹스처 오브 엑스퍼트)처럼 이미 개발된 기법을 활용하여 새로운 모델을 구성할 있으며,

       아울러 게이팅 방식을 조정하여 성능을 향상시킬 있다.

       나아가, 한국이 딥러닝 분야에서 경쟁력을 갖추기 위해서는 성능 향상과 정확도 개선

       위한 깊은 고민이 필요하다.

 

5.5. 딥러닝 모델 개발의 핵심 요소

       딥러닝 모델 개발 아키텍처 로스 부분이 중요한 고려 사항이다. 아키텍처는 정보

       외부에서 입력받아 빠르게 학습할 있도록 설계해야 한다.

       로스는 모델의 훈련 방향성과 속도를 제공하며, 이를 통해 나만의 딥러닝 모델을 만들기

       위해서는 다양한 아키텍처와 로스 함수에 대한 고민이 필요하다.

       아키텍처적 고민은 수학적인 내용을 포함하며, 이를 통해 원하는 추론을 있는

       모델을 만들어내는 것이 중요하다.

       최근 연구에서는 트랜스포머 구조에 대한 오류나 새로운 개선 포인트를 발견하는 과정을

       통해 아키텍처를 발전시키고 있다.

       새로운 모델인 잠바 기존의 모델을 조합하여 빠르고 정확한 성능을 발휘하며,

       AI21이라는 회사가 연구한 결과물로 오픈소스 형태로 제공된다.

 

5.6. 딥시크와 AI 모델의 발전

       거대 AI 관한 오해가 있으며, 대규모의 AI 모델은 파라미터 개수 의미하는데,

       예를 들어 chatGPT 1750 개의 파라미터를 갖고 있다.

        시크 사람의 구조를 모방한 접근 방식을 통해 새로운 학습 방법을 적용하고 있으며,

       이는 기존 모델들과 차별화된다. AI 모델의 성능 향상은 협업 토론 통한 아이디어의

       교환에서 비롯되며, 실험과 테스트 환경을 마련해야 한다.

        시크의 성과는 여러 기술을 통합하여 이루어진 결과이며, 이는 사소한 개선들이 모여

       더 혁신을 만든다는 것을 보여준다.

       최적의 성과를 위해서는 GPU 같은 충분한 하드웨어 자원이 필요하며,

       검증 과정 역시 비용과 시간을 고려해야 한다.