PGR21.com
- 자유 주제로 사용할 수 있는 게시판입니다.
- 토론 게시판의 용도를 겸합니다.
Date 2024/05/28 08:30:36
Name Fig.1
Link #1 www.fig1.kr
Subject [일반] [역사] ChatGPT가 탄생하기까지 / 인공지능(딥러닝)의 역사 (수정됨)
ckJPNAu.png

- 이번 주제는 인공지능입니다. 인공지능이라고 했지만 정확하게 말하면 딥러닝의 역사입니다. 보통은 혼용해서 쓰지만 인공지능은 인간의 지능적인 작업을 모방하거나 수행하는 모든 컴퓨터 시스템을 의미하고요. 딥러닝은 인공신경망을 기반으로 한 인공지능을 의미합니다. 그러니까 인공지능의 하위 개념으로 딥러닝이 있는 것이죠.(인공지능 ⊃ 딥러닝) 참고로 오늘날 인공지능하면 가장 먼저 떠올리는 알파고, Chat GPT는 딥러닝 방식을 사용합니다.

- 내용이 너무 복잡해져서 자연어처리나 손실 함수(loss function) 등등 몇몇 내용은 뺐습니다. 그럼에도 아직도 내용이 복잡합니다.

- 인공지능의 역사에는 전문 지식이 많이 들어가 있습니다. 저도 대학원에서 겉핥기식으로 배운 내용을 더듬어 보고(관련 전공은 아니지만 왜인지 딥러닝과 강화학습 수업을 들었습니다), 최대한 이해하면서 작성하려고 했지만 틀린 부분이 있을 수 있습니다. 틀린 부분은 알려주시면 수정하도록 하겠습니다.!



Fig.1 인공지능의 시작, 퍼셉트론

PXEcK2X.png
[Figure 1. 퍼셉트론 장치의 모습]

인공지능 연구는 1943년 발표된 논문 A Logical Calculus of Ideas Immanent in Nervous Activity에서 시작됩니다. 이 연구는 뇌 속 뉴런의 작용을 0과 1로 이루어지는 2진법 논리 모델로 설명한 것이었죠.

1958년에는 프랭크 로젠블렛FrankRosenblatt 이 수많은 신경망으로 이루진 인간의 뇌처럼 컴퓨터도 신경망으로 학습시켜 추론하게 하자는 아이디어를 제시하는데요. 이를 다수의 값을 입력받아 하나의 값으로 출력하는 알고리즘, 퍼셉트론Perceptron 이라 합니다. 퍼셉트론을 통해서는 A 또는 B인지를 구분할 수 있었습니다. 예를 들어 무작위로 동물 사진을 보여주었을 때 고양이인지, 강아지인지를 분류할 수 있었죠.

E57jG7k.png
[Figure 2. 퍼셉트론이 학습을 통해 추론하는 방식 ⒸElizabeth Goodspeed]

퍼셉트론의 원리를 예를 들어 간단히 설명해보겠습니다. 퍼셉트론으로 고양이를 구분한다고 할 때, 입력값 뾰족한 귀에는 높은 가중치를 주고, 입력값 길쭉한 입에는 낮은 가중치를 주어 총합이 높으면 고양이를 출력하는 식입니다. 이를 학습할 때 입력값과 함께 정답도 주어서 오차에 따라 가중치를 조정하죠.


iYDYUig.png
[Figure 3. OR(X₁ 또는 X₂이 1일 때), AND(X₁와 X₂이 둘 다 1일 때)는 직선으로 구분할 수 있지만, XOR(X₁와 X₂이 같지 않은 경우)는 직선으로 구분하지 못함]

하지만 ‍1969년 마빈 민스키Marvin Lee Minsky 와 시모어 페퍼트Seymour Papert 가 <퍼셉트론>이라는 책을 출간하여 퍼셉트론의 문제점과 한계를 지적합니다. 퍼셉트론은 AND 또는 OR 같이 직선으로 분리 가능한 문제는 구분할 수 있지만, XOR 문제처럼 선형 방식으로 데이터를 구분할 수 없는 경우에는 적용할 수 없다는 것이었죠.
이러한 퍼셉트론의 한계가 드러나자 AI에 관해 회의적인 전망이 퍼지고 AI 연구에 대한 지원이 끊기게 되죠. 이 시기를 AI의 1차 겨울이라고 합니다.



Fig.2 손글씨를 알아보는 인공지능의 등장

KDaNlJW.png
[Figure 4. 퍼셉트론의 문제를 해결하는 다층 퍼셉트론]

<퍼셉트론>에서 마빈 민스키는 기존 퍼셉트론에 존재하는 입력층과 출력층 사이에 여러 중간 층을 두는 다층 퍼셉트론이 이 문제를 해결할 수 있으리라 언급했지만, 그것을 구현할 방법은 없다고 단정해버렸죠. 민스키가 다층 퍼셉트론이 어렵다고 했던 이유는 가중치 조작 때문이었습니다. 기존 퍼셉트론에서 원하는 결과와 실제 결과의 오차를 비교해 가중치를 조정했었는데요. 다층 퍼셉트론에서는 중간층에서 출력되는 수많은 값들의 오차를 측정할 기준이 없기 때문에 가중치 조정을 하기 힘들었던 것이죠.

UjTkgMG.png
[Figure 5. 오차 역전파 개념]

그로부터 약 5년 후인 1974년, 당시 하버드 대학교 박사과정이었던 폴 웨어보스Paul Werbos 가 결과값의 오차를 출력층에서 입력층 방향으로 보내면서 중간층의 가중치를 조정하는 오차 역전파 개념을 제안합니다. 이 방법을 민스키 교수에게 설명하지만 무시되죠. 결국 논문만 발표하고 별다른 성과는 없었습니다.

오차 역전파 개념은 1986년에서야 다시 빛을 보게 됩니다. 제프리 힌튼Geoffrey E. Hinton 과 데이빗 럼멜하트David E. Rumelhart 는 폴 웨어보스와는 독자적으로 오차 역전파 알고리즘을 제안하게 된 것이었죠. 오차 역전파 알고리즘으로 다층 퍼셉트론을 학습할 수 있게 되면서 인공신경망은 호황기를 누리게 됩니다.

Inpmguq.png
[Figure 6. LeNet-5의 구조]

1989년 힌튼의 제자였던 얀 르쿤Yann LeCun 은 오차 역전차 알고리즘을 활용해 이미지 인식에 효과적인 합성곱 신경망Convolutional neural network, CNN 을 만들어냅니다. 기존 알고리즘은 1차원 형태의 데이터를 사용합니다. 그런데 2차원인 이미지를 1차원으로 바꾸게 되면 이미지의 공간적/지역적 정보가 손실되게 됩니다. 이러한 문제를 해결하기 위해 만들어 낸 것이 바로 CNN이었죠. 르쿤은 CNN을 활용해 미국 우편국에서 활용할 수 있도록 손으로 쓴 우편번호를 인식하는 인공지능 LeNet-5을 개발합니다.

oM0Nums.png
[Figure 7. 다층 퍼셉트론에서 입력층으로 갈 수록 가중치 조정이 안되는 모습, 이를 기울기 소실 문제라고 한다]

하지만 오류 역전파 알고리즘도 한계가 있었습니다. 첫째, 중간층이 많아질수록 역전파에 의한 가중치 조정이 제대로 되지 않는다는 것입니다. 둘째, 입력값 하나 하나 마다 모든 가중치를 업데이트해야 하기 때문에 중간층이 많아지면 많은 연산량이 필요하다는 점도 문제였습니다. 당시가 80년대라는 점을 감안하면 컴퓨터 성능이 이를 버티지 못할 가능성이 높았죠.

i6fTJ22.png
[Figure 8. 경사하강법으로 인식한 최저점이 실제 최저점과 다를 수 있음을 보여주는 그래프]

셋째, 오류 역전파 알고리즘에서 오차를 최소화하기 위한 방법으로 경사 하강법Gradient Descent 을 사용했는데요. 경사 하강법이란 그래프에서 최저점은 기울기가 가파르게 내려가는 방향으로 움직여 기울기가 0이 되는 곳이라는 사실을 이용한 것입니다. 하지만 그래프의 굴곡이 두 개 이상 있을 경우 경사 하강법으로 최솟값인줄 알았던 값이 전체 최솟값과 다를 수 있다는 문제가 발생합니다. 이러한 한계에 봉착하며 인공지능은 두 번째 겨울을 맞이하게 됩니다.



Fig.3 딥러닝 3대 천왕

20년간의 겨울 속에서도 연구를 계속 해나갔던 제프리 힌튼Geoffrey Everest Hinton 과 요수아 벤지오Yoshua Bengio 는 2006년 각각 기울기 소실 문제를 해결하는 방법을 제시한 논문을 발표합니다.

제프리 힌튼이 제시한 방법은 제한된 볼츠만 머신Restricted Boltzmann machine, RBM 이었고, 요수아 벤지오가 제시한 방법은 오토인코더 였습니다. 기존에는 가중치의 초기값을 임의로 주고 오류 역전파를 이용해 최적의 값을 찾아냈었는데요. 제한된 볼츠만 머신에서는 미리 가중치의 초기값을 학습한다는 것이었습니다. 오토인코더의 핵심은 비지도 학습인데요. 결과값을 라벨링하지 않은 데이터를 통해 학습하는 것을 의미합니다.

xdjhx90.png
[Figure 9. AI 대부]

오류역전파 알고리즘을 개발한 제프리 힌튼, CNN을 개발한 얀 르쿤, 기울기 소실 문제를 해결한 요수아 벤지오는 많은 층으로 이루어진 다층 퍼셉트론을 심층신경망Deep Neural Network, DNN 이라 재정의하고, 이를 학습시키는 방법을 딥러닝Deep Learning 이라고 명명합니다. 그리고 이 세 명을 AI 대부라고 부르죠.

이렇게 개선된 인공 신경망은 압도적인 성능을 보여주었습니다. 대량의 시각 자료 데이터베이스인 이미지넷을 활용해 이미지 인식 방식의 우월을 가리는 ILSVRC 대회가 있는데요. 2012년 ILSVRC에서 CNN을 사용한 심층 신경망 모델인 알렉스넷AlexNet 이 압도적인 성적으로 우승을 차지합니다. 당시 알렉스넷의 오차율은 16.4%였고 2등~5등의 오차율은 26.2% ~ 29.6%이었습니다.



Fig.4 위조지폐범 vs 경찰
qWC6K1b.png
[Figure 10. GAN으로 생성된 이미지. 점차 개선되는 것이 보인다]

생성형 AI의 시초는 2014년 딥러닝의 대부 요수아 벤지오의 제자였던 이안 굿펠로우Ian Goodfellow 가 제시한 생성형 적대 신경망Generative Adversarial Networks, GAN 입니다.

GAN은 두 개의 신경망을 경쟁시켜 발전시키는 알고리즘으로, 두 개의 신경망은 각각 생성 모델과 생성 모델로 생성된 것을 판별하는 판별 모델이죠. 즉 생성 모델과 판별 모델이 경쟁하면서 진짜같은 가짜를 만들어 내는 것입니다.

이안 굿펠로우는 GAN을 경찰과 위조지폐범 사이의 게임에 비유했는데요. 위조지폐범은 최대한 진짜 같은 화폐를 만들어 경찰을 속이기 위해 노력하고, 경찰은 진짜 화폐와 가짜 화폐를 분류해 위조지폐범을 검거하는 것을 목표로 합니다. 이러한 경쟁관계에서 서로의 능력은 꾸준히 발전하게 되고, 진짜 지폐와 가짜 지폐를 구분할 수 있는 확률이 50%에 수렴하게 됩니다.



Fig.5 데이터를 때려넣어 탄생한 GPT

오늘날 가장 큰 영향력을 가지고 있는 딥러닝 모델은 2017년에 등장합니다. 구글에서 발표한  논문에서 제시된 트랜스포머Transformer 라는 딥러닝 모델이죠. 기존 텍스트 인식 알고리즘은 텍스트를 순차적으로 처리했기 때문에 단어와 단어의 사이가 멀어지면 오역이 발생하곤 했는데요. 트랜스포머는 논문의 제목에서 알 수 있듯이 Attetion으로 이를 해결합니다. 여기서 Attention이란, 해당 시점에서 예측해야 할 단어와 가장 연관이 있는 단어를 좀 더 집중해서 보겠다는 것입니다. 따라서 시퀀스 내 단어들 간의 연관성을 파악해 점수로 나타내고, 이 점수를 통해 현재 시점에서 어떤 단어에 집중해야 할지 알 수 있게 되는 것입니다.

IT8iMHK.png
[Figure 11. GPT-3가 얼마나 많은 파라미터를 가지고 있는 지 보여주는 그래프]

트랜스포머의 등장 이후 글로벌 빅테크 기업들은 모두 트랜스포머 기반의 언어모델을 앞다투어 공개하기 시작했는데요. 가장 두드러지는 모델은 GPTGenerative Pre-trained Transformer 입니다. 특히 GPT-3에서는 엄청난 양의 데이터를 넣어 초거대 AI 모델로 만든 것인데요. 커먼 크롤링, 위키피디아 등으로부터 얻은 3000억 개의 데이터 셋을 사용했고, 연산에 쓰이는 파라미터는 1,750억 개이죠. GPT-2가 15억개 파라미터를 가졌던 것을 비교해보면 엄청난 양인 것이죠. GPT-3은 이러한 대규모 데이터와 파라미터를 가지고 주어진 시퀀스에서 다음에 올 단어를 예측합니다. 간단히 말하자면 성능 좋은 아이폰의 자동 완성 기능이라고 비유할 수 있습니다.



Reference.
- 장동선. (2022). AI는 세상을 어떻게 바꾸는가. 김영사.
- 이원진. "인공지능 딥러닝의 역사와 현황, 그리고 미래 방향." 대한치과의사협회지 60.5 (2022): 299-314.
- 조민호. (2021). 인공지능의 역사, 분류 그리고 발전 방향에 관한 연구. 한국전자통신학회 논문지, 16(2), 307-312.
- 우상근. (2022). (전 세계를 뒤흔든) 현대 인공지능의 역사적 사건 및 산업·사회 변화 분석. 한국지능정보사회진흥원. IT & Future Strategy 보고서, 제 11호
- 김인중. (2022). [김인중이 전하는 딥러닝의 세계] <7> 딥러닝 역사의 전환점들. 한국경제. URL : https://www.hankyung.com/article/202202179087i
- 박종건. (2019). 퍼셉트론부터 CNN까지, 딥러닝의 역사. 카이스트 신문. URL : http://times.kaist.ac.kr/news/articleView.html?idxno=4675
- 레터웍스. (2021). [AI 이야기] 인공지능의 결정적 순간들, 첫 번째 순서. URL : https://www.letr.ai/blog/story-20211029-1
- 유현. (2023). Generative AI, 생성 모델 톺아보기. 딥다이브. URL : https://deepdaiv.oopy.io/e3cce906-45bc-4039-8141-e4d638ad2f3f
- Keith D. Foote. (2024). 흥미진진한 생성AI의 역사. GTT KOREA. URL : https://www.gttkorea.com/news/articleView.html?idxno=9274

통합규정 1.3 이용안내 인용

"Pgr은 '명문화된 삭제규정'이 반드시 필요하지 않은 분을 환영합니다.
법 없이도 사는 사람, 남에게 상처를 주지 않으면서 같이 이야기 나눌 수 있는 분이면 좋겠습니다."
raindraw
24/05/28 09:02
수정 아이콘
AI의 역사라기 보다는 딥러닝의 역사라고 해야 맞을 것 같습니다.
현재의 AI 혁명은 딥러닝으로 진행되고 있지만 딥러닝 외에도 AI 연구분야는 여러가지 존재하고
몇몇 부분에서는 딥러닝 보다 더 좋은 성과를 내는 AI 기술들도 존재합니다.
24/05/28 12:02
수정 아이콘
문득 유전 알고리즘이 생각나네요. 가끔 유전 알고리즘으로 자유도가 높은 게임을 만들면 어떨까 하는 상상을 하곤 합니다.
24/05/28 12:22
수정 아이콘
코멘트 맨앞에 써두긴 했는데 눈에 잘 띄지 않나보네요ㅠㅠ 아예 제목을 변경해야겠어요
raindraw
24/05/28 12:29
수정 아이콘
앗 열심히 읽었는데 그 부분을 놓쳐버렸네요. 미안합니다. ㅠㅠ
24/05/28 12:48
수정 아이콘
아닙니다흐흐 제목도 변경해두었습니다:)
에이치블루
24/05/28 10:09
수정 아이콘
5년 전만 해도 인공지능이 이미지 처리에 특화되어서 그 이상이 있을까 싶었는데...기술이란 정말 놀랍습니다.
24/05/28 12:23
수정 아이콘
5년 전쯤에 최신 논문으로 웨이브넷 봤던 것 같은데 말이죠..
공실이
24/05/28 13:44
수정 아이콘
좋은 글 감사합니다.
24/05/28 19:45
수정 아이콘
감사합니다:)
안군시대
24/05/28 13:49
수정 아이콘
딥러닝을 처음 접했을땐 충격과 공포였는데, 다시 생각해보니 딥러닝 자체만으로는 뭔가 부족하고 그걸 보완할만한 진보된 개념이 슬슬 나와줘야 할 때가 된것 같아요.
자연어처리
24/05/28 14:12
수정 아이콘
좀 첨언하면..
GPT3은 1750억 파라미터에 3000억 토큰(단어)을 학습했구요.
한동안은 파라미터 대비 20배의 토큰을 학습해야한다고 알려졌으나, 이제는 그마저 넘어서 최근 llama3 80억 파라미터의 경우, 15조 토큰을 학습에 썼습니다. 요새는 80억 파라미터 모델의 경우에는 15조 토큰이 최대치인것 같다는 인식이 퍼지고 있습니다. 선형적이라 가정하고 계산하면 원래 1750억 파라미터 GPT3의 경우 328조 토큰이 필요했던거죠.
이렇기에 데이터를 모으는 비용과 학습하는데 비용이 엄청나게 들어갑니다…
24/05/28 14:52
수정 아이콘
8B 모델에 15조 토큰이 한계라는 증거는 없습니다. 그냥 다다익선이고 컴퓨트와 데이터양이 보틀넥이죠.
자연어처리
24/05/28 16:17
수정 아이콘
(수정됨) 증명 된 것은 아니고 인식이 퍼지고 있다고 말씀드렸습니다.

Quantization할 때 성능이 더 많이 떨어지고, continual pretraining시에 학습이 기존 대비 어려운 점으로 미뤄보아, floating point를 거의 다 써서 정말 정교하게 깎아낸 모델이라, 8b는 15T가 한계가 아니냐는 의견들이 많습니다.

다다익선은 아닙니다. 네트웍 사이즈는 유한한데 당연히 Capacity의 한계는 분명히 존재합니다. 그러므로 scaling law를 연구하는 것이지요. 다만 한계치가 워낙 높아서 아직 한계가 얼마인지 모르는 것이구요. Chinchilla Optimal이 한계인줄 알았던 시절도 있는 것이구요.
24/05/28 16:18
수정 아이콘
이 주제는 복잡해도 읽는 가치가 있군요 크크
24/05/30 09:33
수정 아이콘
전문 내용이라 어려워요ㅠㅠ 울면서 정리했습니다
Dr. ShuRA
24/05/29 08:36
수정 아이콘
잘 읽고 갑니다.
24/05/30 09:33
수정 아이콘
감사합니다!
노둣돌
24/05/30 11:23
수정 아이콘
내용 파악은 거의 못하지만 그래도 흐름이라도 어렴풋이 느낄 수 있는 귀한 글이네요.
노고에 감사드립니다.
퀀텀리프
24/06/01 00:28
수정 아이콘
울트만 - 현재 AI는 구석기 시대다
목록 삭게로! 맨위로
번호 제목 이름 날짜 조회 추천
101601 [정치] 헌정사상 첫 검사 탄핵소추 기각 [37] 몰라몰라12434 24/05/30 12434 0
101600 [정치] 저출산 대책은 이제 그만 [63] 번개맞은씨앗12558 24/05/30 12558 0
101599 [정치] 서울고법 "최태원, 노소영에 1조3천800억원 재산분할" [123] 매번같은12811 24/05/30 12811 0
101598 [일반] PGR 보고 달리기 시작한 런린이! 마라톤 5km 30분 달성했습니다! (아무래도 우주전쟁님이 날 속인거 같아!) [22] bifrost6948 24/05/30 6948 27
101597 [일반] 전기차를 타보고 느끼는 의외의 장단점 [122] 시무룩11259 24/05/30 11259 9
101595 [정치] 정부 "간호법 국회 통과못해 안타까워…시행시기 단축 논의" [47] 조선제일검13495 24/05/30 13495 0
101594 [정치] 군인을 버린 사회 [90] 시드마이어14451 24/05/29 14451 0
101593 [일반] 6/1 댄스 버스킹에 놀러오세요! (여의도 한강공원) [12] 메존일각7203 24/05/29 7203 13
101592 [정치] 채상병 관련 전 대대장 입장문 및 윤승주 일병 모 입장문 [76] 덴드로븀13961 24/05/29 13961 0
101591 [일반] 진짜 얼마 안남음 [26] 천영16369 24/05/29 16369 1
101590 [일반] ???? : 애플 게섯거라 [32] Lord Be Goja10053 24/05/29 10053 2
101589 [정치] 23년 혼인건수는 22년 대비 1% 증가 [39] 겨울삼각형10774 24/05/29 10774 0
101588 [일반] 삼성전자 노조, 창사이래 최초로 파업 돌입 예정 [37] EnergyFlow10835 24/05/29 10835 1
101587 [정치] 尹 개인폰 번호가 이첩 당일 이종섭에 3차례 전화‥이후 박정훈 보직해임 [47] 조선제일검10805 24/05/29 10805 0
101585 [정치] 국회, 채상병특검법 부결 / 찬성 179표·반대 111표·무효 4표 [254] 덴드로븀26346 24/05/28 26346 0
101584 [일반] 패드립과 피리 [4] 계층방정8586 24/05/28 8586 6
101582 [일반] AMD 메인보드 네이밍 700 패싱하고 800 간다 [17] SAS Tony Parker 9348 24/05/28 9348 1
101581 [일반] [역사] ChatGPT가 탄생하기까지 / 인공지능(딥러닝)의 역사 [19] Fig.19966 24/05/28 9966 22
101580 [일반] 잘 되니까 뭐라 하기 뭐하네(Feat.범죄도시) [54] 아우구스투스14410 24/05/27 14410 6
101579 [정치] 직구 금지 사태, 온라인이 정책마저 뒤집다 [40] 사람되고싶다15120 24/05/27 15120 0
101578 [정치] 육군 "훈련병 1명 군기훈련 중 쓰러져…이틀 만에 사망 [229] 덴드로븀21834 24/05/27 21834 0
101575 [정치] 윤 대통령 “라인 문제, 잘 관리할 필요”…기시다 총리 “긴밀히 소통하면서 협력” [80] 자칭법조인사당군14688 24/05/27 14688 0
101574 [일반] 험난한 스마트폰 자가 수리기(부제 : 자가수리로 뽕뽑기) [60] Eva01010663 24/05/27 10663 12
목록 이전 다음
댓글

+ : 최근 1시간내에 달린 댓글
+ : 최근 2시간내에 달린 댓글
맨 위로