본문 바로가기

인공지능 확률통계

생성형 인공지능 종류 - GPT, Diffusion, Autoencoder, GAN

1. GPT (Generative Pre-trained Transformer)

주요 처리 수학식: $$L = -\sum_{i=1}^{N} \log P(y_i | x_i, \theta)$$

학습 방식: GPT는 Transformer 아키텍처를 기반으로 학습됩니다. 학습 과정에서는 다음 단계를 거칩니다:

  1. 텍스트 데이터 전처리: 텍스트 데이터를 토큰화하고, 각 토큰에 대한 임베딩을 생성합니다.
  2. 평균 분산 손실 함수 (MSE) 최적화: 모델은 주어진 텍스트 입력에 대해 다음 단어를 예측하며, 예측된 단어와 실제 단어 간의 차이를 최소화합니다.
  3. 순환 학습: 모델은 자신의 출력을 다시 입력으로 사용하여 반복적으로 학습합니다.

2. Diffusion 모델

주요 처리 수학식: $$x_t = \sqrt{1 - \beta_t} x_{t-1} + \beta_t \epsilon_t$$

학습 방식: Diffusion 모델은 노이즈를 점차적으로 제거하는 방식으로 이미지를 생성합니다. 학습 과정은 다음과 같습니다:

  1. 노이즈 추가: 이미지에 노이즈를 추가하여 점차적으로 노이즈가 증가하는 데이터를 생성합니다.
  2. 노이즈 제거: 모델은 노이즈를 점차적으로 제거하며, 이 과정에서 노이즈가 제거되는 방식을 학습합니다.
  3. 노이즈 제거 과정 최적화: 모델은 노이즈가 제거되는 과정을 최적화하여 실제 이미지로 복원합니다.

3. Autoencoder

주요 처리 수학식: $$L = \| x - \hat{x} \|_2^2$$

학습 방식: Autoencoder는 입력 데이터를 압축하여 다시 복원하는 방식으로 학습됩니다. 학습 과정은 다음과 같습니다:

  1. 컨트라스트 층 학습: 입력 데이터를 압축하여 표현합니다.
  2. 복원 층 학습: 압축된 표현을 다시 원래 데이터로 복원합니다.
  3. 손실 함수 최적화: 모델은 압축된 데이터와 원래 데이터 간의 차이를 최소화하여 학습합니다.

4. GAN (Generative Adversarial Network)

주요 처리 수학식: $$L = \min_G \max_D V(D, G)$$

학습 방식: GAN은 생성자와 판별자의 경쟁을 통해 학습됩니다. 학습 과정은 다음과 같습니다:

  1. 생성자 학습: 생성자는 랜덤한 노이즈를 입력으로 받아 실제 데이터와 유사한 데이터를 생성합니다.
  2. 판별자 학습: 판별자는 생성자가 생성한 데이터가 실제 데이터인지 판단합니다.
  3. 경쟁 학습: 생성자는 판별자가 실제 데이터로 판단되도록 최적화하고, 판별자는 생성자가 생성한 데이터를 실제 데이터로 판단하도록 최적화합니다.

 

반응형

'인공지능 확률통계' 카테고리의 다른 글

Autoencoder  (0) 2024.12.16
Transformer  (0) 2024.12.11
Entropy, Cross-entropy, KL-Divergence  (0) 2024.12.10
베이즈 이론 - 인공지능 확률 통계  (0) 2023.09.17