컴퓨터과학/딥러닝

인공 신경망의 추론처리 특징부터 구현까지 - 딥러닝 정리

목차 개요 신경망의 추론 처리는 훈련된 모델을 사용하여 보이지 않는 새로운 데이터를 예측하는 프로세스입니다. 학습된 모델은 학습 프로세스 중에 학습한 패턴 및 관계를 기반으로 입력 데이터에 대한 예측 또는 추론을 수행하는 데 사용됩니다. 특징 추론 처리는 기계 학습 파이프라인의 마지막 단계이며 모델을 실제 응용 프로그램에 배포할 수 있도록 합니다. 계산 리소스가 덜 필요하고 더 빠르게 수행할 수 있다는 점에서 훈련과 다릅니다. 그러나 예측의 품질은 교육의 품질에 따라 달라집니다. 추론에는 온라인과 오프라인의 두 가지 주요 유형이 있습니다. 온라인 추론은 자율 주행 자동차 또는 음성 인식과 같이 모델이 가능한 한 빨리 예측을 수행해야 하는 실시간 애플리케이션에 사용됩니다. 오프라인 추론은 데이터 세트의 이..

MNIST 데이터셋의 특징부터 구현까지 - 딥러닝의 신경망

목차 개요 MNIST 데이터 세트는 특히 컴퓨터 비전 분야에서 기계 학습 모델을 교육하고 테스트하는 데 널리 사용되는 데이터 세트입니다. Modified National Institute of Standards and Technology의 약자입니다. 특징 MNIST 데이터 세트는 60,000개의 학습 이미지와 10,000개의 손글씨 숫자 테스트 이미지로 구성되며 각 이미지의 크기는 28x28픽셀이고 회색조입니다. 각 이미지에는 0에서 9까지의 해당 숫자가 표시됩니다. MNIST 데이터 세트에서 훈련된 모델의 목표는 손으로 쓴 숫자의 이미지를 입력으로 가져와 10자리 숫자 중 하나로 올바르게 분류하는 것입니다. 이것은 고전적인 이미지 분류 문제이며 다양한 기계 학습 모델 및 아키텍처의 성능을 테스트하기 ..

소프트맥스 함수란 무엇인가? softmax 함수 특징부터 구현까지

목차 소프트맥스 함수 개요 softargmax 또는 정규화된 지수 함수라고도 하는 softmax 함수는 문제가 다중 클래스 분류인 경우 신경망의 출력 계층에서 일반적으로 사용되는 활성화 함수입니다. 입력 값(실수일 수 있음)을 K 클래스에 대한 확률 분포로 매핑합니다. 여기서 K는 클래스 수입니다. 함수는 다음과 같이 정의됩니다. softmax(x) = exp(x) / sum(exp(x)) 여기서 x는 각 클래스에 대한 입력 값의 벡터이고 exp는 지수 함수이며 분모는 모든 클래스에 대한 지수 값의 합입니다. softmax 함수의 출력은 모든 클래스에 대한 값의 합이 1인 확률 분포입니다. 이는 softmax 함수의 출력이 각 클래스에 속하는 입력의 확률로 해석될 수 있음을 의미합니다. 확률이 가장 높은..

파이썬의 keras를 이용해 3층 신경망을 구현해 보자 - 딥러닝

목차 3층 신경망이란 3층 신경망은 다층 퍼셉트론(MLP)이라고도 하며 입력 계층, 하나 이상의 숨겨진 계층 및 출력 계층의 3개 계층으로 구성된 일종의 인공 신경망입니다. 입력 레이어는 입력 데이터를 수신한 다음 숨겨진 레이어에서 처리합니다. 입력 레이어의 뉴런 수는 입력 데이터의 피처 수에 해당하며 숨겨진 레이어의 뉴런 수는 모델의 성능을 최적화하기 위해 조정될 수 있습니다. 활성화 함수는 숨겨진 레이어의 각 뉴런 출력에 적용되어 네트워크에 비선형성을 도입하는 데 도움이 됩니다. 출력 계층은 처리된 입력 데이터를 기반으로 최종 예측 또는 분류를 생성합니다. 출력 계층의 뉴런 수는 모델이 예측하려는 클래스 또는 출력의 수에 해당합니다. 출력 레이어에서 사용되는 활성화 함수는 태스크의 종류에 따라 달라지..

ReLU함수란 무엇인가? ReLU 활성화 함수 특징과 구현방법

목차 개요 ReLU(Rectified Linear Unit) 함수는 신경망에서 일반적으로 사용되는 비선형 활성화 함수입니다. 다음과 같이 정의됩니다. ReLU(x) = max(0, x) 모든 음수 입력 값을 0으로 매핑하고 음수가 아닌 모든 입력 값을 그대로 유지합니다. 이 함수는 실수에 대해서만 정의되며, 양수일 때 입력과 음수일 때 0과 같은 출력을 생성합니다. 특징 ReLU 활성화 함수는 구현이 간단하고 계산적으로 효율적이며 0에서 간단한 임계값 연산으로 정의되며 지수나 로그와 같은 복잡한 수학 연산이 없습니다. ReLU는 시그모이드와 같은 다른 활성화 함수에서 흔히 발생하는 기울기 소실 문제를 방지하는 데 도움이 되기 때문에 심층 신경망에서 널리 사용됩니다. ReLU 함수의 그래디언트는 0 또는 ..

계단 함수란? 딥러닝의 계단 활성화 함수 특징과 구현방법

목차 개요 계단 함수는 입력을 이진 출력(0 또는 1)으로 매핑하는 활성화 함수입니다. 주로 이진 분류 문제의 출력 계층에서 사용됩니다. 단계 함수는 다음과 같이 정의됩니다. 계단함수(x) = 1 if x >= 0 else 0 특징 계단 함수는 실수에 대해서만 정의되며 입력이 0보다 크거나 같으면 1, 입력이 0보다 작으면 0인 출력을 생성합니다. 단계 함수는 연속적으로 미분할 수 없으므로 최적화 프로세스를 만들 수 있습니다. 특히 네트워크에 여러 계층이 있는 경우 더 어렵습니다. 계단 함수는 모델이 출력에 대해 어려운 예측을 할 수 있도록 해주기 때문에 이진 분류 문제에 유용합니다. 입력이 특정 클래스에 속하는지 여부만 나타내는 이진 출력을 생성합니다. 계단 함수는 지속적으로 미분할 수 없고 최적화를 ..

시그모이드 함수란? 딥러닝의 시그모이드 활성화 함수 구현방법

목차 개요 시그모이드 함수는 신경망에서 일반적으로 사용되는 활성화 함수입니다. 입력을 0과 1 사이의 값으로 매핑하며, 이는 특정 클래스에 속하는 입력의 확률로 해석될 수 있습니다. 시그모이드 함수는 다음과 같이 정의됩니다. 시그모이드(x) = 1 / (1 + e^(-x)) 여기서 x는 함수에 대한 입력이고 e는 자연 로그의 밑입니다. 이 함수는 실제 입력 값을 가져와서 0과 1 사이의 값으로 매핑합니다. 함수의 출력은 확률 값입니다. 여기서 값 0은 확률 0%에 해당하고 값 1은 100% 확률에 해당합니다. 특징 시그모이드 함수는 "S" 모양 곡선을 가지며, 이는 모델이 출력에 대해 확률적 예측을 할 수 있도록 해주기 때문에 이진 분류 문제에 유용합니다. 시그모이드 함수는 또한 미분 가능한 출력을 생성..

[딥러닝] 퍼셉트론이란? 퍼셉트론의 특징과 구현 방법에 대해서

목차 퍼셉트론이란 퍼셉트론은 1950년대 후반에 처음 도입된 일종의 인공 신경망(ANN)입니다. 인간의 뇌가 정보를 처리하는 방식을 모방하도록 설계된 생물학적 뉴런의 단순화된 모델입니다. 퍼셉트론은 단일 계층의 인공 뉴런으로 구성되며 각 뉴런은 일련의 가중치에 의해 입력 계층에 연결됩니다. 입력은 퍼셉트론에 공급되고 퍼셉트론은 입력과 가중치를 기반으로 출력을 생성합니다. 퍼셉트론은 활성화 함수라는 수학 함수를 사용하여 출력을 결정합니다. 퍼셉트론은 일반적으로 입력을 두 범주 중 하나로 분류하는 것이 목표인 이진 분류 문제에 사용됩니다. 퍼셉트론은 입력 데이터를 두 가지 범주로 구분하는 선형 결정 경계를 기반으로 입력 데이터를 분류하는 데 사용할 수 있습니다. 퍼셉트론은 교육이라는 프로세스를 사용하여 입력..