Skip to content

Latest commit

 

History

History
42 lines (28 loc) · 2.27 KB

README.md

File metadata and controls

42 lines (28 loc) · 2.27 KB

활성화 함수2

앞에서 배운 시그모이드(sigmoid), 렐루(ReLU) 등의 활성화함수는 각 층의 뉴런(노드)에서 뉴런으로 값이 전달 할 때, 다음층에 전달될 값을 조절할 때 사용되었다.

이번에 배울 활성화 함수는 출력층 활성화 함수라고 부르며, 가장 마지막 층인 출력층에서 사용한다.

크게 항등함수와 소프트맥스(softmax) 함수가 있다.

항등함수

  • 항등함수는 회귀(Regression)문제에서 사용한다.
    • 회귀는 연속적인 수치를 예측할 때를 말한다.
    • 몸무게 예측, 키 예측 등

2-8

  • 항등함수는 말 그대로 입력한 값 그대로 출력층에 내보내 주는 역할이다.

그러나 최근에는 출력층에 sigmoid를 많이 사용한다.

소프트맥스 함수

  • 소프트맥스는 분류(Classification)문제에서 사용한다.

    • 분류는 데이터가 어떤 클래스에 속하느냐를 나타낸다.
    • 개/고양이 분류, 숫자 인식 등
  • 소프트맥스 함수의 수식은 아래와 같다.

  • 복잡해 보이지만 이 함수의 출력은 0과 1 사이의 실수이며, 각 소프트맥스 출력의 총합은 1이다.

    • 확률과 같은 의미
  • 소프트맥스 함수를 적용해도 입력들의 대소관계는 변하지 않는다.

2-11



  • 위의 수식에서 소프트맥스 함수가 지수 함수를 포함하고 있어 값이 아주 빠르게 증가하는데, 이는 오버플로우(overflow) 를 초래할 수 있다.

  • 이를 해결하기 위해 아래와 같은 과정을 통해 수식을 개선했다.

    • 지수 함수가 너무 커져 오버플로우가 일어나는 것을 방지하기 위해서 입력신호 중 최댓값으로 빼주었다. 2-9

신경망에서의 적용

  • 아래의 그림처럼 마지막 출력에서 Sigmoid 함수나 소프트맥스 함수가 적용된다. 2-10