Chapter 3.2 활성화 함수
·
Data Science/밑바닥부터 시작하는 딥러닝
x = np.arrange(-5.0, 5.0, 0.1) y = sigmoid(x) plt.plot(x, y) plt.ylim(-0.1, 1.1) plt.show() [식 3.3]과 같이 활성화 함수로 임계값을 경계로 출력은 함수를 계단 함수(step function)라 한다. 그래서 퍼셉트론에서는 활성화 함수로 쓸 수 있는 여러 후보 중에서 퍼셉트론은 계단 함수를 사용하고 있다. 활성화 함수를 계단 함수에서 다른 함수로 변경하는 것이 신경망으로 나아가는 길이다. 3.2.1 시그모이드 함수 다음은 신경망에서 자주 이용하는 활성화 함수인 시그모이드 함수(sigmoid fuction)를 나타낸 식이다. [식 3.6]에서 exp(\(-x\))는 \(e^{-x}\)를 뜻하며, \(e\)는 자연상수로 2.7182...
Chapter 3.1 퍼셉트론에서 신경망으로
·
Data Science/밑바닥부터 시작하는 딥러닝
3.1.1 신경망의 예 신경망을 그림으로 나타내면 [그림 3-1]처럼 된다. 여기에서 가장 왼쪽 줄을 입력층, 맨 오른쪽 줄을 출력층, 중간 줄을 은닉층이라고 한다. 은닉층의 뉴런은 사람 눈에 보이지 않기 때문에 '은닉'층인 것이다. 이 책에서는 입력층에서 출력층 방향으로 차례로 0층, 1층, 2층이라고 부른다. cf) [그림 3-1]의 신경망은 모두 3층으로 구성되지만, 가중치를 갖는 층은 2개뿐이기 때문에 '2층 신경망'이라고 한다. 문헌에 따라서는 신경망을 구성하는 층수를 기준으로 '3층 신경망'이라고 하는 경우도 있다. 3.1.2 퍼셉트론 복습 신경망의 신호 전달 방법을 보기 전에 퍼셉트론을 복습해 보자. 먼저 [그림 3-2]와 같은 구조의 네트워크를 생각해 보자. [그림 3-2]는 \(x_{1}..
퍼셉트론
·
Data Science/밑바닥부터 시작하는 딥러닝
퍼셉트론이란? 퍼셉트론은 프랑크 로젠블라트(Frank Rosenblatt)가 1957년에 고안한 신경망(딥러닝)의 기원이 되는 알고리즘이다. 퍼셉트론은 다수의 신호를 입력으로 받아 하나의 신호를 출력한다. >>> 다수의 신호를 입력받아 흐름을 만들고 정보("신호가 흐른다": 1 or "신호가 흐르지 않는다": 0)를 앞으로 전달한다. \( x_{1} \)과 \( x_{2} \)는 입력 신호, \( y \)는 출력 신호, \( w_{1} \)과 \( w_{2} \)는 가중치(weight)를 뜻한다. [그림 2-1]의 원은 뉴런 or 노드라고 부른다. 입력 신호가 뉴런에 보내질 때는 각각 고유한 가중치가 곱해진다. 뉴런에서 보내온 신호의 총합이 임계값( \(\theta\), 세타, 정해진 한계)을 넘어설 때..
HaSeon9
'분류 전체보기' 카테고리의 글 목록 (17 Page)