Artificial Intelligence/Deep Learning

[DL] 다양한 활성화함수: 계단(step), 시그모이드(sigmoid), ReLU(rectified linear unit), Leaky ReLU(leaky rectified linear unit)
·
Artificial Intelligence/Deep Learning
계단 함수 (Step Function) 계단 함수는 퍼셉트론에서의 활성화함수로 아래와 같다.$$ h(x) = \begin{cases} 0 & (x \leq 0) \\ 1 & (x > 0) \end{cases} $$즉 단순하게 입력으로 전달받은 값이 $ 0 $을 넘으면 $ 1 $을 출력하는 함수이다. 코드로는 다음과 같다.def step_function(x): if x > 0: return 1 else: return 0그러나 위 함수는 넘파이 배열을 받을 수 없기 때문에 아래와 같이 수정하여 넘파이 배열의 입력을 가능하게 만들어주어야 한다.def step_function(x): y = x > 0 return y.astype(int)입력받은 넘파이 배열에서 $ ..
[DL] 신경망(neural network)과 활성화함수(activation function)
·
Artificial Intelligence/Deep Learning
신경망 (Neural Network) 퍼셉트론을 통해 AND, OR, NAND 게이트 구현이 가능함을 확인하였고, 다층 퍼셉트론을 통해 XOR 게이트 구현 역시 가능함을 확인하였다. 그러나 가중치와 편향에 대해 모두 설정해주어야 하는 특징이 있었다.신경망은 퍼셉트론과 유사한데, 아래와 같이 그 구조를 나타낼 수 있다. 입력층인 $0$층과 출력층인 $2$층이 있고, 그 중간에 은닉층(hidden layer)이 있다. 이 경우 보통은 입력층을 제외하고 2층 신경망이라 부른다. 단 어떤 경우에는 3층이라 부르기도 하니 주의해야 한다.다시 퍼셉트론으로 돌아와서 구조를 생각해보면 기존 편향을 명시하지 않은 구조는 아래와 같았다.수식으로는 편향을 포함하여 아래와 같이 나타냈었다.$$ y = \begin{cases}..
[DL] 퍼셉트론(perceptron)과 다층퍼셉트론(multi-layer perceptron)
·
Artificial Intelligence/Deep Learning
퍼셉트론 (Perceptron) 프랑크 로젠블라트(Frank Rosenblatt)가 1957년에 제안한 초기 형태의 인공 신경망 알고리즘으로 여러 입력으로부터 하나의 출력을 내보낸다. 인공 신경망이라는 점에서 알 수 있지만, 퍼셉트론은 뇌를 구성하는 신경세포인 뉴런의 동작과 유사한데,  뉴런은 가지돌기에서 신호를 받아들이고, 이 신호가 일정치 이상의 크기를 가지면 축삭돌기를 통해서 신호를 전달한다.간단하게 입력이 2개인 퍼셉트론을 방향 그래프로 보면 다음과 같다.$ x_1, x_2 $ 의 입력 신호가 존재하고, $ y $ 의 출력신호가 존재한다. $ w_1, w_2 $ 는 가중치(weight)를 뜻한다. 입력 신호가 뉴런(여기서는 $ y $)에 보내질 때는 각각 고유한 가중치가 곱해지고, 이렇게 곱해진 ..
애스터로이드
'Artificial Intelligence/Deep Learning' 카테고리의 글 목록