728x90
반응형
다음 예제를 통해 선형 회귀에 어떤 한계가 있는지 살펴보자.
x_data가 1, 2, 5, 8, 10이다.
y값은 0.5 이상이면 1(pass), 0.5 미만이면 0(fail)이라고 하자.
# module import
import tensorflow as tf
# 학습 data 생성
x_data = [1,2,5,8,10]
y_data = [0,0,0,1,1]
x = tf.placeholder(dtype=tf.float32)
y = tf.placeholder(dtype=tf.float32)
W = tf.Variable(tf.random_normal([1]), name = "Weight")
b = tf.Variable(tf.random_normal([1]), name = "bias")
H = W * x + b
cost = tf.reduce_mean(tf.square(H-y))
optimizer = tf.train.GradientDescentOptimizer(learning_rate = 0.01)
train= optimizer.minimize(cost)
sess = tf.Session()
sess.run(tf.global_variables_initializer())
for step in range(30000):
_,cost_val = sess.run([train,cost],
feed_dict = {x : x_data,
y : y_data})
x가 7일 때의 값을 예측한다면 ? 아마 1로 예측할 것이다.
print(sess.run(H, feed_dict={x : 7}))
결과는 다음과 같이 예측하였으므로 result >= 0.5 이다. 따라서, 1(pass) 이다.
[0.6326531]
그렇다면, x_data가 다음과 같다면 어떨까?
x_data가 1, 2, 5, 8, 10, 20이다.
y값은 0.5 이상이면 1(pass), 0.5 미만이면 0(fail)이라고 하자.
import tensorflow as tf
x_data = [1,2,5,8,10,20]
y_data = [0,0,0,1,1,1]
x = tf.placeholder(dtype=tf.float32)
y = tf.placeholder(dtype=tf.float32)
W = tf.Variable(tf.random_normal([1]), name = "Weight")
b = tf.Variable(tf.random_normal([1]), name = "bias")
H = W * x + b
cost = tf.reduce_mean(tf.square(H-y))
optimizer = tf.train.GradientDescentOptimizer(learning_rate = 0.01)
train= optimizer.minimize(cost)
sess = tf.Session()
sess.run(tf.global_variables_initializer())
for step in range(30000):
_,cost_val = sess.run([train,cost],
feed_dict = {x : x_data,
y : y_data})
print(sess.run(H, feed_dict={x : 7}))
결과는 아마 20이 추가됨으로써 0.5 (= 10 / 20) 미만이므로 0(fail)로 예측할 것이다.
[0.4585635]
이런 데이터는 기존의 선형회귀방식으로 학습 후 예측하는 것이 불가능하다.
이를 보완하기 위해 logistic regression이 대두되었다.
728x90
반응형
'AI > Experiment' 카테고리의 다른 글
08. 서포트 벡터 머신 ( support vector machine ) (0) | 2020.05.19 |
---|---|
07. 로지스틱 회귀( Logistic Regression ) (0) | 2020.05.18 |
05. 릿지 회귀, 라쏘 회귀 ( Ridge, Lasso ) (0) | 2020.05.15 |
04. 다항 회귀( Polynomial Regression ) (0) | 2020.05.14 |
03. 다중선형회귀( Multiple Linear Regression ) (0) | 2020.05.13 |