본문 바로가기
AI/Experiment

06. 선형 회귀의 한계점

by _S0_H2_ 2020. 5. 17.
728x90
반응형

다음 예제를 통해 선형 회귀에 어떤 한계가 있는지 살펴보자.

x_data가 1, 2, 5, 8, 10이다.
y값은 0.5 이상이면 1(pass), 0.5 미만이면 0(fail)이라고 하자.
# module import
import tensorflow as tf

# 학습 data 생성
x_data = [1,2,5,8,10]
y_data = [0,0,0,1,1]

x = tf.placeholder(dtype=tf.float32)
y = tf.placeholder(dtype=tf.float32)

W = tf.Variable(tf.random_normal([1]), name = "Weight")
b = tf.Variable(tf.random_normal([1]), name = "bias")

H = W * x + b

cost = tf.reduce_mean(tf.square(H-y))

optimizer = tf.train.GradientDescentOptimizer(learning_rate = 0.01)
train= optimizer.minimize(cost)

sess = tf.Session()
sess.run(tf.global_variables_initializer())
for step in range(30000):
    _,cost_val = sess.run([train,cost],
                         feed_dict = {x : x_data,
                                     y : y_data})

x가 7일 때의 값을 예측한다면 ? 아마 1로 예측할 것이다.

print(sess.run(H, feed_dict={x : 7}))

결과는 다음과 같이 예측하였으므로 result >= 0.5 이다. 따라서, 1(pass) 이다.

[0.6326531]

 

 

 

 

그렇다면, x_data가 다음과 같다면 어떨까?

x_data가 1, 2, 5, 8, 10, 20이다.
y값은 0.5 이상이면 1(pass), 0.5 미만이면 0(fail)이라고 하자.
import tensorflow as tf

x_data = [1,2,5,8,10,20]
y_data = [0,0,0,1,1,1]

x = tf.placeholder(dtype=tf.float32)
y = tf.placeholder(dtype=tf.float32)

W = tf.Variable(tf.random_normal([1]), name = "Weight")
b = tf.Variable(tf.random_normal([1]), name = "bias")

H = W * x + b

cost = tf.reduce_mean(tf.square(H-y))

optimizer = tf.train.GradientDescentOptimizer(learning_rate = 0.01)
train= optimizer.minimize(cost)

sess = tf.Session()
sess.run(tf.global_variables_initializer())
for step in range(30000):
    _,cost_val = sess.run([train,cost],
                         feed_dict = {x : x_data,
                                     y : y_data})

print(sess.run(H, feed_dict={x : 7}))

결과는 아마 20이 추가됨으로써 0.5 (= 10 / 20) 미만이므로 0(fail)로 예측할 것이다.

[0.4585635]

이런 데이터는 기존의 선형회귀방식으로 학습 후 예측하는 것이 불가능하다.

 

 

 

 

이를 보완하기 위해 logistic regression이 대두되었다.

728x90
반응형