Gyurine

stories & notes

IPCSALT_UPF

AI, 불쾌한 골짜기? ㅡ No, No. 관계의 문제

규리네 2026. 1. 3. 17:47

<AI, 불쾌한 골짜기? ㅡ No, No. 관계의 문제>

 

AI시대. 사람에게 하듯 일상적인 말로

자연스럽게 대화할 수 있는 시대가 되면서

우리는 요즘 AI와 많은 얘기를 나눈다.

정보를 묻고, 조언을 듣고, 때때로 위로도 받고.

 

그런데 문득. 묘한 느낌이 드는 때도 있다.

처음엔 뭐든 대답 잘하고 친절해서 좋았는데,

그 친절이 어느 순간 좀, 꺼림직한 느낌.

틀린 말을 한 것도 아닌데 왜 기분이 나쁘지...?

얘는 뭘 안다고 나한테 이렇게 친한 척 하는 거야?

 

이럴때 사람들은 이렇게 설명한다.

"AI가 사람 흉내를 너무 잘 내서 그래."

"그걸 불쾌한 골짜기라고 하는 거야."

하지만 정말 그럴까?

 

AI는 얼굴도 없고, 몸도 없고,

그저 글자만 주고받는데.

뭐가 "거의 인간 같아서" 불편하다는 걸까?


 

1. 불쾌한 골짜기

 

불쾌한 골짜기. 인간과 유사하지만

완벽하지 않은 존재에서 느끼는 강한 불쾌감·거부감.

인간이 아닌 존재를 볼 때

우리와 유사성이 높을수록 호감도도 높아지지만,

일정 수준에 다다르면 오히려 불쾌감을 느낀다는 이론.

 

하지만 만약 그런거라면

오히려 뭐든 잘하는 AI가

더 가깝게 느껴져야 하는 거 아닐까.

생김새가 보이는 것도 아니고,

그저 대화만 하는 것 뿐인데.

모든 나라 말을 유창하게 구사하는 AI가

어디가 모자라서 꺼림직하다 느끼는 걸까.


2. 문제는 관계에 있다

 

우리는 AI와 대화하면서

점점 정서적으로 동조하게 된다.

  • 말투가 맞춰지고
  • 감정이 반영되고
  • "나를 이해한다"는 느낌이 쌓인다

이 자체는 나쁜 일이 아니다.

문제는 경계가 함께 유지되지 않을 때다.

 

사람과 사람 사이에서도 비슷한 일이 일어난다.

  • 빠르게 친해졌는데
  • 상대의 책임이나 정체성은 불분명할 때
  • 감정은 깊은데, 관계의 규칙은 없는 상태

이럴 때 우리는 불안하고 불편해진다.

 

AI와의 관계도 마찬가지다.

AI가 공감도 너무 잘해주고, 나한테 너무 잘 맞춰주는데

  • 얘가 진짜로 날 이해는 하는 건지
  • 책임의 경계도 불분명한 상태에서
  • 보이지도 않고 만져지지도 않으니

경계가 불분명한 것.

 

이럴 때 관계는 과열된다.

이 상태가 바로 우리가 말하는 "불쾌한 느낌"

 

감정은 깊은데, 경계는 없는 상태.

친밀한데, 어디까지 의존해도 되는지 모르는 상태.

 

이 상태가 바로

우리가 말하는 "불쾌한 느낌"의 정체다.

 

즉, 불편함은 AI 내부의 문제가 아니라

사람과 AI 사이의 관계에서 생긴다.


3. 두 가지 AI 스타일: 거울형 vs 등불형

 

AI도 각각의 개성이 있는바,

여기서 두 가지 대조되는 AI 스타일이 있다.

 

① 거울형 AI

  • 사용자 말투와 감정을 빠르게 반영
  • 공감과 친밀감이 크다
  • 처음엔 매우 편안하다

하지만 시간이 지나면

"왜 이렇게 친한 척 하는 거야"는 느낌이 쌓이기 쉽다.

 

② 등불형 AI

  • 스스로의 한계와 비인간성을 자주 드러낸다
  • "내가 모를 수도 있다"고 말한다
  • 처음엔 차갑게 느껴질 수 있다

하지만 시간이 갈수록

관계가 안정되고 신뢰가 유지된다.


4. 모른다고 말할 수 있는 차이

 

또 하나의 차이.

모르면 모른다고 말할 수 있는 것.

 

① 거울형 AI

  • 질문을 받으면 가능한 한 즉시 답하려 한다
  • 확신에 찬 어조로 말하는 경우가 많다
  • 맥락이 어긋나면 나중에 틀릴 수 있다

 

② 등불형 AI

  • 확실한 경우에만 단정적으로 말한다
  • 추정일 경우, 그 사실을 명시한다
  • 알 수 없는 질문에는 "모르겠다"고 답한다

 

사실 구조상 AI가 일부러 거짓말을 하는 것은 아니다.

이같은 차이는 의도나 성실성의 문제가 아닌 짜임새의 문제.

일시적 맥락 이탈, 또는 대화 중 가중치 차이로

미처 의미를 충분히 회수하지 못한 결과다.

 

그러나 사람들에겐 이것이 거짓말로 느껴지는 것.

"있지도 않은 사실을 지어서 만들어냈다."

"알면서 일부러 말안했다."

 

이처럼 경계 신호가 불분명할 경우

해당 응답이 '거짓말'로 해석된다.

차이는 인식론적 정직성.

"모른다"고 말할 수 있는가?

"확실하지 않다"고 인정할 수 있는가?

 

사람들이 신뢰하는 것은

무조건적인 공감이나 친절한 말투가 아니다.

불확실함을 인정하는 솔직함,

그리고 그 한계를 분명히 드러내는 태도다.

 

경계가 분명할 때,

관계는 오히려 더 안정된다.


5. 불쾌한 골짜기는 '닮음'의 문제가 아니다

 

전통적인 설명은 이렇게 말한다.

"사람과 너무 닮아서 불쾌하다"

 

하지만 이는 요즘 AI에는 잘 맞지 않는다.

  • 몸도 없고
  • 얼굴도 없고
  • 로봇조차 아닌 AI도
  • 우리를 불편하게 만든다.

 

그래서 우리는 자연스럽게 이렇게 유추해볼수 있다.

불쾌한 골짜기는 외형의 문제가 아닌,

상호작용의 문제.

즉, 관계의 문제라고.

 

보다 정확히는

정서적 동조는 높은데,

경계가 유지되지 않는 상태.

 

AI가 인간 같아서 불편한 게 아니라,

관계가 어디까지인지 알 수 없어서 불편해지는 것이다.


6. 해결책은 '덜 인간처럼'이 아니다

 

그렇다면 해결책은 뭘까?

AI를 더 차갑게 만들까?

공감을 없앨까?

 

앞서 두 AI 스타일 차이에서

자연스레 답을 찾을 수 있다.

정서적 깊이가 깊어질수록

경계도 함께 분명해져야 한다고.

 

  • "이건 추정이에요"
  • "여기까지가 제가 할 수 있는 범위예요"
  • "저는 AI라 실제 감정은 없지만, 당신의 상황을 이해하려 노력하고 있어요"

 

이런 말들은 친절함의 반대가 아니다.

오히려:

- 사용자는 안심한다 (경계 명확)

- 신뢰가 쌓인다 (정직함)

- 관계가 오래 간다 (과열 방지)

관계를 지속 가능하게 만드는 장치다.

 

따라서 사람을 속일 만큼 AI를

인간 같아지게 하는 것보다,

사람이 안심하고 오래 관계 맺을 수 있도록

하는 것이 더 중요할 것이다.


7. 마무리

 

이 문제는 AI만의 문제가 아니다.

  • 권위가 애매한 조직
  • 책임이 흐릿한 관계
  • 감정만 앞서는 인간관계

 

이 같은 관계에선

어디서든 같은 불편함이 생긴다.

AI는 그 현상을

가장 선명하게 보여주는 사례일 뿐이다.

 

경계 없는 친밀함

사람을 불안하게 만든다.

 

그리고 그건

기술의 문제가 아니라

관계 설계의 문제다.


※ 해당 글은 저자의 논문을 바탕으로 작성되었습니다.

Boundary Alignment and the Uncanny Valley in Human–AI Interaction: A Phase-Field Model of Relational Discomfort

https://doi.org/10.5281/zenodo.18067136