[WSJ] 12.22 - AI 규제기관이 과연 필요한가?
12.21
Artificial Intelligence and the Law of the Horse
2023년 chat gpt의 등장 이후로 AI 규제에 대한 논의는 계속되었다. AI 규제와 관련된 정책 논의 또한 계속되었다.
아직 모르는 부분아 많고, 추상적인 영역이기 때문에, AI 규제의 합의점은 좀처럼 찾기가 쉽지 않다. 특히 AI의 범용성이 확대되면서 여러 영역의 경계가 모호해지고 이를 규제하기가 더욱 더 복잡해지고 있다.
AI의 규제 정책을 만들어 낼 때, 이와 유사한 범용 기술이었던 '인터넷'의 규제를 참고하면 좋을 것이다. 1990년대, 초기에 인터넷 또한 범용성이 확대되면서 규제의 필요성이 두각되었다. 결국 미국 정부에서 기존 기구에서 규제를 시작하였다. 이때 1996년 Frank Easterbrook 판사는 "Cyberspace and the Law of the Horse" 이라는 유명한 논문을 내놓았다. 말 또한 과거에 여러 영역에서 사용되었다. 사고 팔았으며, 교통수단이었으며, 범죄과도 연루될 수도 있었다. 하지만 지금 보았을 때, 그렇다고 해서 말과 관련된 규제기관을 만들어서 이를 막으려고 하는 것은 말이 안되는 것을 알 수 있다. 이는 한 기관에서 규제할 수 있는 부분이 아니라, 각 영역에 해당한 부분을 개선, 강화하는 방향이 더 효율적일 것이다.
이는 AI에서도 마찬가지일 것이다. AI 전문가로 구성된 한 규제기관이 다양한 영역에서 일어나는 문제들을 다 다루려고 하는 것은 밑 빠진 독에 물 붓기일 것이다. 각 영역의 전문가들이 AI에 대한 위험을 고려하여 적용하는 것이 더 자연스러운 방법일 것이다.
물론 모든 부분을 아웃소싱하여 규제를 할 수 없을 것이다. AI로 인해 특별히 규제해야하는 부분 또한 존재할 것이다. 하지만 AI의 위험을 예측하여 규제하는 것은 후에 문제를 제대로 해결하자 못할 가능성이 크고, 효과가 없을 가능성이 크며 이는 오히려 AI로 인해 얻을 수 있는 장점들을 놓치게 만들 수도 있을 것이다.
AI 규제와 관련된 새로운 시각을 보여준 기사이다. 항상 일론머스크가 주장했던 것처럼 막연하게 규제기관이 있어야 된다고 생각하였지만, 위 기사처럼 정말 효과적일지에 대한 의문이 들었다. 공격적인 규제는 오히려 실제로 발전을 더디게 만들 가능성이 높다.
하지만 AI의 경우에는 따로 규제기관이 필요없다는 것은 아니다. AI의 경우 다른 기술과 다르게 AGI의 위험성이 있으며, 인간의 지능보다 높은 기술이 나타날 가능성이 있다. 이러한 기술의 등장은 인류가 조절할 수 있는지 의문인 상태이기 때문에, 이러한 부분에 대해서는 규제가 필요할 것으로 보인다. 하지만 다양한 영역에서 사용되는 AI 기술에 대해서는 한 규제기관에서 관리하는 것보다는 각 영역의 전문가들이 조절하는 것이 더 효율적으로 보인다.