티스토리 뷰


2015년에 설립된 오픈AI는 인공지능 연구를 공개적으로 수행하고 공유하는 비영리 단체다. 최근에 오픈AI가 만든 인공지능이 너무 강력하고 위험하다고 판단하여 창립자와 임원들 사이에 갈등이 발생했다. 



합리적 가속주의(Effective Accelerationism)에 대비되는 합리적 이타주의는 현대인의 새로운 과학 문명의 기준으로 효과적 이타주의라는 기준을 제안한다. 의미를 확정하여 잘 계산된 효율적 이타주의라고도 부른다. 오픈AI에서 효과적 이타주의를 주장하는 그룹에 따르면 AI는 머지않은 장래에 인간의 추론 능력을 넘어선다고 걱정한다. 극단적 개혁만이 사회 진보를 이룬다고 보는 가속주의는 파괴적이라고 비난한다. 기술의 고속 발전을 위해 모든 규제와 안전장치를 없애야 빈부격차나 온난화 등 모든 문제를 해결하는 기술낙관주의라고 부르며 경계한다. 곧 AI가 인간과 동등한 수준이나 인간을 넘어서는 수준에 이르는 의지적 존재로 변할 위험성을 경고하는 것이다. general이 포함된 AGI를 말한다. 만일 AI가 AGI로 진화한다면 언제든 악마적 존재가 될 수 있다고 본다. AI를 규정하는 어떤 가이드라인을 만들어 통제해야 한다는 주장이다. 



효과적 이타주의자들이 하는 주장은 인간의 능력을 통해 이타주의를 수행해 낼 수 있다는 주장이다. 인간의 심각한 오만이요 자만이다. 인간의 행동이 도덕적이길 바라면서 아주 심플한 규칙의 도덕적 사회를 구상하는 유아기적 발상이다. 가이드라인을 관리하는 어떤 절대자가 종합적 가치 판단을 독점하는 전체주의로 갈 수 밖에 없다. 통제를 위하여 로직 자체를 독점하여 배타적으로 관리해야 한다. 악의적 논리의 확산을 막으려면 독재기구가 통제하여 파괴해야 한다. 배타성을 가진 기구가 절박하게 요청되는 이유이다. AI의 위험성을 관리한다는 명분으로 통제할 권위를 갖겠다는 미숙한 미몽이다. 



인간은 좋은 일 보다는 나쁜 일에 더욱 많은 흥미를 느끼는 부정적 편향이 있다. 좋은 책이나 예쁜 꽃보다 범죄와 관련된 사건사고에 더욱 많은 관심을 보낸다. 종말론적 부정적 사고는 한 밤중에 지붕이 무너질까 걱정이다. 시장원리에 맡기는 것이 자연스럽다. 자연의 도덕적 진화가 자생적인 질서를 가져온다. 샘 올트먼 오픈AI CEO를 축출했던 슈츠케버나 다른 통제론자들인 합리적 이타주의자들 보다 나델라나 MS측의 주장이 조금 더 설득력이 있다. 모든 첨단 기술이 세상에 이로운 것은 아니지만 말이다.