단수주의

Singularitarianism

특이주의기술적 특이점, 즉 초지능의 창조가 중기적인 미래에 일어날 것이라는 믿음에 의해 정의되는 운동이며, 특이점이 인간에게 [1]이득이 된다는 것을 보장하기 위해 신중한 행동이 취해져야 한다.

싱귤리테리언은 기술적 특이점을 추측하는 다른 미래학자들과 구별되는데, 그 특이점이 가능할 뿐만 아니라 신중하게 인도된다면 바람직하다는 믿음 때문이다.따라서, 그들은 종종 빠르고 안전한 [2]실현에 기여할 것이라고 믿는 방식으로 행동하는 데 그들의 삶을 바칠 수도 있다.

시사주간지 타임은 싱귤리타리안들의 세계관을 공상과학소설처럼 들릴지언정 그렇지 않다.기상예보가 공상과학소설일 뿐이다.이것은 단순한 생각이 아닙니다.지구상의 생명체의 미래에 대한 심각한 가설입니다.초지능 불멸의 사이보그와 관련된 아이디어를 받아들이려고 할 때마다 나타나는 지적인 개그 반사가 있지만...'특이점'은 얼핏 보면 말도 안 되는 것처럼 보이지만 냉정하고 신중한 평가를 받을 만한 아이디어다.[1]

정의.

독신주의자라는 용어는 1991년 엑스트로피아의 사상가 마크 플러스(Mark Potts)가 "특이성의 개념을 믿는 사람"[citation needed]이라는 의미로 처음 정의했다.이 용어는 이후 "싱글러리티 활동가" 또는 "싱글러리티의 친구"를 의미하는 것으로 재정의되었습니다. 즉,[3] 특이성을 가져오도록 행동하는 사람입니다.

특이주의는 또한 인공지능과 [4]같은 특정 기술에 초점을 맞추는 대신 특정 트랜스휴머니즘적 목표로서 인간의 지능의 강화를 선호하는 지향이나 견해로 생각할 수 있다.특이주의자를 활동가 또는 특이점 개념의 친구, 즉 [5]특이점을 가져오도록 행동하는 사람으로 식별하는 정의도 있다.일부 출처는 이를 가속화된 [6]변화의 시기에 나타나는 이론적인 미래 지점으로 이끌 슈퍼 인텔리전스의 개발을 가져오고 이끌기 위한 의도적인 행동을 옹호하는 도덕 철학으로 묘사했다.

발명가이자 미래학자이며 2005년 책 The Singularity Is Near의 저자 레이 커즈와일: 인간이 생물학을 초월할 때, "특이성을 이해하고 자신의 [citation needed]삶에 대한 그것의 영향을 반성하는 사람"으로 싱귤리스트를 정의하고, 그 특이성이 2045년경[2]발생할 것으로 추정한다.

역사

1993년 수학자, 컴퓨터 과학자, 공상과학 작가 베르노르 빈게는 기술이 "인간보다 [7]더 위대한 지능을 가진 실체의 창조"를 가능하게 하는 순간이 올지도 모른다는 가설을 세우고 이 [8]순간을 묘사하기 위해 "특이성"이라는 용어를 사용했다.그는 특이점이 인류에게 실존적 위험을 초래할 수 있으며, 다음 네 가지 방법 중 하나를 통해 발생할 수 있다고 제안했다.

  1. 깨우침과 초인적인 지능을 가진 컴퓨터의 개발.
  2. 대규모 컴퓨터 네트워크(및 그와 관련된 사용자)는 초인적인 인텔리전트 엔티티로서 「각성」할 가능성이 있습니다.
  3. 컴퓨터/휴먼 인터페이스는 매우 친밀해지기 때문에 사용자는 합리적으로 초인적인 지능으로 간주될 수 있다.
  4. 생물과학은 인간의 타고난 [9]지성을 개선할 방법을 찾을지도 모른다.

그 속에서 한Singularitarian고 세계에 유익한 가능하면 특이성은 세속적,non-mystical 행사를 향해에 의해 개간되다고 믿는다 했을 때 인공 지능(AI)연구원인 엘리에셀 Yudkowsky 그 Singularitarian Principles,[2][10]을 썼다 Singularitarianism 일관성 있는 이념으로 2000년 coalesced. adherents.[10] Yudkowsky의 특이점 개념화는 다양한 [4]해석을 포함하도록 개발된 광범위한 정의를 제공했다.마이클 아니시모프와 같은 이론가들은 엄격한 정의를 주장하는데, 이는 포스트 인간 지능의 [4]발전만을 옹호하는 것을 말한다.

2000년 6월 Yudkowsky는 인터넷 사업가인 Brian Atkins와 Sabine Atkins의 지원을 받아 자기계발형 Friendly AI의 창설을 위해 기계지능연구소를 설립했습니다.MIRI의 글들은 자체 설계(Seed AI)를 개선할 수 있는 능력을 갖춘 AI가 빠른 속도로 슈퍼 인텔리전스로 이어질 수 있다는 생각을 주장한다.이러한 싱귤리타주의자들은 특이점에 빠르고 안전하게 도달하는 것이 순존재 위험을 최소화하는 최선의 방법이라고 믿는다.

많은 사람들은 도덕적 철학으로 특이주의를 채택하지 않고도 기술적 특이성이 가능하다고 믿는다.비록 정확한 숫자는 수량화하기는 어렵지만, 유일주의는 트랜스휴머니즘 철학자보스롬을 포함한 작은 운동이다.발명가이자 미래학자 레이 커즈와일특이점이 2045년경에 발생할 것이라고 예측하고 있으며, 2005년 저서 "특이점이 다가왔다: 인간이 생물학을 [2]초월할 때.

그렇다면, 특이성이란 무엇일까요?미래에는 기술 변화의 속도가 매우 빠르고 그 영향이 매우 깊어 인간의 삶이 돌이킬 수 없을 정도로 바뀔 것입니다.비록 유토피아도 디스토피아도 아니지만, 이 시대는 우리의 삶에 의미를 부여하기 위해 우리가 의존하는 개념을 비즈니스 모델로부터 죽음 자체를 포함한 인간의 삶의 순환으로 바꿀 것이다.특이점을 이해하면 과거의 중요성과 미래에 미칠 영향에 대한 우리의 관점이 바뀔 것입니다.그것을 진정으로 이해하는 것은 본질적으로 인생 전반과 특정 삶에 대한 관점을 바꾼다.저는 특이점을 이해하고 그것이 자신의 삶에 미치는 영향을 반성하는 사람을 "독신주의자"[2]라고 생각합니다.

NASA, Google 및 광범위한 기술 예측가기술 자본가의 지원을 받아 Singularity University는 2009년 6월 실리콘 밸리NASA Research Park에서 차세대 리더들이 변화를 가속화하는 과제에 대처할 수 있도록 준비하는 것을 목표로 개교했습니다.

2009년 7월, 많은 저명한 싱귤리타리안들이 로봇과 컴퓨터의 잠재적 영향과 그들이 자급자족하고 스스로 결정을 내릴 수 있는 가상의 가능성에 대한 영향을 논의하기 위해 AAAI(Association for the Advancement of 인공지능)에 의해 조직된 회의에 참석했다.그들은 컴퓨터와 로봇이 어떤 수준의 자율성을 획득할 수 있는 가능성과 정도, 그리고 그러한 능력을 위협이나 위험(즉, 사이버 반란)을 일으키기 위해 어느 정도까지 사용할 수 있는지에 대해 논의했다.그들은 일부 기계들이 스스로 동력원을 찾을 수 있고 무기로 공격할 대상을 독립적으로 선택할 수 있는 등 다양한 형태의 반자율성을 획득했다고 언급했다.그들은 일부 컴퓨터 바이러스가 제거되는 것을 피할 수 있으며 "닭발톱 지능"을 달성했다고 경고했다.그들은 공상과학 소설에서 묘사된 자기 인식은 아마도 가능성이 낮지만, 다른 잠재적 위험과 [8]함정이 있다고 주장했다.일부 전문가들과 학계에서는 군사 전투, 특히 로봇에 [11]어느 정도의 자율 기능이 주어질 때 로봇을 사용하는 것에 대해 의문을 제기하고 있다.AAAI의 회장은 이 [12]문제에 대한 연구를 의뢰했다.

접수처

커즈와일의 유일주의에 대한 몇 가지 반대가 있는데, 여기에는 심지어 A 내의 낙관론자들의 비판도 포함된다.I. 필드를 들어 퓰리처상 수상작가인 더글라스 호프스타터는 커즈와일의 예측된 인간 수준 A의 성취를 주장했다.I. 2045년이면 [13]실현가능하지 않다.심지어 특이성의 개념을 전제로[14]무어의 법칙을 도입한 것으로 알려진 고든 무어조차도 그것은 [15]절대 일어나지 않을 것이라고 주장했다.일부 관측통들에 따르면, 이러한 비판은 죽음에 대한 두려움에 대한 반종교적 반응을 가정하여 신자들이 존재론적 [13]부담 없이 종교의 혜택을 누릴 수 있도록 해주기 때문에 특이성에 대한 열정을 감소시키지 않는다.과학 저널리스트호건은 유일주의를 종교에 비유하면서 이 개념에 대한 더 많은 통찰력을 제공했습니다.

현실을 직시해라.특이점은 과학적 비전이라기보다 종교적 비전이다.공상과학소설 작가 켄 맥레오드는 예수가 신실한 사람들을 하늘로 밀어내고 죄인들을 남겨두고 떠나는 종말을 암시하는 "괴짜들을 위한 황홀함"이라고 이름 붙였다.영적이든 기술이든 초월에 대한 이러한 갈망은 너무나 이해할 만하다.개인으로서든 종족으로서든 우리는 테러리즘, 핵확산, 인구과잉, 빈곤, 기아, 환경 악화, 기후변화, 자원 고갈, 에이즈 등 치명적인 문제에 직면해 있다. 엔지니어와 과학자들은 우리가 세계의 문제에 직면하고 해결책을 찾을 수 있도록 도와야 한다.특이점 [16]같은 가과학적인 환상을 가지고 있어요

Kurzweil은 특이성에 대한 그의 예측은 과거 [17]계산 기술의 증가가 기하급수적인 데이터에 의해 이루어졌다고 말하면서 이 분류를 거부한다.그는 또한 자신의 견해에 이의를 제기하는 비평가들이 기술 [18]진보에 대해 직관적인 직선적 관점을 잘못 취하고 있다고 강조했다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ a b "2045: 불멸의 인간이 된 해" 타임지, 2011년 2월
  2. ^ a b c d e Kurzweil, Raymond (2005). The Singularity Is Near: When Humans Transcend Biology. Viking Adult. ISBN 0-670-03384-7. OCLC 224517172.
  3. ^ Extropy Institute. "Neologisms of Extropy". Extropy.org. Retrieved 2011-03-30.
  4. ^ a b c Thweatt-Bates, Jeanine (2016). Cyborg Selves: A Theological Anthropology of the Posthuman. Oxon: Routledge. p. 52. ISBN 9781409421412.
  5. ^ Kurzweil, Ray (2010). The Singularity is Near. London: Gerald Duckworth & Co. ISBN 9780715640159.
  6. ^ "Singularitarianism Technoprogressive Wiki". ieet.org. Retrieved 2018-10-26.
  7. ^ 다가올 기술적 특이점: 포스트 휴먼 시대에 살아남는 방법, 버노르 빈게, 샌디에이고 주립대학 수리과학부, (c) 버노르 빈게 1993.
  8. ^ a b Markoff, John (July 26, 2009). "Scientists Worry Machines May Outsmart Man". New York Times.
  9. ^ 다가올 기술적 특이점: 포스트 휴먼 시대에 살아남는 방법, 버노르 빈게, 샌디에이고 주립대학 수리과학부, (c) 버노르 빈게 1993.
  10. ^ a b 유일주의 원칙"
  11. ^ Palmer, Jason (3 August 2009). "Call for debate on killer robots". BBC News.
  12. ^ AAAI의 2008-2009년 장기 AI 미래 관련 회장 패널, 인공지능 고도화 협회, 2009년 7월 26일.
  13. ^ a b Margolis, Eric; Samuels, Richard; Stitch, Stephen (2012). The Oxford Handbook of Philosophy of Cognitive Science. Oxford: Oxford University Press. p. 169. ISBN 9780195309799.
  14. ^ Lazar, Zohar (April 7, 2016). "When Is the Singularity? Probably Not in Your Lifetime". The New York Times. Retrieved 2018-10-26.
  15. ^ "Tech Luminaries Address Singularity". IEEE Spectrum. 1 June 2008. Retrieved 2018-10-26.
  16. ^ Horgan, John (2008). "The Consciousness Conundrum". IEEE Spectrum.
  17. ^ W. Jenkins, Jr., Holman (April 12, 2013). "Will Google's Ray Kurzweil Live Forever?". Wall Street Journal.
  18. ^ Barfield, Woodrow (2015). Cyber-Humans: Our Future with Machines. Cham, Switzerland: Springer. p. 40. ISBN 9783319250489.

외부 링크