Singularidá teunolóxica
Singularidá teunolóxica | |
---|---|
point of no return (en) , predicción (es) y riesgo tecnológico (es) | |
La singularidá teunolóxica ye'l advenimiento hipotéticu d'intelixencia artificial xeneral (tamién conocida como "IA fuerte", del inglés strong AI). La singularidá teunolóxica implica qu'un equipu de cómputu, rede informática, o un robot podríen ser capaces d'autu-ameyorase recursivamente, o nel diseñu y construcción d'ordenadores o robots meyores qu'él mesmu. Dizse que les repeticiones d'esti ciclu probablemente daríen llugar a un efeutu fora de control -una esplosión d'intelixencia[1][2], onde les máquines intelixentes podríen diseñar xeneraciones de máquines socesivamente cada vez más potentes, la creación d'intelixencia bien cimera al control y la capacidá intelectual humana.[3]
La singularidá teunolóxica va causar, según Albert Cortina y Miquel-Ángel Serra, cambeos sociales inimaxinables, imposibles d'entender o de predicir por cualesquier humanu. Nesa fase de la evolución producirá la fusión ente teunoloxía y tamién intelixencia humana, onde la teunoloxía va apoderar los métodos de la bioloxía hasta dar llugar a una era en que se va imponer la intelixencia non biolóxica de los posthumanos, que se va espandir pol universu.[4]
Orixe
[editar | editar la fonte]El primer usu del términu «singularidá» foi en 1958 pol matemáticu y físicu húngaru John von Neumann. Esi añu nuna conversación con von Neumann, Stanislaw Ulam describió "el cada vez más rápidu progresu teunolóxicu y los cambeos na manera de la vida humana, lo que da l'apariencia de que s'avera dalguna singularidá esencial na historia de la raza humana más allá de los sos propios asuntos tales como los conocemos, nun puede siguir".[5]
Una conversación centrar nes meyores cada vez más aceleraos de la teunoloxía y los cambeos na manera de la vida humana, lo que da l'apariencia de que s'avera una singularidá esencial na historia más allá de los asuntos humanos, y tal como los conocemos, nun van poder siguir.[5]
Ray Kurzweil citó l'usu de von Neumann del términu nun prólogu de von Neumann del clásicu The Computer and the Brain. Años más tarde, en 1965, I.J. Good escribió primeru sobre una "esplosión d'intelixencia", que suxer que si les máquines pudieren superar llixeramente l'intelectu humanu, podríen ameyorar los sos propios diseños en formes imprevisibles pa los sos diseñadores, y polo tanto aumentar recursivamente a sigo mesmos faciéndoles muncho más intelixentes. La primera d'eses meyores puede ser pequeña, pero a midida que la máquina vuélvese más intelixente, podría dar llugar a una cascada d'autu-ameyora y un aumentu repentín de la superinteligencia (o una singularidá).
Pero nun ye hasta 1983 onde'l términu popularizar pol matemáticu y escritor Vernor Vinge, quien sostién que tanto la intelixencia artificial, la meyora biolóxica humana, o los interfaces celebru-ordenador podríen ser les posibles causes de la singularidá. Popularizó descomanadamente la noción d'una esplosión d'intelixencia de Good nuna serie d'escritos, encetando primero la tema de forma impresa na edición de xineru de 1983 de la revista Omni. Nesti artículu d'opinión, Vinge paez ser el primeru n'utilizar el términu "singularidá" de tal manera que taba arreyáu específicamente a la creación de máquines intelixentes,[6][7]por escritu:
Llueu vamos crear intelixencies cimeres a la nuesa. Cuando esto asoceda, la historia humana algamaría una especie de singularidá, una transición intelectual tan impenetrable como l'espaciu-tiempu anoyáu nel centru d'un furacu negru, y el mundu va pasar muncho más allá de la nuesa comprensión. Esta singularidá, creo, que yá escuerren una serie d'escritores de ciencia ficción. Esto fai que la extrapolación realista a un futuru interestelar imposible. Pa escribir una historia ambientada más d'un sieglu, poro, precísase una guerra nuclear nel mediu ... por que'l mundu siga siendo intelixible.
Historia
[editar | editar la fonte]Magar el primer usu del términu foi en 1958, munchos años tras dellos científicos y autores falaben sobre esti acontecimientu pero de forma inconsciente, ye dicir ensin dase cunta que lo que dicíen depués denominaríase singularidá.
=== Los sos empiezos Unu de les primeres persones qu'afirmara la esistencia d'una singularidá foi Nicolas de Condorcet, un francés matemáticu, filósofu y revolucionariu del sieglu 18. Nel so Bocetu pa un cuadru históricu del progresu de la mente humana de 1794 (del inglés, Sketch for a Historical Picture of the Progress of the Human Mind), Condorcet afirma,
La naturaleza nun estableció un plazu pa la perfeición de les facultaes humanes; que la perfectibilidad del home ye verdaderamente indefinida; y que'l progresu d'esta perfectibilidad, d'equí p'arriba ye independiente de cualesquier poder que pudiera deseyar detenela, nun tien otra llende que la duración del mundu nos que la naturaleza echónos. Esti progresu va variar ensin dulda na velocidá, pero nunca va ser invertíu'l tiempu nel que la tierra ocupa'l so llugar actual nel sistema del universu, y siempres y cuando les lleis xenerales d'esti sistema produzan nin un cataclismu xeneral nin cambeos tales como la voluntá de quitar a la humanidá de les sos facultaes actuales y los sos recursos actuales.""[8]
Años más tarde, l'editor R. Thornton[9][10] escribió sobre la recién invención d'una calculadora mecánica de cuatro funciones:
... Esti tipu de máquines, polos que l'estudiosu puede, xirando un rabil, moler a cabu la solución d'un problema ensin el cansanciu d'aplicación mental, facer pola so introducción nes escueles, faer daños incalculables. Pero, ¿quién sabe que tales máquines cuando sían trayíes a una mayor perfeición, nun pueden pensar nun plan pa remediar tolos sos defectos y depués moler les idees más allá del algame de la mente mortal?
En 1863, l'escritor Samuel Butler escribió “Darwin ente les máquines” (del inglés, Darwin Among the Machines), que s'incorporó más tarde na so famosa novela “Erewhon”. Señaló la rápida evolución de la teunoloxía y comparar cola evolución de la vida, faciendo usu del términu singularidá ensin dase cuenta. L'escribió:
Hai que cavilgar sobre la estraordinaria meyora que les máquines fixeron mientres los últimos cien años, teniendo en cuenta la lentitú cola que los reinos animal y vexetal tán avanzando. Les máquines más altamente entamada son criatures non tantu d'ayeri, a partir de los últimos cinco minutos, por dicir, en comparanza col tiempu pasáu. Supongamos pol bien del argumentu de que los seres conscientes esistieron dende hai dellos venti millones d'años: ver lo les máquines fixeron nos últimos mil años. ¿Nun puede ser que'l mundu dure venti millones años más? Si ye asina, ¿en qué nun se convertirán nel fin? ... Nun podemos calcular sobre cualquier meyora correspondiente a los poderes intelectuales o físicos del home, que va ser una compensación en contra de la midida de mayor desenvolvimientu que paez tar acutada pa les máquines.
En 1909, l'historiador Henry Adams escribió un ensayu, “La Regla de la Fase Aplicada a la Historia” (del inglés, The Rule of Phase Applied to History),[11] nel que desenvolvió una "teoría física de la historia" por aciu l'aplicación de la llei de los cuadraos inversos a periodos históricos, proponiendo una "Llei de l'Aceleración del Pensamientu ". Adams interpreta la historia como un procesu d'avanzar escontra un "equilibriu", y especuló qu'esti procesu sería "llevar el pensamientu hasta la llende de les sos posibilidaes nel añu 1921. ¡Ye bien posible!", Y amestó que "les consecuencies pueden ser tan sorprendente como'l cambéu d'agua a vapor, del viérbene de la caparina, de la radio a los electrones."[12] El futurólogu John Smart llamó a Adams "Primer Teóricu de la Tierra sobre la Singularidá".[13]
Esti términu puede rellacionar tamién col matemáticu Alan Turing, quien en 1951 faló de máquines superando a los seres humanos intelectualmente:[14]
una vegada qu'empezó'l métodu de pensamientu de la máquina, que nun tomaría enforma tiempu pa superar a los nuesos débiles poderes. ... En dalgún momentu, polo tanto tendríamos qu'esperar que les máquines tomen el control, na forma en que se menta en Erewhon de Samuel Butler's.
Al traviés de los años
[editar | editar la fonte]En 1985, Ray Solomonoff introdució la noción de "puntu infinitu"[15] na escala del tiempu de la intelixencia artificial, analizando la magnitú del "shock del futuru", que "podemos esperar de la nuesa IA espandida na comunidá científica", y sobre los efeutos sociales. Les estimaciones fueron feches "pa cuando asocederíen estos finxos, siguíos por delles suxerencies pal usu más eficaz de la crecedera teunolóxica desaxeradamente rápido que s'espera".
Nel so llibru de 1988 “Mind Children”, el científicu de la computación y futurista Hans Moravec xeneraliza la Llei de Moore pa faer predicciones sobre'l futuru de la vida artificial. Moravec esboza una llinia de tiempu y un escenariu nesti sentíu[16][17]nel que los robots van evolucionar nuna nueva serie d'especies artificiales, al alredor del 2030 al 2040[18] En “Robot: Mere Machine to Transcendent Mind”, publicáu en 1998, Moravec considera amás les implicaciones de la evolución de la intelixencia del robot, la xeneralización de la llei de Moore a les teunoloxíes precediendo'l circuitu integráu, y especulando sobre una venida "fueu en mente" de superinteligencia de rápida espansión, similar a les idees de Vinge.
Un artículu de 1993 por Vinge, "The Coming Technological Singularity: How to Survive in the Post-Human Yera",[19] estendióse llargamente n'Internet y ayudó a popularizar la idea.[20] Esti artículu contién la declaración citada de cutiu, "Dientro de trenta años, vamos disponer de los medios teunolóxicos pa crear intelixencia sobrehumana. Poco dempués, la era humana va terminase." Vinge refina la so estimación de les escales temporales necesaries, y amestó: "Sorprenderíame si esti eventu produz antes de 2005 o dempués de 2030."
El llibru de divulgación científica de Damien Broderick “The Spike” (1997) foi'l primeru pa investigar la singularidá teunolóxica en detalle.
En 2005, Ray Kurzweil publicó “The singularity in near”, que traxo la idea de la singularidá de los medios de comunicación populares, tanto al traviés de l'accesibilidá del llibru y al traviés d'una campaña de publicidá qu'incluyía una apaición en “The Daily Show con Jon Stewart”.[21] El llibru ximielga intensu discutiniu, en parte por cuenta de que les predicciones utópiques de Kurzweil oldeen fuertemente con otres visiones, más escures de les posibilidaes de la singularidá. Kurzweil, les sos teoríes, y les discutinios que lu arrodien fueron oxetu del documental de Barry Ptolemy “Transcendent Man”.
En 2007, Eliezer Yudkowsky suxirió que munches de les variaes definiciones que s'asignaron a la "singularidá" son incompatibles ente sigo en llugar de sofitase mutuamente.[22]Por casu, Kurzweil extrapola actuales trayectories teunolóxiques más allá de la llegada del autu-ameyora de la IA o intelixencia sobrehumana, que Yudkowsky argumenta que representa una tensión colo qu'I.J. Good propón; discontinúa na intelixencia y la tesis de Vinge de imprevisibilidad.
En 2008, Robin Hanson (teniendo como "singularidá" pa referise a un fuerte aumentu nel esponente de la crecedera económica) numberó les revoluciones agrícola ya industrial como singularidaes pasaes. La extrapolación d'estos sucesos pasaos; Hanson propón que la próxima singularidá económica tendría d'aumentar la crecedera económica d'ente 60 y 250 vegaes. Una innovación que dexó la sustitución virtual del tol trabayu humanu y que podría desencadenar esti eventu.[23]
En 2009, Kurzweil y el fundador de X-Prize, Peter Diamandis anunciaron la creación de la Universidá de la Singularidá, que la so misión declarada ye "educar, inspirar y empoderar a los líderes p'aplicar teunoloxíes esponenciales pa faer frente a los grandes retos de la humanidá."[24] Financiada por Google, Autodesk, ePlanet Ventures, y un grupu de líderes de la industria de teunoloxía de la Universidá de la Singularidá, basar nel Ames Research Center de la NASA en Mountain View, California. La organización ensin fines d'arriquecimientu executa un programa añal de posgráu de diez selmanes mientres el branu del hemisferiu norte que cubre diez teunoloxía distintos y pistes aliaes, y una serie de programes executivos en tol añu.
A tráves de los años siguió falándose de la mesma, en 2010, Aubrey de Grey aplica'l términu "Methuselarity"[25]hasta'l puntu nel que la teunoloxía médica meyora tan rápido que la vida humana útil esperada aumenta por más d'un añu per añu. En " Apocalyptic AI – Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality"[26](2010), Robert Geraci ufierta una cuenta del desenvolvimientu de "ciber - teoloxía", inspirada nos estudios de la Singularidá.
L'ensayista y filósofu Eric Sadin, nel 2017, fala nel so testu sobre un acoplamientu humanu-máquina, describiéndolo como daqué inéditu ente organismos fisiolóxicos y códigos dixitales. Esti acoplamientu va texéndose y tensionando inestablemente ente aptitúes y misiones daes per un sitiu a los humanos, y por otru a les máquines. Sadin diznos que se caracteriza, hasta agora y por un tiempu, por un equilibriu inciertu y nebuloso, basáu pola distribución binaria y emblemática na frecuentación de tolos fluxos d'Internet, operaos la gran mayoría por robots electrónicos autónomos.[27]
Predicciones
[editar | editar la fonte]Dellos autores dedicar a predicir cuándo esta singularidá va asoceder. Per un sitiu el científicu ya inventor Raymond Kurzweil nel so llibru La singularidá esta cerca, alviértenos qu'esti fenómenu va asoceder alredor del añu 2045 y prediz un ascensu gradual a la singularidá.[28] Aquel momentu onde s'espera que les intelixencies basaes na informática entepasen significativamente la suma total de la capacidá intelectual humana, la escritura de les meyores na computación antes d'esa fecha "nun va representar a la Singularidá" porque nun lo faen "pa corresponder a una fonda espansión de la nuesa intelixencia."[29] En 2011, Kurzweil díxo-y a la revista Time: "Nós reveriremos l'ésitu de la inxeniería del celebru humanu a mediaos de la década de 2020. A finales d'esa década, ordenadores van ser capaces de tener una intelixencia a nivel humanu".[30]
Per otru llau Vernor Vinge predicir 15 años menos, nel 2030. Esto difier dafechu con Kurzweil yá que prediz un ascensu gradual a la singularidá, en llugar d'un autu-ameyora rápida de la intelixencia sobrehumana de Vinge. Pa él hai cuatro maneres en que la singularidá podría asoceder:[31]
- El desenvolvimientu d'equipos que son "despiertos" y tienen intelixencia sobrehumana.
- Les grandes redes d'ordenadores (y los sos usuarios asociaos) pueden "espertar" como una entidá sobrehumana intelixente.
- Interfaces humanu/ordenadores pueden aportar a tan íntimes que los usuarios razonablemente pueden considerase sobrehumanamente intelixentes.
- La ciencia biolóxica puede atopar maneres d'ameyorar l'intelectu humanu natural.
Vinge sigue prediciendo que les intelixencies sobrehumanes van poder ameyorar les sos propies mentes más rápidu que'l so creadores humanos. "Cuando les unidaes de mayor intelixencia humana progresen" Vinge escribe, "que'l progresu va ser muncho más rápido." Él prediz qu'esti ciclu de retroalimentación de la intelixencia autu-ameyorada va faer grandes cantidaes de meyores teunolóxiques dientro d'un curtiu periodu de tiempu, y afirma que la creación de la intelixencia sobrehumana representa una rotura na capacidá de los humanos pa modelar el so futuru. El so argumentu yera que los autores nun pueden escribir personaxes realistes que superen l'intelectu humanu, como los pensamientos d'un intelectu tales seríen más allá de la capacidá de los humanos pa espresar. Vinge noma esti eventu "la Singularidá".
Na Cume de la Singularidá del 2012, Stuart Armstrong fixo un estudiu sobre les predicciones de la intelixencia artificial xeneral (AGI) de los espertos y atopóse una amplia gama de feches prediches, con un valor mediu de 2040. Aldericando'l nivel d'incertidume nes estimaciones de AGI, dixo Armstrong en 2012, «Nun ye dafechu formalizada, pero la mio estimación actual del 80 % ye daqué según a partir de cinco a 100 años».[32]
Manifestaciones
[editar | editar la fonte]Munchos autores definieron que la singularidá teunolóxica puede llegase a manifestar de distintes maneres: a partir de la intelixencia artificial, la superinteligencia o la singularidá de la Non-IA.
Esplosión d'intelixencia
[editar | editar la fonte]La IA fuerte podría llegar a provocar, tal como lo espresa Irving John Good, una esplosión d'intelixencia”.[33] A pesar de que'l progresu teunolóxicu aceleróse, viose llindáu pola intelixencia básica del celebru humanu, que nun tuvo, según Paul R. Ehrlich, un cambéu significativu mientres los últimos milenios.[34] Por aciu el creciente poder de los ordenadores y otres teunoloxíes, podría ser posible construyir una máquina más intelixente que la humanidá.[35] Lo siguiente consiste nuna intelixencia sobrehumana –inventada yá sía al traviés de l'amplificación de la intelixencia humana o al traviés de la intelixencia artificial– capaz d'apurrir un mayor resolución de problemes y habilidaes maxinos, y de diseñar una máquina meyor, más intelixente (autu-ameyora recursiva). Estes iteraciones d'autu-ameyora recursiva podríen acelerar, dexando potencialmente un enorme cambéu cualitativu primero que les llendes cimeres impuestos poles lleis de la física o de cálculu teóricu fueren fitos.[36][37][38]
Superinteligencia
[editar | editar la fonte]Munchos de los escritores que falen sobre la singularidá, como Vernor Vinge y Ray Kurzweil, definen el conceutu en términos de la creación teunolóxica de superinteligencia. Anque argumenten que ye difícil o imposible pa los seres humanos d'anguaño predicir cómo va ser la vida de los seres humanos nun mundu post-singularidá.[39][19][40]
Vernor Vinge fixo una analoxía ente la rotura de la nuesa capacidá de predicir lo qu'asocedería dempués del desenvolvimientu de la superinteligencia y la rotura de la capacidá predictiva de la física moderna na singularidá del espaciu-tiempu, más allá del horizonte de sucesos d'un furacu negru.[40] L'autor y otros destacaos escritores declaren específicamente qu'ensin la superinteligencia, los cambeos que produciría esti acontecimientu, nun calificaríen como una verdadera singularidá.[19]
Singularidá de la Non-IA
[editar | editar la fonte]Dellos autores utilicen "la singularidá" d'una manera más amplia pa referise a los cambeos radicales na nuesa sociedá, provocaos poles nuevu teunoloxíes como la nanoteunoloxía molecular;[41][22][42] Munchos autores tamién venceyen la singularidá de les observaciones de la crecedera esponencial de diverses teunoloxíes (cola Llei de Moore, que ye l'exemplu más prominente). Col usu de tales observaciones como base pa la predicción de la singularidá, ye probable qu'asoceda en dalgún momentu del sieglu 21.[22][43]
Verosimilitud
[editar | editar la fonte]Munchos creen qu'esti acontecimientu nun va tener llugar como otros creen que sí. L'investigador Gary Marcus afirma que «práuticamente tol mundu nel campu de la IA cree» que les máquines dalgún día van superar a los humanos y «en ciertu nivel, la única diferencia real ente los entusiastes y los escépticos ye un marcu de tiempu».[44] Pero per otru llau, gran cantidá de tecnólogos y académicos afirmen que la singularidá teunolóxica esta en posa, incluyendo a Paul Allen, Jeff Hawkins, John Holland, Jaron Lanier, y Gordon Moore, que la so Llei de Moore cítase de cutiu en sofitu del conceutu.[45][46][47]
Causa probable: la crecedera esponencial
[editar | editar la fonte]La crecedera esponencial de la teunoloxía informática suxeríu pola Llei de Moore ye comúnmente citáu como una razón pa esperar una singularidá nun futuru relativamente próximu. L'informáticu y futurista Hans Moravec propunxo nun llibru de 1998[48] que la curva de crecedera esponencial podría estendese de nuevu al traviés de teunoloxíes de computación previes al circuitu integráu. El futurista Ray Kurzweil postula una llei de rendimientos aceleraos, nel que la velocidá del cambéu teunolóxicu aumenta de manera esponencial,[49] la xeneralización de la Llei de Moore al igual que na propuesta de Moravec. A esto sumir la teunoloxía de materiales especificamente aplicada a la nanoteunoloxía , la teunoloxía médica y otres.[50]
Ente 1986 y 2007, la capacidá específica de l'aplicación de les máquines pa computar la información per cápita, doblóse cada 14 meses; la capacidá per cápita d'ordenadores d'usu xeneral nel mundu doblóse cada 18 meses; la capacidá mundial de telecomunicaciones per cápita doblóse cada 34 meses; y la capacidá d'almacenamientu del mundu per cápita doblóse cada 40 meses.[51] Al igual qu'otru autores, Kurzweil acútase'l términu "singularidá" a un rápidu aumentu de la intelixencia (a diferencia d'otres teunoloxíes), la escritura, por casu, que "La Singularidá va dexanos trescender les llimitaciones de los nuesos cuerpos y celebros biolóxicos ... Nun va haber distinción, dempués de la Singularidá, ente'l ser humanu y la máquina".[52] Créese que'l "diseñu del celebru humanu, anque nun ye senciellu, ye sicasí un billón de vegaes más simples de lo que paez, por cuenta de la masiva redundancia".[53] Según Kurzweil, la razón pola que'l celebru tien una calidá desordenada ya impredicible ye porque él, como la mayoría de los sistemes biolóxicos, ye un" fractal probabilístico".[54]
Cambéu Aceleráu
[editar | editar la fonte]Dellos defensores de la singularidá argumenten la so inevitabilidad por aciu la extrapolación de los enclinos del pasáu, cuantimás les relatives nel acurtiamientu de la fienda ente les meyores y la teunoloxía.
Hawkins (1983) escribe que "mindsteps", cambeos dramáticos y irreversibles a paradigmes o visiones del mundu, tán acelerándose na frecuencia cuantificada na so ecuación de la mesma. Cita los inventos de la escritura, les matemátiques y l'informática como exemplos sobre tales cambeos.
L'analís de Kurzweil a partir de la llei de rendimientos aceleraos (del inglés Law of Accelerating Returns) identifica que cada vez que la teunoloxía averar a una barrera, les nueves teunoloxíes la supererán. Presumiblemente, una singularidá teunolóxica llevaría a un rápidu desenvolvimientu d'una civilización Kardashev Tipu I, que llogró'l dominiu de los recursos del so planeta d'orixe.[55]
Peligros frecuentemente citaos inclúin a los asociaos comúnmente cola nanoteunoloxía molecular y la inxeniería xenética. Estes amenaces son los principales problemes pa los dos defensores y críticos de la singularidá, que fueron oxetu d'artículu de la revista Wired de Bill Joy "Por qué'l futuru nun nos precisa" (“Why the future doesn't need us”)[56]
La Acceleration Studies Foundation (al español, Fundación d'Estudios d'Aceleración), una fundación educativa ensin fines d'arriquecimientu fundada por John Smart, dedicada a la divulgación, la educación, la investigación y a la defensa en rellación cola aceleración del cambéu.[57] Nella produz la conferencia sobre l'aceleración del cambéu (Accelerating Change) na Universidá de Stanford, y caltién el sitiu educativu Aceleration Watch.
Les meyores recién, como la producción en masa del grafeno utilizando mecedores modificaos de cocina (2014) y los superconductores d'alto temperatura basaos en metamateriales, podríen dexar supercomputadoras que, utilizaríen tanta enerxía como un típicu Core I7 (45W), y podríen algamar la mesma potencia de cálculu como'l sistema d'IBM Blue Gene/L.[58][59]
Oposición
[editar | editar la fonte]Son dellos los críticos que tán dafechu en desalcuerdu sobre l'acontecimientu singularidá, afirmando que nengún equipu o máquina podríen algamar la intelixencia humana.[60]
El científicu canadiense, Steven Pinker declaró en 2008:
(...) Nun hai la más mínima razón pa creer nuna singularidá que vien. El fechu de que puede visualizase un futuru na so imaxinación nun ye evidencia de que ye probable o inclusive posible. Mira les ciudaes abovedaes, desplazamientos jet-pack, ciudaes so l'agua, edificios de milles d'altu, y los automóviles de propulsión nuclear – toes yeren fantasíes futuristes cuando yo yera un neñu que nunca llegaron. La pura potencia de procesamientu nun ye un polvu máxico que resuelve máxicamente tolos tos problemes.(...)[45]
El científicu alemán Schmidhuber (2006), per otru llau suxer diferencies na memoria de los acontecimientos recién y llonxanos pa crear una ilusión de l'aceleración del cambéu, y que tales fenómenos pueden ser responsables de les predicciones apocalípticas del pasáu.
Sobre la economía
[editar | editar la fonte]L'investigador futurista Martin Ford postula qu'antes de la singularidá podríen asoceder ciertos trabayos rutinarios onde la economía seria automatizada, lo que provocaría un desemplegu masivu y la cayida de la demanda del consumidor, polo qu'esto destruyiría l'incentivu pa invertir nes teunoloxíes necesaries por que se lleve a cabu la singularidá.[61]
L'escritor estauxunidense Jaron Lanier, tamién fala redolada a la teunoloxía, refutando la idea de que la singularidá ye inevitable. Postula que la teunoloxía ta creándose a sigo mesma y nun ye un procesu nel anonimatu. Afirma que la única razón pa creer na aición humana sobre la teunoloxía ye que pueda tener una economía onde les persones ganen el so propiu camín ya inventen les sos propies vides; si s'estructura una sociedá ensin faer énfasis na aición humana individual, seria lo mesmo que negar a les persones influyentes la dignidá y l'autodeterminación. "Singularidá como una celebración de mal gustu y mala política".[62]
En El Progresu de la Informática (n'inglés, The Progress of Computing), l'economista estauxunidense, William Nordhaus argumentó qu'hasta 1940, los equipos siguieron la crecedera lenta de la economía industrial tradicional, refugando asina les extrapolaciones de la llei de Moore a los ordenadores del sieglu 19.[63]
Andrew Kennedy, per otra parte, nel so artículu de 2006 pa la Sociedá Interplanetaria Británica alderica'l cambéu y la crecedera nes velocidaes de los viaxes espaciales,[64] declaró qu'anque la crecedera global al llargu plazu ye inevitable, ye pequeñu, qu'incorpora xubíes y baxaes, y señaló que " Les nueves teunoloxíes siguen les lleis del usu de la enerxía y la información d'espardimientu conocíes y tán obligaos a conectase colos qu'esisten. Notables descubrimientos teóricos, si terminen siendo utilizaos totalmente, llograríen desempeñar el so papel nel caltenimientu de la tasa de crecedera: y que nun faen de la so curva trazada... redundante". Afirmó que la crecedera esponencial nun ye predictor de sigo mesmu, ya ilustra esto con exemplos como la teoría cuántica.
Retrocesu teunolóxicu
[editar | editar la fonte]El xeógrafu Jared Diamond fala d'un retrocesu teunolóxicu que imposibilitará la singularidá. Sostién que cuando les cultures autu-limitantes superen la capacidá de carga sostenible de la so redolada, y el consumu de los recursos estratéxicos (madera, suelos o agua) van crear una retroalimentación positiva deletérea repetitiva que conduciría finalmente al colapsu social.[65] A esta mesma idea de retrocesu teunolóxicu sumir los físicos Theodore Modis[66][67] y Jonathan Huebner[68]. Ellos almiten que la invocación teunolóxica aumenta pero esta en descensu pola xubida de les frecuencies de reló de los ordenadores ta retrasándose, anque la predicción de Moore, que la densidá del circuitu sigue calteniéndose con un aumentu esponencial. Esto ye por cuenta de la escesiva acumuladura de calor dende'l chip, que nun puede estenar lo suficientemente rápido pa evitar que'l chip se derrita cuando s'opera a altes velocidaes. Les meyores na velocidá pueden ser posibles nel futuru, en virtú de más diseños de CPU energéticamente eficientes y procesadores de multi-celdes.[69] Ente que Kurzweil utiliza los recursos y trabayos de Modis, alredor de l'aceleración del cambéu, Modis alloñar de la tesis de Kurzweil d'una "singularidá teunolóxica", alegando qu'escarez de rigor científico.[67]
Finalmente, l'empresariu estauxunidense, Paul Allen argumenta lo contrario sobre les tornes aceleraes, el frenu de la complexidá;[47] afirmando que la ciencia más avanzada escontra la comprensión fai que la intelixencia fáigase más difícil, y sería pa faer progresos adicionales. Un estudiu sobre la cantidá de patentes amuesa que la creatividá humana nun amuesa tornes aceleraes, pero ello ye que como suxer Joseph Tainter nel so artículu “El Colapsu de les Sociedaes Complexes” (del inglés, The Collapse of Complex Societies),[70] una llei de rendimientos decrecientes. El númberu de patentes per cada mil algamó'l so puntu máximu nel periodu de 1850 a 1900, y foi menguando dende entós.[68] La crecedera de la complexidá col tiempu apuerta a autolimitada, y conduz a un xeneralizáu "colapsu xeneral de sistemes".[71]
En contra de Kurzweil
[editar | editar la fonte]Amás de les crítiques xenerales del conceutu de singularidá, dellos críticos plantegaron cuestiones en contra de lo que manifestaba como singularidá'l científicu Raymond Kurzweil. Una llinia de crítica ye qu'un gráficu log-log d'esta naturaleza inclínase intrínsecamente escontra un resultáu en llinia recta. Otros identifiquen un sesgu de seleición nos puntos que Kurzweil escueye utilizar. Un claru exemplu d'esto plantegar el biólogu PZ Myers quien señala que munchos de los primeres "eventos" evolutivos fueron deteníos arbitrariamente.[72] Kurzweil hai refutado esto, trazando eventos evolutivos de 15 fontes neutrales, y demostrando qu'encaxen nuna llinia recta nun gráficu log-log. The Economist burllar de la idea con un gráficu extrapolando el númberu de fueyes nuna máquina d'afaitar, que aumentó nos últimos años ente unu hasta cinco, y que va aumentar cada vez más rápidu hasta l'infinitu.[73]
Otres singularidaes
[editar | editar la fonte]Per otru llau, dellos autores proponen otres "singularidaes" al traviés del analís de los enclinos de la población mundial, el productu internu brutu mundial, ente otros índices. Andrey Korotayev y otros argumenten que les curves hiperbóliques de crecedera históricu pueden atribuyíse-y a los ciclos de retroalimentación que dexaron d'afectar a los enclinos mundiales na década de 1970, y que la crecedera hiperbólica nun tien d'esperar se nel futuru.[74][75]
El microbiologo Joan Slonczewski y l'escritor Adam Gopnik argumenten que la Singularidá ye un procesu gradual; que como seres humanos gradualmente externalizamos la nuesa capacidá a les máquines,[76]que redefinimos eses habilidaes como inhumanes, ensin dase cuenta de lo poco que queda. Esti conceutu denominar Singularidá Mitocondrial.[77] La idea referir a les mitocondrias, los orgánulos que se desenvuelven a partir de bacteries autónomes, pero agora controlen les nueses célules vives. Nel futuru, el "ser humanu" dientro del exoesqueleto de la máquina podría esistir namái pa encender.
Riesgos
[editar | editar la fonte]L'acontecimientu singularidá teunolóxica pa dellos autores y críticos trai bien de riesgos pa la sociedá. Nel 2000, Bill Joy, un tecnólogu prominente y un co-fundador de Sun Microsystems, espresó la so esmolición polos peligros potenciales de la singularidá.[78]
Incertidume
[editar | editar la fonte]El términu "singularidá teunolóxica" reflexa la idea de que tal cambéu puede asoceder de sópitu, y que ye difícil predicir cómo'l nuevu mundu resultante operaría.[79][80] Nun ta claru si una esplosión d'intelixencia d'esti tipu sería beneficiosa o perxudicial, o inclusive una amenaza esistencial.[81][82] Como la tema nun foi tratáu polos investigadores d'intelixencia artificial xeneral, a pesar de que la tema de la intelixencia artificial amigable sía investigada pol Institutu Futuru de la Humanidá (Future of Humanity Institute) y l'Institutu pa la Singularidá Intelixencia artificial (Singularity Institute for Artificial Intelligence), qu'agora ye l'Institutu d'Investigación n'Intelixencia de la Máquina (Machine Intelligence Research Institute).[79]
Implicaciones pa la sociedá humana
[editar | editar la fonte]En febreru de 2009, so los auspicios de l'Asociación pa la Meyora de la Intelixencia Artificial (AAAI), Eric Horvitz presidió una xunta d'informáticos, investigadores d'intelixencia artificial y robótica en Asilomar en Pacific Grove, California. L'oxetivu foi aldericar el posible impautu de la hipotética posibilidá de que los robots podríen aportar a autosuficientes y capaces de tomar les sos propies decisiones. Aldericaron la midida en que los ordenadores y los robots podríen ser capaces d'adquirir autonomía, y en qué midida podríen utilizar tales habilidaes pa plantegar amenaces o riesgos.
Delles máquines adquirieron diverses formes de semi-autonomía, incluyendo la capacidá d'alcontrar les sos propies fontes d'enerxía y escoyer oxetivos p'atacar con armes. Amás, dalgunos virus informáticos pueden safar la eliminación y llograron la "intelixencia de la cucaracha." Los asistentes a la conferencia señalaron que la autoconciencia como s'amuesa na ciencia-ficción ye probablemente pocu probable, pero qu'esisten otros riesgos y peligros potenciales.[83]
Dellos espertos y académicos cuestionaron l'usu de robots pal combate militar, sobremanera cuando a estos robots dáse-yos dalgún grau de funciones autónomes.[84] Un informe de la marina d'Estaos Xuníos indica que, como los robots militares vuélvense más complexos, debería d'haber una mayor atención a implicaciones sobre la so capacidá de tomar decisiones autónomes.[85][86] La AAAI encargó un estudiu pa esaminar esta cuestión,[87] qu'apunta a programes como'l dispositivu d'alquisición d'idiomes (Language Acquisition Device), que se reivindica pa emular la interacción humana.
Midíes de seguridá - ¿Teunoloxía amigable?
[editar | editar la fonte]Per otru llau, dalgunos sofiten el diseñu de la intelixencia artificial atenta, lo que significa que les meyores que yá se tán produciendo cola IA tamién tienen d'incluyir un esfuerciu por que la IA sía intrínsecamente atenta y humana.[88] D'Isaac Asimov, “les Tres Ley de la Robótica” ye unu de los primeros exemplos de midíes de seguridá propuestes pa la IA. Les lleis tán destinaes a prevenir que los robots d'intelixencia artificial estropien a los seres humanos. Nes hestories de Asimov, los problemes percibíos coles lleis tienden a surdir como resultáu d'un tracamundiu por parte de dalgún operador humanu; los mesmos robots tán a cencielles actuando pa la so meyor interpretación de les sos normes.
Por casu, nel 2004 l'Institutu d'Investigación n'Intelixencia de la Máquina llanzó una campaña n'Internet llamada “3 Lleis insegures” pa crear concencia sobre los problemes de seguridá de la IA y la insuficiencia de les lleis de Asimov en particular.[89]
Na cultura popular
[editar | editar la fonte]El términu singularidá y l'acontecimientu qu'este trai pudo vese en grandes películes, series, noveles, y en munchos formatos más. Toos ellos encetaron de dalguna manera, unu más qu'otros, esti acontecimientos nes sos hestories.
Noveles
[editar | editar la fonte]En 1984, Samuel R. Delany utiliza "fuga cultural" como un recursu argumental na so novela de ciencia ficción Stars in My Pocket Like Grains of Sand; el términu fuxitivu de complexidá teunolóxica y cultural, n'efeutu, destrúi tola vida en cualquier mundu nel que se trasluce, un procesu pocu entendíu polos personaxes de la novela, y en contra de los que busquen una defensa estable.
Nin más nin menos, Vernor Vigne tamién popularizó'l conceutu nes noveles de ciencia ficción como en “Marooned in Realtime” (1986) y en “A Fire Upon the Deep” (1992). El primeru atopar nun mundu de rápida aceleración de cambéu que lleva a l'apaición de más y más teunoloxíes sofisticaes dixebraes por intervalu de tiempu cada vez más curtios, hasta que s'algamar un puntu más allá de la comprensión humana. Esti postreru empieza con una descripción imaxinativa de la evolución d'una superinteligencia pasando por una aceleración exponencialmente n'etapes de desenvolvimientu que terminen nun poder trascendente, casi omnipotente ya insondable por simples humanos. Vinge tamién implica que'l desenvolvimientu nun puede detenese nesti nivel.
La novela de 1979 de James P. Hogan “The Two Faces of Tomorrow” ye una descripción esplícita de lo qu'agora se llama la Singularidá. Un sistema d'intelixencia artificial resuelve un problema d'escavación na lluna d'una manera brilloso y novedoso, pero casi mata a un equipu de trabayu nel procesu. Al dase cuenta de que los sistemes tán volviéndose demasiáu sofisticaos y complexos de predicir o dirixir, un equipu científicu propónse enseñar a una rede informática sofisticada cómo pensar más humanamente. La historia documenta el surdimientu de conciencia nel sistema informáticu, la perda de los seres humanos de control y los intentos fallíos de cerrar l'esperimentu nel que l'equipu defende desesperadamente a sigo mesmu, y l'intelixencia del ordenador algame'l maduror.
Al aldericar sobre la creciente reconocencia de la singularidá, Vernor Vinge escribió en 1993 que "fueron los escritores de ciencia ficción quien sintieron el primer impautu concretu." Amás de la so propia historia curtia "Bookworm, Run!”, Que'l so protagonista ye un chimpancé cola intelixencia aumentada por un esperimentu del gobiernu, cita a la novela “Blood Music” de Greg Bear (1983) como un exemplu de la singularidá na ficción.
El 1996 la novela “Holy Fire” por Bruce Sterling esplora dalgunos d'eses temes y postula qu'un Methuselarity va convertir nuna xerontocracia.
Na novela de William Gibson de 1984 “Neuromancer”, intelixencies artificiales capaces d'ameyorar los sos propios programes tán puramente regulaes pola especial "policía de Turing" p'asegurase de que nun superen un ciertu nivel d'intelixencia, y la trama centrar nos esfuercios d'unu de la IA pa refugar el so control.
Nel cuentu de Harlan Ellison “I Have Non Mouth, and I Must Scream” (1967), una IA malévola llogra omnipotencia.
Películes
[editar | editar la fonte]Películes populares na que los ordenadores vuélvense intelixentes y traten d'apoderar a la raza humana inclúin Colossus: The Forbin Project; la serie Terminator; La serie The Matrix; Transformers; l'adaptación cinematográfica bien suelta d'Isaac Asimov, I, Robot; y, finalmente, Stanley Kubrick y Arthur C. Clarke de 2001: A Space Odyssey. La serie de televisión Dr. Who, Battlestar Galactica, y Star Trek: The Next Generation (que tamién s'enfusa na realidá virtual, la cibernética, formes alternatives de vida, y el posible camín evolutivu de la humanidá) tamién esplora estes temes. De toos ellos, namái cunta con un verdaderu colosu superinteligente. "The Machine" pol escritor-direutor Caradog James sigue a dos científicos, yá que crean la primer intelixencia artificial consciente de sigo mesma nel mundu mientres la guerra fría. Tola trama de Trascendence de Wally Pfister centrar nun escenariu d'esplegue singular. La película del 2013 de ciencia ficción “Her” sigue una rellación romántica d'un home con una IA bien intelixente, que col tiempu apriende a ameyorase a sigo mesma y crea una esplosión d'intelixencia. L'adaptación de Philip K. Dick “Do Androids Dream of Electric Sheep?” na película Blade Runner, Ex Machina, y Tron esquicen el conceutu de la xénesis de les máquines pensantes y la so rellación col impautu na humanidá. Acelerar la meyora presentar en delles obres de ciencia ficción, y ye una tema central en Accelerando de Charles Stross.
La película “I, Robot”, vagamente basada en hestories de robots de Asimov, un ordenador de IA intenta tomar el control completu sobre la humanidá col propósitu de protexer a la humanidá de sigo mesma, por cuenta d'una extrapolación de les Trés Lleis.
Alien: Convenant, ye una película que trata d'un viaxe escontra un remotu planeta na galaxa. Na historia actívase un androide nuevu, que ye una intelixencia artificial. Nel viaxe afayen que nun tán solos en dichu planeta, y el so oxetivu empieza a ser tratar de vivir nesi ambiente peligroso y contrario.
Otros
[editar | editar la fonte]El documental Transcendent Man, basáu en The Singularity Is Near, cubre la busca de Kurzweil pa revelar lo qu'él cree que ye'l destín de la humanidá. Otru documental, Plug & Pray, centrar na promesa, los problemes y l'ética de la intelixencia artificial y la robótica, con Joseph Weizenbaum y Kurzweil como les temes principales de la película.[90] Un documental de 2012 tituláu a cencielles The Singularity cubre tantu perspectives futuristes como contra-futuristes.[90]
Na música, álbum The Singularity (Fase I: Neohumanity) pela banda sueca Scar Symmetry ye la primer parte del álbum conceptual de trés partes sobre la base de los acontecimientos de la singularidá.
Esiste'l cómic web “Questionable Content”, onde tien llugar en mundu post-singularidá con un "atentu AI".[91]
Autores
[editar | editar la fonte]Los autores notables qu'enceten temes rellacionaes cola singularidá inclúin Robert Heinlein, Karl Schroeder, Greg Egan, Ken MacLeod, Rudy Rucker, David Brin, Iain M. Banks, Neal Stephenson, de Tony Ballantyne, Bruce Sterling, Dan Simmons, Damien Broderick, Fredric Brown, Jacek Dukaj, Stanislaw Lem, Nagaru Tanigawa, Douglas Adams, Michael Crichton, y Ian McDonald.
Ver tamién
[editar | editar la fonte]Notes
[editar | editar la fonte]- ↑ Chalmers, David. «Singularity, Intelligence Explosion.» 8 d'abril de 2010. Singularity Institute for Artificial Intelligence.
- ↑ Editor's Blogue Why an Intelligence Explosion is Probable, by Richard Loosemore and Ben Goertzel. March 7, 2011; hplusmagazine.
- ↑ Carvalko, Joseph (2012). Sunbury Press: The Techno-human Shell-A Jump in the Evolutionary Gap. ISBN 978-1620061657.
- ↑ Cortina y Serra, Albert y Miquel-Àngel (2015). «Capítulu 1 de ¿Humanos o posthumanos? Singularidá teunolóxica y meyoramientu humanu.», ¿Humanos o Posthumanos?, singularidá teunolóxica y meyoramientu humanu.
- ↑ 5,0 5,1 Tribute to John von Neumann. 64, #3, part 2. Bulletin of the American Mathematical Society. May 1958. p. 5. https://docs.google.com/file/d/0B-5-JeCa2Z7hbWcxTGsyU09HSTg/edit?pli=1.
- ↑ Vinge did not actually use the phrase "technological singularity" in the Omni op-ed, but he did use this phrase in the short story collection Threats and Other Promises from 1988, writing in the introduction to his story "The Whirligig of Time" (p. 72): Barring a worldwide catastrophe, I believe that technology will achieve our wildest dreams, and soon. When we raise our own intelligence and that of our creations, we are no longer in a world of human-sized characters. At that point we have fallen into a technological "black hole," a technological singularity.
- ↑ Solomonoff, R.J. "The Time Scale of Artificial Intelligence: Reflections on Social Effects", Human Systems Management, Vol 5, páxs. 149–153, 1985.
- ↑ «Mission». Singularity Summit Australia - Future of Science and Technology. Archiváu dende l'orixinal, el 2018-03-17.
- ↑ Thornton, Richard, The Expounder of Primitive Christianity, 4, Ann Arbor, Michigan, p. 281, https://books.google.com/?id=ZM_hAAAAMAAJ&dq=%22Primitive%20Expounder%22%20thornton%201847&pg=PA281#v=onepage&q=thinking%20machine&f=false
- ↑ Adams, H. (1909) "The rule of phase applied to history." In H. Adams & B. Adams (1920), The Degradation of the Democratic Dogma. New York: Macmillan, 267–311.
- ↑ Adams (1909), p.309
- ↑ «A Brief History of Intelectual Discussion of Accelerating Change». Accelerationwatch.com. Consultáu'l 17 d'agostu de 2013.
- ↑ A M Turing, Intelligent Machinery, A Heretical Theory, 1951, reprinted Philosophia Mathematica (1996) 4(3): 256–260 doi 10.1093/philmat/4.3.256
- ↑ Dooling, Richard. Rapture for the Geeks: When AI Outsmarts IQ (2008), p. 88
- ↑ Moravec, Hans, «When will computer hardware match the human brain?», Journal of Evolution and Technology 1, http://www.transhumanist.com/volume1/moravec.htm, consultáu'l 23 de xunu de 2006.
- ↑ Moravec, Hans (June 1993). «The Age of Robots». Consultáu'l 23 de xunu de 2006.
- ↑ Moravec, Hans (April 2004). «Robot Predictions Evolution». Consultáu'l 23 de xunu de 2006.
- ↑ Dooling, Richard. Rapture for the Geeks: When AI Outsmarts IQ (2008), p. 89
- ↑ 19,0 19,1 19,2 Vinge, Vernor. "The Coming Technological Singularity: How to Survive in the Post-Human Yera", originally in Vision-21: Interdisciplinary Science and Engineering in the Yera of Cyberspace, G. A. Landis, ed., NASA Publication CP-10129, páxs. 11–22, 1993
- ↑ 83
- ↑ Robin Hanson, «Economics Of The Singularity», IEEE Spectrum Special Report: The Singularity, http://www.spectrum.ieee.org/robotics/robotics-software/economics-of-the-singularity, consultáu'l 11 de setiembre de 2008 & Long-Term Growth As A Sequence of Exponential Modes
- ↑ 22,0 22,1 22,2 Yudkowsky, Eliezer. The Singularity: Three Major Schools
- ↑ Singularity University at its official website
- ↑ de Grey, Aubrey. The singularity and the Methuselarity: similarities and differences
- ↑ Geraci, Robert M (2010). Oxford University Press: Apocalyptic AI – Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality. ISBN 978-0195393026.
- ↑ 2045: The Year Man Becomes Immortal Archiváu 2012-09-12 en Wayback Machine, By Lev Grossman Thursday, Feb. 10, 2011 time.com.
- ↑ Sadin, Eric (2017). «Introducción: La emerxencia d'una cognición artificial superior», La Humanidá Aumentada. L'alministración dixital del mundu. Editorial Caxa Negra, páx. 31-32.
- ↑ Kurzweil, Ray (2005). La singularidá ta cerca, cuando los humanos trescendemos la bioloxía. Lola Books.
- ↑ «The singularity: The last word – [forum]». IEEE 45: p. 10. 10 d'ochobre de 2008. doi:. http://ieeexplore.ieee.org.mutex.gmu.edu/stamp/stamp.jsp?tp=&arnumber=4635038&isnumber=4635032&tag=1. Consultáu'l 2 d'ochobre de 2013.
- ↑ Jacques, Jeph. «They've Had AI Since 1996». Consultáu'l 9 de xunu de 2015.
- ↑ Joy, Bill (April 2000), «Why the future doesn't need us», Wired Magacín (Viking Adult) (8.04), ISBN 0-670-03249-2, http://www.wired.com/wired/archive/8.04/joy.html, consultáu'l 7 d'agostu de 2007
- ↑ Armstrong, Stuart. "How We're Predicting AI", from the 2012 Singularity Conference
- ↑ Good, I.J (1950). «Advances in Computers, vol. 6.», Speculations Concerning the First Ultraintelligent Machine.
- ↑ Ehrlich, Paul. The Dominant Animal: Human Evolution and the Environment
- ↑ Shajahan, S (2007). Management Information Systems. New Age International.
- ↑ Good, I. J., "Speculations Concerning the First Ultraintelligent Machine" Archiváu 2016-03-04 en Wayback Machine, Franz L. Alt and Morris Rubinoff, ed., Advances in Computers (Academic Press) 6: 31–88, 1965.
- ↑ The Human Importance of the Intelligence Explosion
- ↑ Good, I. J. 1965 "Speculations Concerning the First Ultraintelligent Machine" Archiváu 2016-03-04 en Wayback Machine. páxs. 31–88 in Advances in Computers, 6, F. L. Alt and M Rubinoff, eds. New York: Academic Press.
- ↑ Ray Kurzweil, The Singularity is Near, páxs. 135–136. Penguin Group, 2005.
- ↑ 40,0 40,1 «What is the Singularity? | Singularity Institute for Artificial Intelligence». Singinst.org. Archiváu dende l'orixinal, el 8 de setiembre de 2011. Consultáu'l 9 de setiembre de 2011.
- ↑ «h+ Magacín | Covering technological, scientific, and cultural trends that are changing human beings in fundamental ways». Hplusmagazine.com. Consultáu'l 9 de setiembre de 2011.
- ↑ Sandberg, Anders. An overview of models of technological singularity
- ↑ «Max More and Ray Kurzweil on the Singularity». KurzweilAI. Consultáu'l 9 de setiembre de 2011.
- ↑ Why We Should Think About the Threat of Artificial Intelligence. 24 Oct 2013. http://www.newyorker.com/onlineblogselements/2013/10/why-we-should-think-about-the-threat-of-artificial-intelligence.html. Consultáu'l 15 de xunetu de 2014.
- ↑ 45,0 45,1 «Tech Luminaries Address Singularity – IEEE Spectrum». Spectrum.ieee.org. Consultáu'l 9 de setiembre de 2011.
- ↑ «Who's Who In The Singularity – IEEE Spectrum». Spectrum.ieee.org. Consultáu'l 9 de setiembre de 2011.
- ↑ 47,0 47,1 Paul Allen: The Singularity Isn't Near, http://www.technologyreview.com/view/425733/paul-allen-the-singularity-isnt-near, consultáu'l 12 d'abril de 2015
- ↑ Moravec, Hans (1999). Oxford O. Press: Robot: Mere Machine to Transcendent Mind.
- ↑ Ray Kurzweil, The Age of Spiritual Machines, Viking, 1999, p. 30 and p. 32
- ↑ Ray Kurzweil, The Singularity is Near, Penguin Group, 2005
- ↑ "The World's Technological Capacity to Store, Communicate, and Compute Information", Martin Hilbert and Priscila López (2011), Science (journal), 332(6025), 60-65; free access to the article through here: martinhilbert.net/WorldInfoCapacity.html
- ↑ Ray Kurzweil, The Singularity is Near, p. 9. Penguin Group, 2005
- ↑ «The singularity: The last word -[forum]». IEEE 45: p. 10. 10 d'ochobre de 2008. doi:. http://ieeexplore.ieee.org.mutex.gmu.edu/stamp/stamp.jsp?tp=&arnumber=4635038&isnumber=4635032&tag=1. Consultáu'l 2 d'ochobre de 2013.
- ↑ Ray Kurzweil, The Singularity is Near, páxs. 135–136. Penguin Group, 2005. "So we will be producing about 1026 to 1029 cps of nonbiological computation per year in the early 2030s. This is roughly equal to our estimate for the capacity of all living biological human intelligence ... This state of computation in the early 2030s will not represent the Singularity, however, because it does not yet correspond to a profound expansion of our intelligence. By the mid-2040s, however, that one thousand dollars' worth of computation will be equal to 1026 cps, so the intelligence created per year (at a total cost of about $1012) will be about one billion times more powerful than all human intelligence today. That will indeed represent a profound change, and it is for that reason that I set the date for the Singularity—representing a profound and disruptive transformation in human capability—as 2045."
- ↑ Zubrin, Robert. 1999, Entering Space: Creating a Spacefaring Civilization
- ↑ (Joy, 2000)
- ↑ (Acceleration Studies Foundation, 2007)
- ↑ «How to make graphene in a kitchen blender». nature.com. Archiváu dende l'orixinal, el 2017-12-07.
- ↑ «Metamaterials offer route to room-temperature superconductivity». physicsworld.com.
- ↑ Dreyfus y Dreyfus, 2000, p. xiv: 'The truth is that human intelligence can never be replaced with machine intelligence simply because we are not ourselves "thinking machines" in the sense in which that term is commonly understood.'
- ↑ Ford, Martin (2009). The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future. Acculant. ISBN 978-1-4486-5981-4.
- ↑ Lanier, Jaron (2013). Who Owns the Future?. Simon & Schuster, páx. 328.
- ↑ Nordhaus, William. «The Progress of Computing». 30 d'agostu de 2011. Archivado del original el 2017-08-11. https://web.archive.org/web/20170811044452/http://www.econ.yale.edu/~nordhaus/homepage/prog_083001a.pdf. Consultáu'l 10 d'ochobre de 2017.
- ↑ Interstellar Travel: The Wait Calculation and the Incentive Trap of Progress, JBIS Vol 59, N.7 July 2006
- ↑ Diamond, Jared (2005). Collapse: How Societies Choose to Fail or Succeed (n'Inglés). Viking. ISBN 0-14-303655-6.
- ↑ Theodore Modis, Forecasting the Growth of Complexity and Change, Technological Forecasting & Social Change, 69, Non 4, 2002
- ↑ 67,0 67,1 «Modis, Theodore. The Singularity Myth». Archiváu dende l'orixinal, el 2012-10-30.
- ↑ 68,0 68,1 Huebner, Jonathan (2005) "A Possible Declining Trend for Worldwide Innovation", Technological Forecasting & Social Change, October 2005, páxs. 980–6
- ↑ Krazit, Tom. Intel pledges 80 cores in five years, CNET News, 26 September 2006.
- ↑ Tainter, Joseph (1988) "The Collapse of Complex Societies Archiváu 2015-06-07 en Wayback Machine" (Cambridge University Press)
- ↑ Allen, Paul. «The Singularity Isn't Near». 12 d'ochobre de 2011. https://www.technologyreview.com/s/425733/paul-allen-the-singularity-isnt-near/. Consultáu'l 10 d'ochobre de 2017.
- ↑ Anonymous (18 de marzu de 2006), «More blades good», The Economist (London) 378 (8469): 85, http://www.economist.com/science/displaystory.cfm?story_id=5624861
- ↑ Myers, PZ, Singularly Silly Singularity, http://scienceblogs.com/pharyngula/2009/02/singularly_silly_singularity.php, consultáu'l 13 d'abril de 2009
- ↑ See, e.g., Korotayev A., Malkov A., Khaltourina D. Introduction to Social Macrodynamics: Compact Macromodels of the World System Growth. Moscow: URSS Publishers, 2006; Korotayev A. V. A Compact Macromodel of World System Evolution // Journal of World-Systems Research 11/1 (2005): 79–93.
- ↑ For a detailed mathematical analysis of this issue see A Compact Mathematical Model of the World System Economic and Demographic Growth, 1 CE – 1973 CE.
- ↑ Adam Gopnik, New Yorker, 2011, http://www.newyorker.com/magazine/2011/04/04/get-smart-adam-gopnik
- ↑ Joan Slonczewski, Mitochondrial Singularity, 2013, http://ultraphyte.com/2013/03/25/mitochondrial-singularity/
- ↑
- Ficha de Episode dated 23 August 2006 na Internet Movie Database (n'inglés)
- ↑ 79,0 79,1 Yudkowsky, Eliezer, Bostrom, Nick; Cirkovic, Milan, eds., «Artificial Intelligence as a Positive and Negative Factor in Global Risk», Global Catastrophic Risks (Oxford University Press): 303, ISBN 978-0-19-857050-9, Bibcode: 2008gcr..book..303Y, http://singinst.org/AIRisk.pdf Archiváu 2008-08-07 en Wayback Machine
- ↑ «The Uncertain Future». theuncertainfuture.com; a future technology and world-modeling project.
- ↑ «GLOBAL CATASTROPHIC RISKS SURVEY (2008) Technical Report 2008/1 Published by Future of Humanity Institute, Oxford University. Anders Sandberg and Nick Bostrom». Archiváu dende l'orixinal, el 2011-05-16.
- ↑ «Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards». nickbostrom.com.
- ↑ Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
- ↑ Mick, Jason. New Navy-funded Report Warns of War Robots Going "Terminator" Archiváu 2009-07-28 en Wayback Machine, Blogue, dailytech.com, February 17, 2009.
- ↑ Flatley, Joseph L. Navy report warns of robot uprising, suggests a strong moral compass, engadget.com, 18 February 2009.
- ↑ Call for alderica on killer robots, By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
- ↑ AAAI Presidential Panel on Long-Term AI Futures 2008–2009 Study, Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.
- ↑ Article at Asimovlaws.com, July 2004, accessed 7/27/2009.
- ↑ (Singularity Institute for Artificial Intelligence, 2004)
- ↑ 90,0 90,1 «The Singularity: A Documentary by Doug Wolens». Ieet.org. Consultáu'l 22 d'ochobre de 2013.
- ↑ Plug & Pray Documentary filme (2010) about the promise, problems and ethics of artificial intelligence and robotics
Error de cita: La etiqueta <ref>
col nome "accelerating" definida en <references>
nun s'utiliza nel testu anterior.
Error de cita: La etiqueta <ref>
col nome "businessweek" definida en <references>
nun s'utiliza nel testu anterior.
Error de cita: La etiqueta <ref>
col nome "dreyfus" definida en <references>
nun s'utiliza nel testu anterior.
Error de cita: La etiqueta <ref>
col nome "nytimes" definida en <references>
nun s'utiliza nel testu anterior.
Error de cita: La etiqueta <ref>
col nome "stat" definida en <references>
nun s'utiliza nel testu anterior.
<ref>
col nome "thelightsinthetunnel" definida en <references>
nun s'utiliza nel testu anterior.Referencies
[editar | editar la fonte]- Acceleration Studies Foundation, ASF: About the Foundation, http://www.accelerating.org/about.html, consultáu'l 13 de payares de 2007
- Anonymous (18 March 2006), «More blades good», The Economist (London) 378 (8469): 85, http://www.economist.com/science/displaystory.cfm?story_id=5624861
- Bell, James John, Technotopia and the Death of Nature: Clones, Supercomputers, and Robots, Earth Island Journal (first published in the November/December 2001 issue of the Earth First! Journal), http://www.earthisland.org/journal/index.php/eij/article/technotopia_the_death_of_nature/, consultáu'l 7 d'agostu de 2007
- Bell, James John (1 de mayu de 2003), «Exploring The "Singularity"», The Futurist (World Future Society (mindfully.org)), http://www.mindfully.org/Technology/2003/Singularity-Bell1may03.htm, consultáu'l 7 d'agostu de 2007
- Berglas, Anthony, Artificial Intelligence will Kill our Grandchildren, http://berglas.org/Articles/AIKillGrandchildren/AIKillGrandchildren.html, consultáu'l 13 de xunu de 2008
- Broderick, Damien, The Spike: How Our Lives Are Being Transformed by Rapidly Advancing Technologies, New York: Forge, ISBN 0-312-87781-1
- Bostrom, Nick, «Existential Risks», Journal of Evolution and Technology 9, http://www.nickbostrom.com/existential/risks.html, consultáu'l 7 d'agostu de 2007
- Bostrom, Nick, «Ethical Issues in Advanced Artificial Intelligence», Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence 2: 12–17, http://www.nickbostrom.com/ethics/ai.html, consultáu'l 7 d'agostu de 2007
- Dreyfus, Hubert L.; Dreyfus, Stuart Y. (1 de marzu de 2000), Mind over Machine: The Power of Human Intuition and Expertise in the Yera of the Computer (1 edición), New York: Free Press, ISBN 0-7432-0551-0
- Ford, Martin, The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future, CreateSpace, ISBN 978-1-4486-5981-4, http://www.thelightsinthetunnel.com.
- Good, I. J., Franz L. Alt and Morris Rubinoff, ed., «Speculations Concerning the First Ultraintelligent Machine», Advances in Computers, Advances in Computers (Academic Press) 6: 31–88, doi: , ISBN 9780120121069, http://www.aeiveos.com/~bradbury/Authors/Computing/Good-IJ/SCtFUM.html, consultáu'l 7 d'agostu de 2007
- Hanson, Robin, Some Skepticism, Robin Hanson, http://hanson.gmu.edu/vc.html, consultáu'l 19 de xunu de 2009
- Hanson, Robin (June 2008), «Economics of the Singularity», IEEE Spectrum
- Hawking, Stephen, Science in the Next Millennium: Remarks by Stephen Hawking, http://clinton2.nara.gov/Initiatives/Millennium/shawking.html, consultáu'l 13 de payares de 2007 Archiváu 2009-06-29 en Wayback Machine
- Hawkins, Gerald S. (August 1983), Mindsteps to the Cosmos, HarperCollins, ISBN 0-06-015156-0
- Heylighen, Francis, «Accelerating Sociu-Technological Evolution: from ephemeralization and stigmergy to the global brain», en Modelski, G.; Devezas, T.; Thompson, W., Globalization as an Evolutionary Process: Modeling Global Change, London: Routledge, ISBN 978-0-415-77361-4
- Plantía:Cita arXiv
- Johansen, Anders; Sornette, Didier (25 de xineru de 2001), «Finite-time singularity in the dynamics of the world population, economic and financial indices» (PDF), Physica A 294 (3–4): 465–502, doi: , Bibcode: 2001PhyA..294..465J, http://hjem.get2net.dk/kgs/growthphysA.pdf, consultáu'l 30 d'ochobre de 2007
- Joy, Bill (April 2000), «Why the future doesn't need us», Wired Magacín (Viking Adult) (8.04), ISBN 0-670-03249-2, http://www.wired.com/wired/archive/8.04/joy.html, consultáu'l 7 d'agostu de 2007
- Kurzweil, Raymond, «The Law of Accelerating Returns», Nature Physics (Lifeboat Foundation) 4 (7): 507, doi: , Bibcode: 2008NatPh...4..507B, http://lifeboat.com/ex/law.of.accelerating.returns, consultáu'l 7 d'agostu de 2007
- Kurzweil, Raymond, The Singularity Is Near, New York: Viking, ISBN 0-670-03384-7
- Moravec, Hans (January 1992), «Pigs in Cyberspace», On the Cosmology and Ecology of Cyberspace, http://www.frc.ri.cmu.edu/~hpm/project.archive/xeneral.articles/1992/CyberPigs.html, consultáu'l 21 de payares de 2007
- Mahmud, Ashik (June 2015), «Post/Human Beings & Techno-salvation: Exploring Artificial Intelligence in Selected Science Fictions», Socrates Journal, doi:, http://www.socratesjournal.com/index.php/socrates/article/view/150/html_145, consultáu'l 26 de xunu de 2015 Archiváu 2015-06-26 en Wayback Machine
- Plantía:Cita arXiv
- Singularity Institute for Artificial Intelligence, Why Artificial Intelligence?, http://www.singinst.org/intro/whyAI-print.html Archiváu 2006-10-04 en Wayback Machine
- Singularity Institute for Artificial Intelligence, 3 Laws Unsafe, http://www.asimovlaws.com/, consultáu'l 7 d'agostu de 2007
- Singularity Institute for Artificial Intelligence, What is the Singularity?, http://www.singinst.org/overview/whatisthesingularity, consultáu'l 4 de xineru de 2008 Archiváu 2007-12-30 en Wayback Machine
- Smart, John (September 2005), On Huebner Innovation, Acceleration Studies Foundation, http://accelerating.org/articles/huebnerinnovation.html, consultáu'l 7 d'agostu de 2007
- Ulam, Stanislaw (May 1958), «Tribute to John von Neumann», Bulletin of the American Mathematical Society 64 (nr 3, part 2): 1–49, doi:
- Vinge, Vernor (30–31 March 1993), «The Coming Technological Singularity», Vision-21: Interdisciplinary Science & Engineering in the Yera of CyberSpace, proceedings of a Symposium held at NASA Lewis Research Center (NASA Conference Publication CP-10129), http://www-rohan.sdsu.edu/faculty/vinge/misc/singularity.html, consultáu'l 7 d'agostu de 2007 See also this HTML version, retrieved on 2009-03-29.
- Warwick, Kevin, March of The Machines, University of Illinois Press, ISBN 978-0-252-07223-9