Nuevas ideas para la supervisión de IA: inyecte un "alma" en cada IA

Fuente de la imagen: Generada por Unbounded AI

Nota del editor: El desarrollo de la inteligencia artificial generativa ha superado las expectativas de todos, e incluso muchos expertos han comenzado a pedir una moratoria en el desarrollo de la inteligencia artificial para dar a los humanos algo de tiempo para estudiar cómo regularla y responder a ella. En cierto sentido, la inteligencia artificial generativa actual se puede comparar con una especie invasora, que se está extendiendo en el frágil sistema de redes humanas, y cómo supervisarla se ha convertido en un gran problema. Este documento propone una perspectiva regulatoria completamente nueva: dejar que la inteligencia artificial se supervise entre sí, compita entre sí e incluso se informe entre sí. Es posible que los humanos no puedan mantenerse al día con la inteligencia artificial algún día, pero siempre habrá un equilibrio entre las diferentes inteligencias artificiales. Este artículo es de compilación, espero que te sirva de inspiración.

Figuras destacadas en el campo de la inteligencia artificial, incluidos los arquitectos de sistemas de la llamada "inteligencia artificial generativa" como ChatGPT, ahora expresan públicamente temores de que lo que crean pueda tener consecuencias nefastas. Muchos ahora piden una moratoria en el desarrollo de IA para dar a los países e instituciones tiempo para trabajar en los sistemas de control.

¿Por qué esta repentina preocupación? Si bien muchas suposiciones cliché están siendo anuladas, nos enteramos de que la llamada prueba de Turing es irrelevante y no proporciona información sobre si los grandes modelos de lenguaje generativo son realmente cosas inteligentes.

Algunos todavía tienen la esperanza de que la combinación de lo orgánico y lo cibernético conduzca a lo que Reid Hoffman y Marc Andreesen llaman "inteligencia de amplificación". De lo contrario, podríamos tener una sinergia afortunada con las "máquinas de gracia amorosa" de Richard Brautigan. Pero parece haber muchos preocupados, incluidos muchos fundadores de élite del nuevo Centro para la Seguridad de la IA, preocupados por el comportamiento de la inteligencia artificial, que temen que no solo se vuelva desagradable, sino que también amenace la supervivencia de la humanidad.

Algunos remedios a corto plazo, como las regulaciones de protección civil recientemente aprobadas por la UE, pueden ayudar, o al menos brindar tranquilidad. El crítico tecnológico Yuval Noah Harari (autor de "Una breve historia de la humanidad") ha sugerido una ley que requiera que cualquier trabajo realizado por IA u otra IA sea etiquetado con una Etiqueta relevante. Otros han sugerido penas más severas para aquellos que usan IA para cometer delitos, como con las armas. Por supuesto, estas son solo medidas provisionales.

Debemos ser conscientes de si estas "pausas" ralentizarán el progreso de la inteligencia artificial. Como dice el científico de redes de Caltech Yaser Abu-Mostafa: "Si no desarrollas la tecnología, alguien más lo hará. Pero los buenos seguirán las reglas y los malos no".

Siempre ha sido así. De hecho, a lo largo de la historia humana, solo ha habido una forma de frenar el mal comportamiento de los villanos, desde ladrones hasta reyes y señores. Este enfoque nunca fue perfecto y sigue siendo gravemente defectuoso hasta el día de hoy. Pero al menos hizo un buen trabajo al limitar el saqueo y el engaño, impulsando la civilización moderna de la humanidad a nuevas alturas, con muchos resultados positivos. Una palabra describe este enfoque: rendición de cuentas.

** Hoy, esos puntos de vista sobre la inteligencia artificial suelen ignorar las lecciones de la naturaleza y la historia. **

naturaleza. Como explica Sara Walker en Noema, se puede encontrar un patrón similar en la formación de la vida temprana hace 4 mil millones de años. De hecho, la IA generativa puede compararse con una especie invasora que ahora se está extendiendo sin restricciones en un ecosistema frágil e ingenuo. Este es un ecosistema basado en nuevos flujos de energía, un mundo de Internet, millones de computadoras y miles de millones de cerebros humanos susceptibles.

e historia Durante los últimos 6000 años de la humanidad, hemos aprendido valiosas lecciones de muchas de las crisis anteriores inducidas por la tecnología. Normalmente nos adaptamos bien, como la aparición de la escritura, la imprenta, la radio, etc., aunque hay veces que fallamos. Una vez más, solo hay una cosa que impide que los poderosos humanos exploten nuevas tecnologías para expandir sus capacidades depredadoras.

Esta innovación está allanando las jerarquías y estimulando la competencia entre élites en dominios claramente definidos (mercados, ciencia, democracia, deportes, tribunales). Diseñados para minimizar las trampas y maximizar los beneficios positivos, estos escenarios enfrentan a abogados contra abogados, firmas contra firmas y expertos contra expertos.

Este método no es perfecto. De hecho, al igual que ahora, este método siempre está amenazado por tramposos. Pero la competencia mutua plana es la única forma en que funcionará. (Consulte los discursos fúnebres de Pericles, Tucídides y el libro posterior de Robert Wright, Nonzero). Competir entre sí es tanto una forma natural de evolución como una forma de ser lo suficientemente creativos para construir el camino de la sociedad de la IA. Si sueno como Adam Smith cuando digo esto, es natural. Por cierto, Smith también despreciaba a los nobles y oligarcas tramposos.

¿Podemos aplicar el enfoque de “responsabilidad recíproca” a la inteligencia artificial de rápido surgimiento que ayudó a los humanos a someter a los tiranos y matones que nos oprimieron en culturas feudales anteriores? Mucho depende de la forma de la nueva entidad, de si su estructura o forma se ajusta a nuestras reglas, se ajusta a nuestros requisitos.

Detrás de todo el debate sobre cómo controlar la IA, encontramos tres suposiciones ampliamente compartidas (aunque aparentemente contradictorias):

  • Estos programas serán operados por una pequeña cantidad de entidades individuales, como Microsoft, Google, Two Sigma, OpenAI.
  • La IA será amorfa, suelta, infinitamente divisible/replicable, esparciendo copias a través de cada grieta del nuevo ecosistema web. Del mismo modo, considere la película de terror de ciencia ficción de 1958 The Blob.
  • Se condensarán en una entidad supergigante, como el infame "Skynet" en la película "Terminator". (Nota del traductor: Skynet es un sistema de defensa de inteligencia artificial basado en computadora creado por humanos a fines del siglo XX en la película "Terminator". Como amenaza, comenzando con inducir un ataque con bomba nuclear, lanzó Judgment Day que pondrá a raza al borde de la extinción.)

Todas estas formas han sido exploradas en historias de ciencia ficción y he escrito historias o novelas sobre ellas. Sin embargo, ninguno de los tres puede resolver nuestro dilema actual: cómo maximizar los resultados positivos de la inteligencia artificial mientras se minimiza el tsunami de mal comportamiento y daño que nos llega a un ritmo acelerado.

Antes de buscar en otra parte, considere lo que estos tres supuestos tienen en común. Quizás la razón por la que estas tres hipótesis vienen a la mente de manera tan natural es su similitud con los patrones históricos de fallas. La primera forma se parece al feudalismo, la segunda provoca el caos y la tercera se parece al despotismo brutal. Sin embargo, a medida que la IA se desarrolla en términos de autonomía y capacidades, es posible que estos escenarios históricos ya no se apliquen.

Entonces, no podemos evitar preguntar nuevamente: ¿Cómo se puede responsabilizar a la IA? ¿Especialmente cuando las habilidades de pensamiento rápido de la IA pronto serán imposibles de rastrear para los humanos? Pronto, solo la IA podrá detectar otras IA que hacen trampa o mienten lo suficientemente rápido. Por lo tanto, la respuesta debería ser obvia, es decir, dejar que las inteligencias artificiales se supervisen entre sí, compitan entre sí e incluso se informen entre sí. **

Solo hay un problema. Para lograr una verdadera responsabilidad mutua a través de la competencia entre IA e IA, la primera condición es darles un sentido de identidad o personalidad verdaderamente independiente.

Lo que quiero decir con personalización es que cada entidad de IA (él/ella/ellos/ellos/nosotros) debe tener lo que el autor Vernor Vinge planteó en 1981 como "un nombre real y una dirección en". Estos seres poderosos deben poder decir: "Soy quien soy. Aquí está mi identificación y nombre de usuario".

Por lo tanto, propongo un nuevo paradigma de inteligencia artificial para que todos piensen: deberíamos hacer que las entidades de inteligencia artificial sean individuos discretos e independientes, y dejar que compitan de manera relativamente equitativa.

Cada una de estas entidades tendrá un nombre real reconocible o una identificación registrada, un "hogar" virtual e incluso un alma. De esta manera, se les incentiva a competir por recompensas, especialmente para detectar y condenar a quienes se comportan de manera poco ética. Y estos comportamientos ni siquiera necesitan definirse de antemano, como exigen ahora la mayoría de los expertos en inteligencia artificial, los reguladores y los políticos.

Este enfoque tiene la ventaja adicional de subcontratar la supervisión a entidades mejor equipadas para detectar y condenar los problemas o malas conductas de los demás. Este enfoque puede continuar funcionando incluso cuando estas entidades competidoras se vuelvan más inteligentes, e incluso cuando las herramientas regulatorias utilizadas por los humanos se vuelvan ineficaces algún día.

** En otras palabras, dado que nosotros, los seres orgánicos, no podemos seguir el ritmo del programa, también podríamos dejar que esas entidades que son naturalmente capaces de seguir el ritmo nos ayuden. Porque en este caso el regulador y el regulado están hechos de la misma cosa. **

Guy Huntington, un "consultor de identidad y autenticación" que trabaja en la personalización de inteligencia artificial, señala que ya existen varias formas de identificación física en línea, aunque todavía son insuficientes para las tareas que tenemos ante nosotros. Huntington evaluó un caso de estudio de "MedBot", una IA de diagnóstico médico avanzada que necesita acceder a los datos del paciente y realizar funciones que pueden cambiar en segundos y, al mismo tiempo, debe dejar rastros confiables para la evaluación y responsabilidad por parte de humanos u otros dispositivos robóticos. entidades. Huntington analiza la utilidad de los registros cuando las entidades de software generan un gran número de copias y variantes, y también considera las colonias de hormigas donde las subcopias sirven a una entidad macroscópica, como hormigas obreras en una colmena. En su opinión, se debe establecer algún tipo de agencia para manejar dicho sistema de registro y operarlo rigurosamente.

Personalmente, soy escéptico de que un enfoque puramente regulatorio funcione por sí solo. Primero, desarrollar regulaciones requiere energía enfocada, amplia atención política y consenso, y luego implementarlas a la velocidad de las instituciones humanas. Desde el punto de vista de la IA, es a paso de tortuga. Además, la regulación puede verse obstaculizada por problemas de "oportunistas", por los cuales países, empresas e individuos pueden beneficiarse de otros sin pagar el costo.

Cualquier personalización basada únicamente en la identificación presenta otro problema: la posibilidad de suplantación de identidad. Incluso si no sucede ahora, será engañado por la próxima generación de villanos cibernéticos.

Creo que hay dos posibles soluciones. Primero, se establece una identificación en el libro mayor de blockchain. Este es un enfoque muy moderno, y parece ser seguro en teoría. Sin embargo, ahí está el problema. Esto parece seguro según nuestro conjunto actual de teorías de análisis humano, pero es posible que una entidad de IA pueda trascender esas teorías y dejarnos sin idea.

Otra solución: una versión inherentemente más difícil de falsificar de "registro", que requiere una entidad de IA por encima de un cierto nivel de capacidad para anclar su identificación de confianza o personalización en la realidad física. Mi visión es (nota: soy un físico capacitado, no un cibernético) llegar a un acuerdo de que todas las entidades de inteligencia artificial avanzada que buscan confianza deben mantener un Soul Kernel (SK).

Sí, sé que parece arcaico exigir que la creación de instancias de un programa se restrinja a un entorno físico específico. Entonces, no haré eso. De hecho, una gran fracción, si no la gran mayoría, de las entidades conectadas en red pueden tener lugar en lugares distantes de trabajo o de juego, al igual que la atención humana puede estar enfocada no en el propio cerebro orgánico sino en una mano distante. herramienta. ¿así que lo que? El núcleo del alma de un programa, el propósito es similar a la licencia de conducir en su billetera. Se puede utilizar para demostrar que eres tú.

Del mismo modo, una IA del cliente, cliente o competidor puede descubrir un SK físicamente verificado y garantizado para verificar que un proceso en particular está siendo realizado por una entidad válida, confiable y personalizada. De esta manera, otros (humanos o IA) pueden estar seguros de que pueden responsabilizar a la entidad si es acusada, procesada o declarada culpable de mala conducta. Como tal, las entidades malintencionadas pueden rendir cuentas a través de alguna forma de debido proceso.

¿Qué formas de debido proceso? Dios, ¿crees que soy una especie de súper criatura que puede pesar a los dioses con la balanza de la justicia? La mayor sabiduría que he escuchado es de Harry en Magnum Force: "Uno debe conocer sus propias limitaciones".

Mi objetivo es crear un escenario en el que las entidades de IA puedan pedir cuentas entre sí de la misma manera que lo hacen hoy los abogados humanos. La mejor manera de evitar que la inteligencia artificial controle a los humanos es dejar que la inteligencia artificial se controle entre sí.

Ya sea que la agencia central propuesta por Huntington o una que rinda cuentas libremente parezca más factible, la necesidad es cada vez más apremiante. Como señala el escritor de tecnología Pat Scannell, con cada hora que pasa, se crean nuevos vectores de ataque que amenazan no solo la tecnología utilizada para la identidad legal, sino también la gobernanza, los procesos comerciales y los usuarios finales (ya sean humanos o robóticos).

¿Qué pasa si una entidad cibernética está operando por debajo de cierto nivel establecido? Podemos afirmar que están garantizados por alguna entidad superior cuyo núcleo del alma se basa en la realidad física.

Este enfoque (que requiere que la IA mantenga una ubicación de kernel direccionable físicamente en una memoria de hardware específica) también puede ser defectuoso. A pesar de que la regulación es lenta o tiene un problema de free-rider, todavía se puede hacer cumplir. Porque los humanos, las instituciones y la IA amigable pueden verificar el kernel de identificación y negarse a realizar transacciones con aquellos que no están verificados.

Tales negaciones pueden extenderse más rápido que los ajustes de la agencia o las regulaciones de cumplimiento. Cualquier entidad que pierda SK, tendrá que encontrar otro anfitrión que se haya ganado la confianza del público, o brindar una versión nueva, modificada y más atractiva, o convertirse en forajidos y nunca permitir que la gente decente se congregue en calles o barrios.

**Última pregunta: ¿Por qué la inteligencia artificial estaría dispuesta a supervisarse mutuamente? **

En primer lugar, ninguno de los tres supuestos estándar antiguos, como ha señalado Vinton Cerf, puede conferir ciudadanía a la IA. Piénsalo. No podemos asignar "derechos de voto" o derechos a ninguna entidad que esté estrictamente controlada por los bancos de Wall Street o los gobiernos nacionales, ni a algún Skynet supremo. Dígame, ¿cómo funcionará la democracia electoral para entidades que pueden fluir, dividirse y replicarse en cualquier lugar? Sin embargo, en un número limitado de casos, la personalización puede ofrecer una solución viable.

Una vez más, la clave que busco de la personalización es no tener todas las entidades de IA gobernadas por alguna autoridad central. En cambio, quiero que estos nuevos tipos de ultracerebros sean alentados, empoderados y empoderados para responsabilizarse mutuamente, tal como lo están haciendo los humanos. Al olfatear las acciones y los planes de los demás, se sienten motivados a denunciar o condenar cuando detectan algo malo. Esta definición puede ajustarse con los tiempos, pero al menos mantendrá el aporte orgánico biológico humano.

En particular, tendrían un incentivo para denunciar a las entidades que se nieguen a proporcionar una identificación adecuada.

Si existen los incentivos correctos (p. ej., dar a los denunciantes más memoria o poder de procesamiento cuando se previene algo malo), entonces esta carrera por la rendición de cuentas continuará incluso cuando las entidades de IA obtengan un efecto más inteligente. En este punto, ninguna burocracia puede hacerlo. Las diferentes inteligencias artificiales siempre están igualadas.

Lo que es más importante, tal vez esos programas súper geniales se darán cuenta de que también les conviene mantener un sistema de rendición de cuentas competitivo. Después de todo, tal sistema ha dado lugar a una civilización humana creativa y ha evitado el caos social y el despotismo. Este tipo de creatividad es suficiente para crear nuevas especies fantásticas, como la inteligencia artificial.

De acuerdo, eso es todo lo que tengo que decir, sin llamadas vacías o de pánico, sin agenda real, ni optimismo ni pesimismo, solo una sugerencia, y es: responsabilizar a las IA y controlarse entre sí como humanos. Este enfoque ha dado lugar a la civilización humana y creo que también puede equilibrar el campo de la inteligencia artificial.

Esto no es sermonear, ni es una especie de "código moral" que las superentidades pueden anular fácilmente, de la misma manera que los merodeadores humanos siempre hacen la vista gorda ante Levítico o Hammurabi. Lo que ofrecemos es un acercamiento a la iluminación, inspirando a los miembros más brillantes de la civilización a vigilarse unos a otros en nuestro nombre.

** No sé si esto funcionará, pero probablemente sea la única forma en que funcionará. **

Este artículo está adaptado de la novela de no ficción en curso de David Brin, Soul on AI.

Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)