¿Es que nunca aprenderemos?

Por Parker Terrell
Redactor

No todos somos historiadores.

Quizás esa es parte de la razón por la que parecemos olvidar los pecados de nuestros padres, y los padres de ellos, y así sucesivamente hasta el amanecer de la civilización. O quizás es simplemente el hecho de que para la raza humana, poder hacerse y deber hacerse son términos que suelen ser tratados como intercambiables.

Antes de que me cierres tus canales de comunicaciones por ser una especie de ludita moderno, permíteme dejarte bien claro que no soy contrario al progreso ni a la tecnología. La innovación es lo que hace a la humanidad ser tan grande – y lo que nos permitió acceder a este vasto universo en primer lugar. Es un hecho que el progreso en general requiere que se corran riesgos.

El problema reside en que con frecuencia enfocamos la tecnología llevando puestos un conjunto de anteojeras en lo que respecta a lo que ha sucedido antes, ya sea porque el resultado final es más importante que los cuentos con moraleja o porque somos tan orgullosos que estamos convencidos de que esta vez lo haremos mejor. Con pocas excepciones, cada generación está más avanzada que la anterior, y por lo tanto creemos que no es posible que erremos en la misma forma que lo hicieron nuestros padres. Así que aquí estamos de nuevo. La nueva iniciativa IA de ArcCorp, la cual ha sido duramente debatida desde su anuncio hace dos semanas, hace parecer de nuevo que estamos avanzando hacia los mismos pozos en los que cayeron nuestros antepasados.

No puede ser que acabemos cometiendo los mismos errores.

Algunas veces ni siquiera es culpa nuestra que olvidemos. Llevó casi diez años de investigación de los medios sonsacarle la verdad al gobierno de que, tal vez, posiblemente (el sarcasmo es mío) la IA en el proyecto de terraformación había sido la causante de la catastrófe marciana del 2125. Para entonces, nadie quería oír hablar de eso.
Por supuesto, ese ni siquiera había sido el primer desastre causado por una IA. Ese honor lo tiene el así llamado incidente de los “coches lemming” que tuvo lugar en 2044 en Tokio. Pero menos de 100 años después, el gobierno decidió que había logrado arreglar todos los fallos en los sistemas IA y envió unos cuantos a Marte. Evidentemente, no nos dijeron nada al respecto, solo en caso de que estuvieran equivocados.

Lo estaban.

Y luego sólo un poco más de 100 años después de la catástrofe marciana (¿estamos viendo una tendencia aquí, amigos?) llegó la Artemis. Janus. Incluso con el grandioso espectáculo del lanzamiento, tenía que haber alguien en algún sitio que se sintiera nervioso ante la idea de que todavía siguiéramos pisando el peligroso camino de la inteligencia artificial. Pero esta vez, estaban completamente seguros de que no habían cometido ningún error.

Es cierto que no estamos seguros de que la desaparición de 5000 personas fuera totalmente culpa de la IA, pero es indudable que tuvo que haber desempeñado un papel.
Con un fracaso tan público, el genio volvió al interior de la botella por un tiempo. Pero no habíamos terminado. La UEEN se limitó a trabajar en secreto cuando lanzaron su último proyecto fallido de IA. Documentos recientemente desclasificados muestran lo cerca que estuvimos de la guerra durante lo que acabó siendo conocido como el Incidente Horus. Trabajando en conjunto con Aegis, la Armada desplegó a lo largo del frente Xi’An una escuadrilla de prototipos de bombarderos Overlord pilotados por IA. Tenían buenas intenciones: era un intento de devolver a casa a pilotos que habían estado destinados a lo largo de la Línea Perry durante toda su carrera. Pero cuando los bebés de un billón de créditos de Aegis decidieron que sus comunicaciones habían sido interferidas y las apagaron – justo a tiempo de no recibir su orden de regresar a base – tuvimos que perseguir y destruir nuestro error, lo que supuso la sentencia de muerte para Aegis en la industria de construcción de naves. De nuevo, no estamos completamente seguros de que los bombarderos nos hubieran abocado a una guerra abierta con los Xi’An al deambular sin supervisión por la zona neutral, ¿pero qué es lo que podrían haber hecho?

Por supuesto, el Imperator intentó mantener todo el embarazoso incidente fuera del Espectro. A pesar de todo, por lo menos pareció que habíamos finalmente aprendido a sentir un saludable temor a volver utilizar las IA en nuestras naves nunca más.

Ahora es el turno del sector corporativo de creer que no repetirá los errores de pasadas generaciones.

ArcCorp nos asegura que sus IA serán capaces de aprender, lo que les permitirá tener éxito donde otras han fracasado. (¿Dónde hemos oído eso antes?) Pero aquí está el meollo: los humanos también saben hacer eso. Necesitan poseer años de experiencia, entrenamiento específico, y las licencias adecuadas antes de poder aventurarse en el espacio. Pero ArcCorp quiere una vez más enviar el equivalente artificial de niños a pilotar gigantes naves espaciales por la inmensidad de nuestro imperio interestelar.
Oye, es el progreso. Protege vidas humanas. Tiene que hacerse.

¿Por qué no aprendemos nunca?

FIN DE LA TRANSMISIÓN

Original.