top of page
gustavo1756

Contratos inteligentes y protocolos nucleares

En 1997 el profesor de derecho y ciencias de la computación, Nick Szabo, escribió un ensayo titulado “La idea de los contratos inteligentes” en el exponía como muchos contratos podían integrarse en dispositivos que hicieran costoso el incumplimiento. Para ilustrar su punto ponía como ejemplo las máquinas expendedoras. Esos dispositivos que permiten realizar transacciones de forma automática y que deben su éxito a su capacidad para disminuir el costo de transacción al permitir que cualquiera pueda adquirir un producto sin el costo de tener a una persona esperando todo el día al cliente.

Si bien la posibilidad de un dispositivo que ejecute contratos automáticamente no es realmente novedosa, el surgimiento y éxito de bitcoin llevó el término de contrato inteligente a otro nivel. La tecnología blockchain (que expliqué en esta entrada) permitió la creación de contratos que una vez creados no puedan ser alterados por ninguna de las partes, que pueden programarse para dar acceso a un activo digital de forma automática, realizar y verificar pagos u otras condiciones.

Estas características han llevado a que muchos afirmen que los contratos inteligentes son el futuro de la justicia. Una forma de ejecutar las obligaciones sin necesidad de la burocracia de los jueces humanos. Quienes promocionan estos argumentos profetizan un mundo en el que el internet de las cosas estará tan avanzado que la maquina podrá garantizar las obligaciones. Un mundo en que el vehículo totalmente conectado a internet no encenderá si la billetera virtual desde la que se debe realizar el pago de la cuota no tiene fondos. Una forma de embargar a quien no paga sin necesidad de acudir a jueces y policías.

Personalmente, considero que esta pretensión es demasiado optimista. Un contrato inteligente debe ser redactado en un lenguaje complejo. Si los contratos escritos en idiomas humanos presentan incoherencias y errores, los redactados en un lenguaje de programación no se salvan de las equivocaciones de escritura y de la lógica implacable de las maquinas. Mientras que los jueces pueden usar criterios de interpretación amplios que buscan encontrar la voluntad original de las partes, un computador actúa aun cuando la instrucción que recibe no tenga sentido. Para entender la diferencia en la interpretación de humanos y maquinas, veamos el ejemplo de dos formas de reaccionar ante un protocolo nuclear.

Stanislav Petrov era un oficial de las tropas de Defensa Área Soviética encargado del sistema satelital de alerta temprana ante ataques nucleares. El 26 de septiembre de 1983 las computadoras del búnker en el que trabajaba le informaron que un misil había sido disparado por Estados Unidos en contra de su país y dentro de pocos minutos causaría una explosión nuclear en alguna ciudad de la Unión Soviética. Las instrucciones eran claras. El deber del Teniente Coronel Petrov era notificar a sus superiores para que iniciaran una respuesta proporcional. Debía poner en marcha la más horrible de las políticas de la guerra fría, la destrucción mutua asegurada.

Sin embargo, Stanislav Petrov no cumplió con sus órdenes. Aunque el informe del satélite era claro el oficial concluyo que se trataba de un error. Su experiencia le decía que cualquier ataque estadounidense debía ser masivo. No tenía sentido disparar un solo misil cuando la Unión Soviética estaba en capacidad de responder inmediatamente. Minutos después los satélites reportaron el disparo de otros cuatro misiles. Nuevamente, Petrov siguió convencido de que se debía tratar de un mal entendido y no puso en marcha el plan de respuesta. Los minutos pasaron y ningún misil nuclear estallo, lo que confirmo que sus conclusiones eran correctas. Todo se trató de un extraño error en el sistema satelital.

Cuando presentó el informe a sus superiores fue felicitado por su buen juicio, su prudencia había salvado a la humanidad. A pesar de su acierto fue discretamente retirado de su cargo y asignado a una función menor, pues se mostró “demasiado precavido”. Décadas después, cuando las tensiones de la guerra fría terminaron se le reconoció y condecoró como merecía. Su buen juicio había salvado a la humanidad del holocausto nuclear.

El ejemplo contrario lo tenemos en un programa de computador, el clásico juego de estrategia para computador Civilization. Si bien es un programa recreativo que no tiene el rigor de un protocolo nuclear real, nos permite entender cómo funciona la lógica formal de los computadores. El objetivo del juego es administrar un país simulado con un sistema económico y una fuerza militar para defenderlo o atacar a otros jugadores. Los programadores incluyeron una serie de inteligencias artificiales (IA) que servirían como adversarios al jugador humano. Las IA corrían una serie de algoritmos para tomar una decisión. Dentro de esos algoritmos se encontraba un indicador de agresión que iba de 1 a 10, siendo uno la paz total y diez la mayor agresividad posible.

El juego usaba a varias personalidades históricas como inspiración para las IA, dentro de los que se encontraba el líder indio Mahatma Gandhi. Este Gandhi virtual tenía el menor nivel de agresión posible. La programación del juego permitía que el nivel de agresión se almacenara en un espacio de 8 bits, lo que permitía guardar números enteros entre 0 y 256. Como el bot de Gandhi tenía el mínimo nivel de agresión, cualquier cosa que el jugador hiciera para mejorar las relaciones con la India hacía que el personaje de Gandhi restara unidades de su contador de agresividad. Como la programación no permitía números negativos al restar unidades inferiores a 1 el sistema empezaba a contar hacia atrás, primero 256, luego 255 y así sucesivamente. El resultado, Gandhi pasaba sin ninguna provocación de un estado de paz incondicional a ordenar un ataque nuclear inmediato.

El error de programación que daba lugar al nuclear Gandhi se convirtió en una broma entre los jugadores de Civilization. Nadie entendía por qué el pacífico líder de la India entraba en un frenesí atómico de un momento a otro. Aunque el juego original fue programado en 1991, solo hasta 2012 los aficionados encontraron el motivo del errático comportamiento del Gandhi virtual. Es un fallo inocente sin mayores consecuencias, pero que muestra lo fácil que es equivocarse para un programa informático.

Aunque los contratos inteligentes son una herramienta útil, que actualmente están más presentes de lo que imaginamos en nuestro día a día, las sutilezas de las relaciones y voluntad humana aún se les escapan. La eficiencia de un algoritmo es limitada y sigue siendo fundamental disponer de sistemas de administración de justicia que busquen la imparcialidad y celeridad en la solución de conflictos. Mientras que las maquinas sigan operando con la lógica de Nuclear Gandhi, seguiremos necesitando de humanos correctamente instruidos sobre la interpretación de los contratos y las relaciones humanas.

24 visualizaciones0 comentarios

Entradas recientes

Ver todo

Comments


bottom of page