martes, 13 de febrero de 2018

LAS PERSONAS ELECTRONICAS. INTELIGENCIA ARTIFICIAL EN LA ABOGACIA DEL FUTURO.

Las personas electrónicas

José María ANGUIANO
Socio de Garrigues
Diario La Ley, Nº 14, Sección Ciberderecho, 18 de Enero de 2018, Editorial Wolters Kluwer
LA LEY 500/2018
 
Resumen
La inteligencia artificial supone que las máquinas tengan independencia cognitiva (aprendan de forma autónoma) e interactúen con su entorno transformándolo. Además, la computación neuronal hace que la actuación de las máquinas se vuelva impredecible. Todas estas circunstancias aconsejan una revisión de los esquemas clásicos de responsabilidad civil abriendo la posibilidad de dotar a las máquinas más autónomas de personalidad jurídica independiente, otorgándoles derechos remuneratorios e imponiéndoles obligaciones fiscales y resarcitorias.
Ley de Amara: Tendemos a sobreestimar el efecto de la tecnología en el corto plazo y a subestimarla a largo plazo.
Roy Charles Amara
I. Introducción
No es lo mismo la concepción natural de la persona que la legal. La primera ha permanecido invariable en el tiempo. La distinción entre personas, animales y objetos es nítida para cualquiera de nosotros y también que los animales y los objetos no gozan de los mismos derechos que los humanos.
La distinción sin embargo no es tan clara desde una perspectiva jurídica. El concepto legal de persona ha ido variando con el tiempo. En el pasado, tal consideración no se adquiría de forma automática al nacer sino que había otras circunstancias que la condicionaban. Así, la nacionalidad, etnia, religión, cultura o género de los individuos ha venido condicionando el disfrute de derechos tan fundamentales como la vida, el derecho a contraer matrimonio o a la propiedad privada. En definitiva, una cosa era ser de la especie humana y otra distinta adquirir la personalidad jurídica propia de esa especie.
En la actualidad, el art. 30 del Código Civil (LA LEY 1/1889) dispone que la personalidad se adquiere en el momento de nacimiento con vida, una vez producido el entero desprendimiento del seno materno.
En el art. 29 del mismo texto se otorgan derechos al concebido no nacido, al nasciturus. Derechos adquiridos cuando se es concebido y cuyo efectivo disfrute se condiciona a la adquisición de personalidad jurídica plena; en el momento del nacimiento.
Con el tiempo las personas físicas se dan cuenta que uniendo fuerzas y actuando en común pueden abordar objetivos de imposible asunción aislada. Surgen así las personas jurídicas o morales que no son sino una creación jurídica para asignar derechos y obligaciones a las reuniones de individuos con un objetivo común.
La noción de persona jurídica se mantuvo en un plano secundario hasta el siglo XIX cuando el capitalismo moderno impulsó la necesidad de crear estructuras asociativas complejas. La utilización de la persona jurídica no sólo permitió la reunión de grandes capitales con los que se afrontó la realización de empresas económicas inaccesibles para individuos aislados. También permitió la acumulación de poder económico en manos de quienes gobernaban el capital de la entidad, traduciéndose en no pocas injusticias así como en la agudización de la llamada cuestión social, con expresa reprobación en las encíclicas de los Papas León XIII y Pío XI.
El auge del capitalismo así como las posibilidades de actuación derivadas de la asignación de personalidad jurídica a las sociedades mercantiles, han propiciado fascinantes debates jurídicos sobre la naturaleza de esta institución así como sobre su responsabilidad y la de sus órganos de gobierno.
Así las cosas, a día de hoy es más o menos clara la diferencia entre personas físicas jurídicas, animales y objetos. Sin embargo, la evolución tecnológica hace que de nuevo tengamos que replantearnos el esquema:
II. Inteligencia artificial
Hace unos meses una división de la multinacional norteamericana Google, —Google Deep Mind— anunciaba que una máquina de su creación, denominada «AlphaGo Zero» había ganado a su predecesora (una versión anterior de la máquina —AlphaGo—) por un contundente 100 a 0. Tanto la primera como la segunda versión son máquinas diseñadas para jugar a un juego de mesa conocido como «Go».
Se trata de un juego de origen chino, más complejo que el ajedrez, que se juega en un tablero de 19x19 casillas con fichas blancas y negras, cada color de un jugador. Es un juego de estrategia. El objetivo es rodear con tus piedras un área mayor del tablero que el oponente. Las negras inician la partida colocando la primera piedra. Una vez colocada, permanece sin moverse durante el resto de la partida. Una piedra o cadena de piedras del mismo color es capturada y retirada del juego si después de una jugada no posee intersecciones; se encuentra completamente rodeada por piedras del color con el que juega el rival. Gana la partida, el jugador que la termine con mayor territorio.
A pesar de que las reglas del «Go» son simples, la estrategia es extremadamente compleja y supone manejar muchas variables, algunas contradictorias. Por ejemplo, ubicar piedras juntas ayuda a mantenerlas conectadas. Por otro lado, colocarlas separadas hace que se tenga influencia sobre una mayor porción del tablero y abre la posibilidad de apropiarse de un territorio más extenso. La dificultad estratégica del juego está en equilibrar ambas alternativas. Los movimientos de los jugadores son tanto ofensivos como defensivos y deben combinar tanto tácticas de urgencia como planes a largo plazo.
AlphaGo, la primera máquina diseñada para jugar a este juego, fue entrenada basándose en la experiencia humana. Se alimentó con los datos de miles de partidas y millones de movimientos de jugadores humanos. Tras el entrenamiento fue capaz de ganar, en marzo de 2016, a Lee Sedol; campeón mundial de Go.
La nueva versión desarrollada por DeepMind, —AlphaGo Zero— ejecuta un nuevo algoritmo que le permite aprender a jugar sin previo entrenamiento supervisado. Este algoritmo se sustenta en una red neuronal basada en el «aprendizaje por refuerzo»: la máquina se auto-enseña practicando consigo misma hasta alcanzar una capacidad muy superior a la de sus previas versiones. Hace lo mismo que el Doctor B, personaje del relato «La novela de ajedrez» escrita por Stefan Zweig en 1941. Doctor B es sometido por los nazis a un aislamiento total, sin siquiera lectura. Solo consigue sortear la locura gracias a un manual de ajedrez que cae en sus manos de manera fortuita. Memoriza cada partida, analizando posibles variaciones en cada movimiento, logrando la capacidad de que su cerebro se bifurque en dos jugadores distintos —el jugador de las blancas y el de las negras—. De esta forma puede jugar una vez tras otra contra sí mismo. Tras su liberación, derrota con facilidad al campeón mundial de ajedrez.
Lo anterior supone que se han creado ingenios capaces de aprender de la experiencia humana (machine learning) y sobre todo máquinas con independencia cognitiva, que adquieren conocimientos de forma autónoma; sin el concurso humano (Deep learning). En definitiva, supone la constatación de que la inteligencia artificial es una realidad. Por ello, unos cuantos países ya han empezado a prever e incluso regular las consecuencias de lo que se ha dado en denominar la 4.ª revolución industrial.
III. Deep learning y la computación neuronal
¿Cómo consigue AlphaGo Zero emular al doctor B y, sin previa supervisión humana, adquirir esa destreza en el juego? Pues con algoritmos matemáticos y modelos de computación neuronales.
Las redes neuronales, también conocidas como «sistemas conexionistas», son modelos computacionales que se basan en un elevado número de neuronas artificiales, conectadas unidireccionalmente entre sí y formando un número aleatorio de capas. Asemejan el funcionamiento de las neuronas cerebrales, distinguiéndose en ambas tres capas claramente diferenciadas. Mientras nuestras neuronas adquieren la información a través de la dendritas, hay una capa de procesamiento oculto (soma) y hay otra capa de salida de la información en dirección a otras neuronas (axón) —Figura 1—. En las neuronas artificiales se distingue claramente la capa de entrada de información, la de procesamiento oculto y la de salida de esta con dirección a otras neuronas artificiales. —Figura 2—. Generalmente las conexiones se realizan entre neuronas de distintas capas, pero puede haber conexiones intra-capa o laterales y conexiones de realimentación que siguen un sentido contrario al de entrada-salida. Cada una de las neuronas artificiales cuenta con una memoria local capaz de albergar funciones que procesan la información recibida. Cuentan así mismo con una función de transferencia que permite que, en función de las entradas y la ejecución del código de la memoria, se produzca una salida y/o una alteración de la memoria local (reescritura de código). Como ellas mismas, en función de su propia experiencia, pueden reescribir el código de su memoria interna, su actuación en el entorno se vuelve impredecible. Nadie sabe de antemano cual va a ser la reescritura que las neuronas artificiales van a realizar al código de su memoria interna y por lo tanto nadie sabe cuál va a ser la concreta actuación de la máquina.
 
 
IV. Interrogantes que suscita la Inteligencia Artificial
Los peligros asociados a la robótica y a la inteligencia artificial ya eran objeto de análisis cuando el fenómeno sólo era ciencia ficción. En el año 1942 Isaac Asimov comenzó a incorporar en sus novelas lo que denominó «las tres leyes de la robótica» que no son sino un conjunto de normas elaboradas por el escritor, que en sus novelas deben ser incorporadas en el código de los robots y que sirven para contrarrestar el complejo de Frankenstein (que las máquinas se alcen contra sus creadores). Son tres sencillas normas:
  • 1.- Un robot no hará daño a un ser humano o por inacción permitirá que un ser humano sufra daño.
  • 2.- Un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1.ª ley.
  • 3.- Un robot debe proteger su propia existencia en la medida en que esa protección no entre en conflicto con la 1.ª o la 2.ª leyes.
Setenta y cinco años después cobran plena vigencia. El mundo empieza a plantearse la necesidad de leyes actualizadas a la realidad no ficticia que nos toca vivir. En este contexto, el 31 de mayo de 2016, la Comisión de Asuntos Jurídicos del Parlamento Europeo publicó un proyecto de informe en el que da recomendaciones a la Comisión para que analice la posibilidad de promulgar normas de derecho civil que den respuesta a los paradigmas que la robótica suscita en esta jurisdicción. El proyecto de informe enumera los considerandos que aconsejan la promulgación de este tipo de regulación.
Para esta Comisión estamos a las puertas de una nueva revolución industrial. De una era de robots, bots, androides y de otras formas cada vez más sofisticadas de inteligencia artificial que van a afectar transversalmente a todos los estratos de la sociedad. Por un lado van a traer eficiencia y ahorro y a evitar que los humanos se expongan a situaciones peligrosas. Sin embargo, también es cierto que el desarrollo de la robótica e inteligencia artificial puede hacer que los robots asuman gran parte del trabajo que ahora realizan los seres humanos, lo que plantea interrogantes sobre la empleabilidad o la viabilidad de los sistemas fiscales y de seguridad social. También preocupa la seguridad física de los humanos frente a fallos o ataques deliberados a estos ingenios, o como se ha visto, la condición cada vez más autónoma y por lo tanto impredecible de las máquinas. También suscita interrogantes la privacidad de los humanos, no sólo por el uso que se pueda hacer de sus datos sino incluso por su propiedad. Lo mismo ocurre con la robótica asistencial en relación a los efectos que la inteligencia artificial pudiera tener en la dignidad de los humanos con los que interactúa. Sin embargo, la principal inquietud del europarlamento es el futuro; el momento en que las máquinas superen la capacidad intelectual humana (singularity day) que podría suponer un desafío a la capacidad de la humanidad de controlar su propia creación y, por ende, quizás también a la capacidad de ser dueña de su propio destino y garantizar la supervivencia de la especie.
Además, el Parlamento Europeo avisa de que otros países no comunitarios se plantean o han iniciado procesos legislativos y que no quiere que los Estados miembros pierdan el control normativo sobre estas materias, viéndose así obligados a adoptar normas de terceros países ajenos a la Unión.
V. La imputación de responsabilidad civil extracontractual y las máquinas
Muchos de los interrogantes suscitados por la Inteligencia artificial requieren atención legal. Se anticipan nuevos retos vinculados a la privacidad, la propiedad intelectual de las creaciones de las máquinas o a la responsabilidad civil derivada de su fabricación o uso. Sobre el último, la inminente irrupción de los medios de transporte autónomos o la creciente autonomía de las máquinas aconsejan adoptar medidas que prevean y regulen las consecuencias de su uso y muy especialmente la imputación de responsabilidad extracontractual que pudiera derivarse de este.
Antes de incorporar la Inteligencia Artificial a la ecuación, recordar someramente el esquema de responsabilidad extracontractual clásico en los supuestos en los que la producción del daño está vinculada a la fabricación y uso de máquinas.
La creciente industrialización ha propiciado el estudio de la responsabilidad derivada del uso de máquinas y otros instrumentos. La automatización de los procesos de fabricación de objetos susceptibles de ocasionar daños a terceros así como la prestación de servicios con distintos grados de automatización, ha requerido atención normativa y jurisprudencial. La conclusión es invariable; imputación de la responsabilidad civil al principal en cuyo beneficio haya funcionado la máquina.
Efectivamente, una nota aclaratoria de UNCITRAL a la redacción dada al art. 12 de la Convención de la Naciones Unidas sobre el uso de las comunicaciones electrónicas en los contratos internacionales de 23 de noviembre de 2005, explicita que el art. 12 establece un principio general según el cual la persona (natural o jurídica) en cuyo beneficio haya sido programado el sistema debe ser la responsable última de cualquier mensaje generado por la máquina. Dice:
El art. 12 es una provisión habilitadora y no debe ser interpretada como que un sistema de mensajes automatizados o computadoras sean sujetos de derechos y obligaciones. Las comunicaciones electrónicas generadas por un sistema automatizado o por una computadora deben ser considerados como originados por la entidad legal que los opera.
La normativa y jurisprudencia patrias no contravienen este principio general, imputándose responsabilidad vicaria a los que se benefician del funcionamiento de la máquina, dándose la circunstancia —art. 8 del mismo Convenio— que se permite la vinculación entre máquinas, pero sin otorgarles entidad jurídica.
La responsabilidad extracontractual o aquiliana es la que surge cuando una persona causa, por hechos propios o de un tercero del que responde, o por una cosa de la que es propietario o usuario, un daño a otra persona con la que no estaba ligada por vínculo contractual.
La obligación de reparar el daño causado surge cuando se dan cuatro presupuestos: Además de la existencia de un comportamiento causante del daño, el daño en sí y el nexo causal entre ambos, se tiene que poder imputar ese comportamiento de acuerdo con los criterios normativa y doctrinalmente admitidos.
La doctrina utiliza dos fundamentales criterios para atribuir a un sujeto distinto de la víctima el daño sufrido por esta; el criterio subjetivo, basado en la culpa o negligencia y el objetivo, basado en la actividad desarrollada.
En definitiva, si se trata de un caso de fuerza mayor, no se imputará responsabilidad. Cuando el daño haya sido producido como consecuencia de un uso negligente de la máquina se imputará responsabilidad a quien la usaba cuando se produjo la circunstancia causante del daño. Cuando sea consecuencia de un inadecuado diseño o un defecto constructivo, la responsabilidad será del fabricante. Si el daño se produce por un deficiente mantenimiento de la máquina, la responsabilidad será del propietario o usuario de esta en función de los acuerdos que estos hayan alcanzado.
En la medida en que exista una norma que habilite para ello, se puede determinar que las actividades desarrolladas por las máquinas entrañan riesgos que aconsejen la imputación objetiva de su fabricante, propietario o usuario, sin necesidad de acreditar culpa o negligencia alguna por su parte.
Este es en esencia el esquema de imputación de la responsabilidad extracontractual cuando se producen daños derivados del uso de máquinas. Este esquema de imputación es posible porque se conocen las características de las máquinas, las que las hacen aptas para las concretas actividades para las que fueron diseñadas. El diseño permanente y unas funcionalidades constantes permiten establecer esquemas coherentes de imputación de la responsabilidad civil por el daño producido.
 
 


 
VI. Responsabilidad civil e inteligencia artificial
 
¿Y si la actuación de las máquinas no tuviese que ser necesariamente constante y predecible? ¿Y si las máquinas fuesen diseñadas para actuar de forma autónoma, sin ningún tipo de injerencia humana? Imaginen máquinas que aprenden por sí mismas y que pueden actuar en el entorno sin previa indicación humana. Se entiende que resulta transcendente para imputar responsabilidad civil a la máquina cuando esta: (i) tiene autonomía cognitiva (aprende de forma independiente), (ii) interactúa con el entorno y (iii) es capaz de modificar de forma significativa el entorno con el que interactúa. Imaginen por ejemplo los sistemas informáticos inteligentes que en la actualidad toman decisiones sobre la compra o venta de acciones y las ejecutan. Tienen autonomía cognitiva, interactúan con el entorno y lo modifican.
Si bien es cierto que la máquina en principio actúa en beneficio de personas físicas o jurídicas concretas, también lo es que esta tecnología no sólo entraña riesgos; también oportunidades que invitan a incentivar la investigación e inversión en ellas. Así las cosas, los que fabriquen o usen máquinas inteligentes han de tener garantías de que además de asumir las responsabilidad de que el producto sea defectuoso, de que se haya usado de forma negligente o temeraria y de que la actividad desarrollada por la máquina resulte anormalmente arriesgada, no vayan también a asumir íntegramente los daños ocasionados por la condición autónoma e imprevisible de la máquina. Como es reiterada doctrina de la Sala 1.ª del TS, nuestro esquema de imputación se basa en la culpa o negligencia, quedando el criterio de imputación objetiva para los casos previamente tasados, al resultar difícil en estos supuestos la imputación de responsabilidad a quien es ajeno a los hechos causantes del daño.
La determinación del grado de autonomía de la máquina es esencial para establecer esquemas de responsabilidad. El Parlamento Europeo entiende la autonomía como la capacidad de la máquina de tomar decisiones y aplicarlas en el mundo exterior sin influencia externa. Considera que cuando más autónomas sean las máquinas menos se les podrá considerar como simples instrumentos en manos de humanos (fabricante, propietario o usuario). En la medida en que las máquinas sean auténticamente autónomas, la normativa en vigor no será suficiente para determinar quién tiene que indemnizar y exigirle que lo haga. El motivo, como ya hemos comentado, es que las máquinas se vuelven impredecibles y resulta difícil imputar responsabilidad a quien es ajeno a la actuación que origina el perjuicio. Son impredecibles porque su comportamiento futuro depende de una previa experiencia que es variable y desconocida en el momento de creación de la máquina. Son también impredecibles porque cuando la computación es neuronal, la máquina puede llegar a reescribirse automática y aleatoriamente en función de los resultados obtenidos.
La Comisión del Parlamento Europeo pide que se exploren las distintas soluciones jurídicas al paradigma de responsabilidad civil que se presenta tales como (i) establecer para las máquinas un régimen de seguro obligatorio similar al establecido para los automóviles, (ii) establecer un fondo de compensación para reparar daños causados ante la ausencia de seguro y que permitiese operaciones financieras en interés de las máquinas, (iii) establecimiento de un régimen de responsabilidad limitada para el fabricante, propietario o usuario de la máquina, en la medida en que su responsabilidad esté complementada por el referido fondo de compensación, (iv) crear un registro de máquinas en la Unión en el que exista un número de inscripción individual por cada máquina y que vincule a cada una de ellas con el fondo de compensación al que se asocie, de tal forma que todos los usuarios de la máquina puedan conocer la naturaleza y límites de responsabilidad de dicho fondo, (v) crear una personalidad jurídica específica para las máquinas más autónomas de tal forma que puedan ser consideradas como personas electrónicas con derechos y obligaciones específicas.
En definitiva, la Comisión propone solucionar los problemas de imputación de responsabilidad inherente a la impredecibilidad de las máquinas autónomas, dotándoles de personalidad jurídica específica. Esta circunstancia permitiría atribuir a las máquinas derechos remuneratorios; como pago por los servicios prestados y dos tipos de obligaciones: fiscales; que contribuirían a sufragar una renta universal para los humanos desempleados y resarcitorias de los perjuicios ocasionados por su uso.
Es por otro lado previsible que coexistan ambos esquemas. No cabe duda que las máquinas podrán seguir siendo utilizadas de forma negligente o incluso temeraria y también podrán haber sido diseñadas o construidas de forma defectuosa o haber sido inadecuadamente mantenidas. También es posible que ante la ausencia de causas de imputación subjetivas del fabricante, propietario o usuario de la máquina, pueda resultar conveniente la imputación directa de estas. De esta forma a lo mejor llegamos a conocer a las personas electrónicas.

 

No hay comentarios:

Publicar un comentario

Gracias por opinar.