Recensión a Martín D. Haissiner y Daniel R. Pastor, “Neurociencias, tecnologías disruptivas y tribunales digitales”, Hammurabi, 1ª edición, Buenos Aires, 2019, pags. 124

Download PDF

Autoras: Giuliana Morano y Ana Clara Rivero
Fecha de publicación: 27 Nov, 2019
Temas: Recensiones, Neurociencias, Tecnologías disruptivas, Tribunales digitales, Inteligencia artificial

 

I. Introducción

El derecho acompaña siempre a los cambios sociales, económicos y culturales, pero para entender estos cambios debemos hacer un análisis profundo que permita conocer sus razones y así poder actuar en sus consecuencias.

A través de la globalización se produjeron en el mundo transformaciones sociales, económicas y políticas con escala global. Como todo proceso, tuvo un carácter dinámico que ha abierto también sus puertas a una revolución tecnológica.

El libro Neurociencias, tecnologías disruptivas y tribunales digitales crea un espacio de análisis de estas innovaciones que, principalmente durante los últimos años, fueron creciendo de forma mucho más efervescente. Así, Daniel Pastor y Martín Haissiner, ambos integrantes del Instituto de Neurociencias y Derecho de la Fundación Ineco, proponen a través de sus páginas un estudio científico que permite explorar el derecho mediante la aplicación del saber neurocientífico y la utilización de las tecnologías modernas.

La obra se divide en cinco capítulos que serán desarrollados a lo largo del presente trabajo.

El primero, “Cerebro, máquina y derecho”, plantea una introducción a un tema —todavía en etapa de desarrollo—, sus objetivos y la posibilidad de explorar otros campos del saber a fin de lograr un perfeccionamiento de las prácticas legales y judiciales[1].

El segundo, “La explosión tecnológica”, se centra principalmente en las tecnologías disruptivas y la inteligencia artificial, haciendo un estudio histórico para poder comprender los avances e innovaciones en la materia[2].

El tercero, “Las fotomultas y el juez Dredd”, estudia la aplicación de las nuevas tecnologías a la responsabilidad jurídica, a través de una mirada crítica y respetuosa de los derechos humanos de las personas que se hallan sometidas a un proceso[3].

“Un ejemplo de resolución computacional: La calculadora de la prescripción”, el cuarto capítulo, muestra un experimento realizado en el marco de una investigación llevada a cabo por el Instituto de Neurociencias y Derecho de la Facultad de Derecho de la Universidad de Buenos Aires que vislumbra con claridad las ventajas de la aplicación de la inteligencia artificial al mundo del derecho[4].

Finalmente, el último capítulo, “Hacia una máquina boca de ley” plantea a modo de conclusión los beneficios que trae la aplicación de las nuevas tecnologías a nuestra disciplina, haciendo además un análisis profundo sobre sus desafíos y la posibilidad de atenuar sus aspectos negativos para lograr un sistema de justicia eficaz y más rápido para todos[5].

 

II. Cerebro, máquina y derecho

Este fue el título elegido por los autores para adentrar al público lector en el mundo del saber neurocientífico y su relación con el derecho. Así, bajo el propósito de “explorar la posible aplicación de la sabiduría neurocientífica actual al viejo oficio de juzgar al prójimo”[6] por medio de la utilización de la informática moderna, se busca poder perfeccionar las prácticas legales y judiciales.

El libro está dirigido, fundamentalmente, a quienes tienen en sus manos el enorme trabajo de impartir justicia, es decir, al poder judicial. En efecto, plantean que el trabajo de los tribunales no podría ser comprendido, ni sus problemas resueltos de manera satisfactoria, sin la contribución de las neurociencias[7]. Ello, en tanto las personas que tienen el poder de juzgar a las demás requieren de una comprensión acerca de cómo se comportan los seres humanos y por qué razones actúan y, sin este entendimiento, sus decisiones jamás serían aceptadas por las personas como válidas, sino más bien vistas como actos de poder[8].

Para esta labor, es importante tener presente los descubrimientos tecnológicos, pues pueden ofrecer una mejora a las prácticas judiciales. Si bien es cierto que fueron sucediendo de forma paulatina, durante las últimas décadas tuvieron un salto exponencial hasta llegar al desarrollo de la inteligencia de las máquinas[9].

Los autores plantean dichos avances teniendo en cuenta que las máquinas poseen un tipo de inteligencia: la del razonamiento automático, que hoy en día parecería imposible asimilar al razonamiento humano, pues el cerebro funciona analógicamente[10].

Precisamente, las neurociencias, al estudiar el comportamiento decisorio de los seres humanos, demostraron la función que las emociones, los prejuicios y los traumas cumplen en un proceso de toma de decisiones[11].

En consecuencia, no podemos negar el gran avance tecnológico que ha ido creciendo de forma exponencial y disruptiva este último tiempo y el vínculo entre el mundo jurídico con los nuevos dispositivos. De manera tal que “existen dos motores que impulsan cambios necesarios en el mundo del derecho: las neurociencias, que explican el funcionamiento personal y colectivo de los seres humanos; y las tecnologías disruptivas, que aportan artificios cada vez más eficientes para el mejor desempeño de todas las actividades humanas”[12]. Estas últimas están edificando un nuevo modo de resolver las controversias judiciales y la idea sobre cómo hacer justicia.

 

III. La explosión tecnológica

A los fines de poder explicar de forma dinámica y entretenidas las ideas, los autores proponen en este capítulo un análisis género – especie.

Así, el género sería la tecnología, entendida como “un campo que nuclea los saberes y técnicas que permiten el aprovechamiento práctico o aplicado de los conocimientos científicamente corroborados”.[13]

En cuanto a la especie, durante el último tiempo entró en escena un concepto central que modificó la visión de la humanidad sobre las invenciones: la inteligencia artificial o la inteligencia de las máquinas[14].

Los autores se centran en la tecnología moderna, haciendo un análisis de sucesos históricos en el mundo del ajedrez y videojuegos, en los que las máquinas vencieron a los primeros profesionales del mundo. Con sus estudios hacen referencia al paso desde el funcionamiento de las máquinas con la utilización de la fuerza bruta —apoyándose en procesadores de alta velocidad que son inherentes a las máquinas— hacia la inteligencia artificial como un modo de réplica del pensamiento propio de los humanos[15].

En cuanto a las tecnologías que integran la inteligencia artificial y, en consecuencia, aquellas que modificaron radicalmente la perspectiva que se podría tener de las computadoras, se puede destacar el machine learning y el deep learning. Mientras la primera se basa en algoritmos que descomponen información, aprenden de ella y luego aplican dicho aprendizaje para tomar decisiones informadas, la segunda es una creación de un sistema para analizar información con una estructura lógica similar a la de los seres humanos. A esos fines, deep learning se vale de una estructura de algoritmos llamados redes neuronales artificiales. Nuevamente, se observa una relación entre las neurociencias y las tecnologías disruptivas incorporando una de las características humanas más relevantes que fueron agregadas a las computadoras, como lo es la habilidad de aprender, para incorporar datos, procesarlos y realizar con ellos diversas tareas de forma inteligente[16].

 

IV. Las foto-multas y el Juez Dredd

Bajo este título, los autores introducen al público lector en el análisis de un sistema normativo sancionador que ya procede por medio de máquinas: la imposición de multas por infracciones de tráfico, más conocida como foto-multas[17].

Así, comparan este sistema con un personaje ficticio del cómic de un autor británico, ambientado en un mundo futuro y distópico —bastante violento—. Bajo el lema “I am the law”, el Juez Joseph Dredd es un funcionario estatal que actúa como policía, fiscal, juez, jurado y verdugo. En el derecho vigente de la ciudad MegaCityOne, este personaje se encuentra facultado para detener, condenar e incluso ejecutar a los criminales en el acto de descubrirlos cometiendo un delito[18].

Para los autores, el sistema de foto-multas funciona de un modo similar. A través de un dispositivo, este mecanismo detecta el hecho generador de responsabilidad jurídica a través de la “obtención automatizada de fotografías” de cualquier vehículo que cometa una infracción merecedora de una multa. De esta manera, el dispositivo puede determinar cuándo un vehículo excede la velocidad máxima permitida o la cantidad de pasajeros que un coche debe obligatoriamente contener para circular lícitamente por una vía rápida, comprueba el ingreso indebido a zonas de tráfico limitado, entre muchas otras infracciones. Una vez que detecta el hecho, el sistema identifica el vehículo y, según los datos de la base informativa del registro oficial pertinente, emite la multa del caso y la dirige al propietario del coche. Incluso, en ciudades como la nuestra, la máquina impone también el monto de esa sanción y le notifica la sentencia al infractor: condena a pagar la suma de dinero que corresponda a la infracción cometida[19].

La prueba es tan categórica que todas las fases y todos los sujetos oficiales de este sistema se funden en un programa único: el dispositivo ocupa al mismo tiempo la posición de denunciante, policía, testigo, fiscal a cargo de la instrucción, acusador en el juicio, tribunal sentenciador y, si el afectado consiente la pena, también el de juez de ejecución. De este modo, los autores describen este sistema normativo sancionador como un completo proceso penal de primera instancia. Como una máquina que juzga y condena, que ante una conducta antinormativa impone una pena de multa como sanción[20].

Lo mismo hace el juez Dredd. En esta historia, los lectores pueden percibir como eficaz el poder judicial aplicado, ya que el espectador sabe de antemano que los procesados por este magistrado multifunción son autores de crímenes muy graves. Sin embargo, el mismo cómic se encarga de señalar cuán peligroso y desconfiable es este sistema, ya que a partir de una acusación inventada contra él y probada fraudulentamente, Dredd sufre una grave condena[21].

Tras exponer cómo culmina este cómic británico, los autores pretenden demostrar las falencias que tendría un sistema judicial si sus jueces fueran como Dredd, si todo el poder de investigar, juzgar y condenar estuviera centralizado en una sola persona. Se trataría, sin dudas, de un sistema jurídico de jueces eficaces y veloces, pero no garantizaría en forma la calidad requerida, y en temas que realmente importan, que van más allá de la mera imposición de una sanción monetaria. Desde ya, tener que juzgar y condenar a otros es un trabajo muy imperfecto y opaco. Pero no puede ser sucio, como lo es el trabajo de Dredd. Pues en un sistema democrático el poder judicial, al tener en sus manos el ejercicio tan temible de la acción punitiva, debe prescindir de este tipo de procedimientos, para evitar el uso desviado del mismo[22].

No obstante, los autores parecen ver con acierto el sistema de foto-multas y las ventajas de la celeridad en las resoluciones judiciales que ofrece este mecanismo. A su entender, este sistema no comparte las mismas objeciones que podrían formularse respecto de un sistema como el de este personaje ficticio. En esos casos, las consecuencias de una infracción de tráfico leve, consistente por ejemplo en la transgresión de la velocidad permitida, sólo acarrearía al condenado la pérdida de algo de dinero y, tal vez, también una disminución en su scoring. No hay, a diferencia de otros supuestos más graves, riesgo de perder un valor tan preciado como libertad[23].

Para finalizar, los autores plantean un interrogante que abordarán con gran detenimiento en las próximas páginas: ¿Son aceptables estos procedimientos automatizados cuando lo que está en juego es mucho más que una pena pecuniaria?[24].

 

V. Un ejemplo de resolución computacional: la calculadora de la prescripción

Aquí los autores introducen a su público en la pregunta que no han respondido, deliberadamente, en el apartado anterior. Este capítulo demuestra cómo un programa —materializado en una calculadora y definido como el contexto previo de aplicación de tecnologías— puede resolver planteos procesales relativos a la posible extinción de las acciones judiciales por prescripción.[25]A través de dicho proyecto, los programadores diseñaron algoritmos que con la información necesaria pueden resolver un caso de este tipo.[26]

Así, por medio de un modelo matemático y con la presentación de determinados datos, la máquina, de modo instantáneo, descarta la procedencia de un planteo o avanza hacia la verificación del requisito siguiente. Si todas las exigencias son cumplidas, la calculadora puede declarar la prescripción, indicando la fecha exacta en que la acción penal se extinguió[27].

Esta calculadora fue puesta a prueba en distintos cursos de posgrado para juristas. En esta prueba piloto, se presentaron cuatro casos con distintos grados de complejidad y se les requirió a los alumnos que respondiesen si la acción estaba prescripta, tras escoger simplemente entre dos opciones, —o no—. Mientras que los alumnos demoraban alrededor de veinte minutos en responder, la máquina demoraba solamente uno[28].

Respecto de la solución de los casos, el margen de coincidencia entre los alumnos y la máquina era del 75% y se pudo establecer que la calculadora se equivocó en un 8% de las soluciones. Para constatar el error de los seres humanos (del 25%), primero se verificó que existiese una discrepancia entre la solución de la calculadora y la del alumno, luego se le informó de dicha circunstancia, caso por caso, a fin de que los alumnos revisaran la solución e identificaran su equivocación y la enmendaran. El error de la máquina (del 8%) se verificó en aquellos casos en los cuales los alumnos, impuestos de la solución diferente a la de la calculadora, insistieron fundamentalmente con su criterio al brindar razones plausibles para avalar su posición discrepante[29].

Si para algo debe servir la inteligencia artificial es para evitar errores humanos[30]: con esta cita de Nieva Fenoll los autores concluyen este apartado, al considerar que el resultado de este test ha sido muy positivo. Pues a partir de este proyecto, los autores pudieron demostrar las ventajas que presenta la resolución de cierto tipo de casos mediante la utilización de un dispositivo que, a diferencia de los seres humanos, se encuentra menos expuesto a la posibilidad de arribar a soluciones equivocadas[31].

 

VI. ¿Hacia una máquina boca de ley?

El título de este capítulo remite al juez boca de la ley de Montesquieu: “los jueces de la nación no son, según sabemos, sino la boca por donde habla la ley, seres inanimados que no pueden moderar ni su fuerza ni su rigor”.[32]

En las últimas páginas del libro los autores comienzan proponiendo un estadio intermedio entre la automatización de los trámites y la automatización de las decisiones a través del desarrollo de sistemas de consulta que ayuden a los jueces humanos a tomar eficientemente sus decisiones. Se trata, pues, de una labor predictiva que es ejecutada por sistemas de big data, combinados con procesadores de alta velocidad que pueden suministrar a los jueces modelos de decisión de casos, según las bases de datos en materia de legislación, jurisprudencia y doctrina. En definitiva, es un dispositivo de búsqueda de datos que permite a los juristas lidiar con la cuestionable exigencia de que las normas son conocidas por todos y del erróneo presupuesto de que los operadores judiciales son omniscientes[33].

Este tipo de sistema tiene múltiples beneficios. Entre ellos, se destaca que los razonamientos computacionales —en todos aquellos casos que reemplazan la labor de los seres humanos— trabajan disminuyendo el error de éstos, dado que están menos expuestos al cansancio, distracciones, sesgos, preconceptos, etc[34].

Para ejemplificar y comparar este modelo de justicia predictiva, los autores apelan al sistema de consulta que utilizan los conductores —Global Positioning System y Waze—. En estos sistemas, el conductor puede ver las sugerencias del dispositivo y elige seguirlas o no. A su entender, la experiencia indica que cuando el conductor humano decide no seguir el navegador automático, casi siempre se equivoca. Lo mismo sucede con el juez informático, por ello la necesidad de un navegador de consulta que permita ver si la resolución del caso va por el buen camino. Una suerte de experto que aumenta la capacidad de una persona de resolver casos complejos ante la falta de tiempo requerida para leer toda la información relevante para llevar a cabo el trabajo[35].

Ahora bien, como todo proceso, —y más aún si se tiene en cuenta que todavía se halla en un estado embrionario—, no está exento de críticas. Mediante la pregunta “¿quién decide cuando decide la máquina?”, los autores comienzan por delinear los cuestionamientos principales que se han efectuado respecto de este modelo predictivo de justicia[36].

La primera objeción jurídica se vincula con la ausencia del juez, quien fue pensado por el constituyente como un funcionario público, con el deber de conocer y decidir las controversias judiciales. Pues el derecho constitucional exige la presencia de seres humanos con determinados atributos para entender en las causas. Uno de ellos es la condición de persona natural, que debe cumplir el magistrado designado para la función, antes del hecho de la causa. Bajo esta perspectiva, las máquinas no satisfacen esta demanda, en la medida en que quien juzga no es una persona, sino un dispositivo programado por personas[37].

Una segunda objeción se centra en aquellas cuestiones vinculadas a la competencia temporal o territorial de los jueces. En el primer caso, porque podrían suscitarse problemas para determinar cuál debería ser el criterio aplicable en una causa si se produjo un cambio de programación desde que se perpetró el delito. En el segundo, porque las máquinas, ya programadas, podrían ser utilizadas a distancia, en cualquier jurisdicción, con independencia del lugar en que se hubiera confeccionado el software[38].

No obstante, los autores responden a estas observaciones de dos maneras. Por un lado, postulan que no es posible vislumbrar todos los escenarios futuros posibles. En otras palabras, el mero hecho de que los constituyentes no hayan podido prever que un juicio podría, años después, ser encabezado por personas o máquinas con razonamientos judiciales automáticos, no permite, per se, su rechazo actual a esta posibilidad o una prohibición a que ello suceda en un futuro. Al responder a la segunda objeción, los autores consideran que para hablar de un poder judicial cibernético resulta fundamental la modificación sustancial de todo el sistema normativo. Que de ese modo podría sortearse los obstáculos relativos a la competencia temporal y territorial de los jueces[39].

Tras responder a estas críticas, los autores continúan exponiendo otros supuestos en los cuales las máquinas pueden ser muy útiles para resolver algunos conflictos judiciales, aceptando igualmente que existen ciertas cuestiones de los pleitos que no pueden ser reducidas sin más a razonamientos automatizados, como es el caso de las emociones, propias de los seres humanos[40]

A fin de evaluar la efectividad de toda máquina de resolución de conflictos en un proceso penal, se ilustra, también a modo de ejemplo, un razonamiento judicial automático: la calculadora de la probation. Se trata de un artificio aplicado a la habitual discusión que se suscita al momento de decidir sobre el otorgamiento de la suspensión del proceso a prueba en el marco de un proceso en curso[41].

Ahora bien, previo a analizar el funcionamiento de este sistema, corresponde ilustrar la discusión teórica relativa a la aplicabilidad del instituto de la probation. Así, bajo la tesis restringida se ha considerado que, para aplicar este instituto, el delito imputado a una persona no podía prever una pena en expectativa superior a tres años. Del otro lado, y bajo la tesis amplia, se postula que la probation es admisible aún cuando la pena máxima prevista para el delito fuera superior, siempre que la mínima sea de tres años o menos[42].

Dadas estas dos posturas, el algoritmo podría funcionar del siguiente modo. Quien resulte competente para decidir sobre la solicitud de suspender un proceso a prueba, tendrá a su alcance la elección de dos opciones: dado un delito cualquiera, por ejemplo, tipo penal de estafa, tipificado en el art. 172, CP, el juez podrá inclinarse por la postura amplia 172→si o bien 172→no, según se siga, respectivamente, la tesis amplia o la tesis restringida[43].

Esta solución podría aplicarse no sólo en el caso de la probation, sino también frente a cualquier otra interpretación de una norma que esté controvertida. En esta línea, los autores comparan este poder de elección del patrón a aplicar por el juez operador del sistema con la práctica del precedente obligatorio. A la luz de aquél, los jueces se encuentran obligados a resolver sus casos sobre la base de criterios que resultan aplicables a todas las controversias que versen sobre hechos similares. Si se toma el ejemplo de la suspensión del proceso a prueba, y el tribunal adopta como precedente obligatorio la tesis restringida, entonces todo caso en el que se juzgue como hecho punible una posible estafa no podrá ser sujeto al instituto de la probation[44].

Este modelo de precedente obligatorio también tiene múltiples ventajas. En primer lugar, se puede mencionar que otorga seguridad jurídica a la respuesta judicial con un gran ahorro de recursos, pues un tribunal automático procedería de la misma manera y la máquina de la ley implicaría también una democratización del derecho por medio de su aplicación igualitaria. En este sentido, los autores señalan que “el mayor progreso que aportaría un sistema de poder judicial digital es la supresión de cierta arbitrariedad”[45]. Esto aplicaría incluso cuando el precedente en cuestión sea considerado arbitrario. Aún en este supuesto, la arbitrariedad de la decisión se aplicaría a todos por igual y no existiría entonces la posibilidad de aplicar un criterio indebido a algunos sí y otros no[46].

En segundo lugar, no sería necesario fundamentar la sentencia judicial. En aquellos supuestos en los que pueden intervenir las máquinas para realizar tareas judiciales (como la calculadora de la prescripción o la de la probation), la motivación de las decisiones resulta adelantada al momento de programarse el equipo. Si bien éste es un tema que puede ser controvertido, los autores señalan que todos tendrían acceso al conocimiento de la razón real por la cual la máquina, frente a los datos disponibles, tomó una decisión y no otra. Sin embargo, en las resoluciones judiciales de los jueces humanos, en muchas ocasiones, la motivación verdadera de sus decisiones queda oculta[47].

Ahora bien, para que esta máquina funcione correctamente, la programación de juzgar debe ser abierta, accesible y transparente. Así, va a poder ser decodificada con total claridad y sencillamente controlada por aquellas personas involucradas en un proceso judicial y toda la ciudadanía[48].

Asimismo, dado que serán humanos quienes tengan el trabajo de tomar decisiones relativas a su programación, es necesario que aquellos sean jueces o eventualmente jurados. Ello, toda vez que es el poder judicial el encargado de desempeñar una función de garantía de derechos y, en consecuencia, la programación del sistema judicial informático debe estar a cargo de personas ajenas a la tarea de emisión de normas jurídicas[49].

Finalmente, para que sus resoluciones sean válidas, toda máquina debe trabajar —desde el momento de la programación de los códigos fuente de sus algoritmos— con un principio jurídico fundamental: todas las personas son iguales ante la ley. De esta manera, el dispositivo no hará discriminaciones[50].

Queda una pregunta todavía sin resolver: ¿cómo y por medio de quién serán examinadas las resoluciones para eliminarlas si son reputadas como erróneas? Los autores adelantan que se trataría de algún tipo de control o verificación de lo decidido por una máquina judicial, pero no igual al sistema de instancias asignadas por el tipo de recurso interpuesto contra una resolución jurisdiccional[51].

En conclusión, si los jueces tienen la tarea de resolver, por medio de pruebas válidas y de modo formalmente impecable y materialmente correcto, sobre la responsabilidad jurídica de una persona por un determinado hecho, las tecnologías disruptivas no pueden ser dejadas de lado al momento de dictar sentencia. A esto debemos añadir el valor fundamental de las neurociencias, que permiten no sólo comprender el funcionamiento de los seres humanos y de las sociedades, sino que también contribuyen al avance y control de estas tecnologías, explicando de qué modo éstas modifican lo que somos en un mundo que funciona en esferas de lo físico, lo digital y lo biológico[52].

 

NOTAS

[1] HAISSINER M. y PASTOR D., “Neurociencias, Tecnologías Disruptivas y Tribunales Digitales”, Buenos Aires, Hammurabi, 2019, pp. 11-33.

[2] HAISSINER M. y PASTOR D., ob. cit., pp. 37-58.

[3] HAISSINER M. y PASTOR D., ob. cit., pp. 61-69.

[4] HAISSINER M. y PASTOR D., ob. cit., pp. 73-77.

[5] HAISSINER M. y PASTOR D., ob. cit., pp. 81-114.

[6] HAISSINER M. y PASTOR D., ob. cit., p. 12.

[7] HAISSINER M. y PASTOR D., ob. cit., p. 14.

[8] HAISSINER M. y PASTOR D., ob. cit., p. 15.

[9] HAISSINER M. y PASTOR D., ob. cit., p.16.

[10] HAISSINER M. y PASTOR D., ob. cit., p. 23.

[11] HAISSINER M. y PASTOR D., ob. cit., p. 22.

[12] HAISSINER M. y PASTOR D., ob. cit., p. 31.

[13] HAISSINER M. y PASTOR D., ob. cit., p. 40.

[14] HAISSINER M. y PASTOR D., ob. cit., p. 41.

[15] HAISSINER M. y PASTOR D., ob. cit., p. 49.

[16] HAISSINER M. y PASTOR D., ob. cit., p. 57.

[17] HAISSINER M. y PASTOR D., ob. cit., p. 62.

[18] HAISSINER M. y PASTOR D., ob. cit., p. 65.

 

[19] HAISSINER M. y PASTOR D., ob. cit., p. 62.

[20] HAISSINER M. y PASTOR D., ob. cit., p. 63.

[21] HAISSINER M. y PASTOR D., ob. cit., p. 66.

[22] Ídem.

[23] HAISSINER M. y PASTOR D., ob. cit., p. 63.

[24] HAISSINER M. y PASTOR D., ob. cit., p. 69.

[25] HAISSINER M. y PASTOR D., ob. cit., p. 73.

[26] HAISSINER M. y PASTOR D., ob. cit., p. 74.

[27] Ídem.

[28] HAISSINER M. y PASTOR D., ob. cit., p. 75.

[29] Ídem.

[30] HAISSINER M. y PASTOR D., ob. cit., p. 76.

[31] HAISSINER M. y PASTOR D., ob. cit., p. 77.

[32] HAISSINER M. y PASTOR D., ob. cit., p. 101.

[33] HAISSINER M. y PASTOR D., ob. cit., p. 84.

[34] HAISSINER M. y PASTOR D., ob. cit., p. 92.

[35] HAISSINER M. y PASTOR D., ob. cit., p. 86.

[36] HAISSINER M. y PASTOR D., ob. cit., p. 88.

[37] HAISSINER M. y PASTOR D., ob. cit., p. 89.

[38] Ídem.

[39] HAISSINER M. y PASTOR D., ob. cit., p. 90.

[40] HAISSINER M. y PASTOR D., ob. cit., p. 91.

[41] HAISSINER M. y PASTOR D., ob. cit., p. 93.

[42] HAISSINER M. y PASTOR D., ob. cit., p. 95.

[43] HAISSINER M. y PASTOR D., ob. cit., p. 96.

[44] HAISSINER M. y PASTOR D., ob. cit., p. 97.

[45] HAISSINER M. y PASTOR D., ob.cit., p. 102.

[46] HAISSINER M. y PASTOR D., ob. cit., p. 103.

[47] HAISSINER M. y PASTOR D., ob. cit., p. 109.

[48] HAISSINER M. y PASTOR D., ob. cit., p. 103.

[49] HAISSINER M. y PASTOR D., ob. cit., p. 102.

[50] HAISSINER M. y PASTOR D., ob. cit., p. 110.

[51] HAISSINER M. y PASTOR D., ob. cit., p. 106.

[52] HAISSINER M. y PASTOR D., ob. cit., p. 112-113.  


Rivero, Ana Clara

Rivero, Ana Clara

Abogada egresada de la Universidad de Buenos Aires. Maestranda en Derecho penal, Universidad de San Andrés. Prosecretaria Administrativa del Tribunal Superior de Justicia de la Ciudad de Buenos Aires.

Email: anaclaraarivero@gmail.com



Morano, Giuliana

Morano, Giuliana

Abogada, egresada en la Universidad de Buenos Aires. Diploma de Honor. Actualmente prestando funciones como Oficial en el Juzgado PCyF Nº 21.

Email: giulianamorano92@gmail.com


Copyright cieje.com / 2019