Listado de la etiqueta: Inteligencia Artificial

Inteligencia Artificial y Protección de Datos en Chile: Guía para un cumplimiento basado en un enfoque responsable

Comentarios Proyecto de Ley IA en Chile

Existe una urgencia por regular la IA en Chile y, para ello, se ha tomado como referencia el Reglamento de IA de EU con ya dos proyectos de ley. Sin embargo, a pesar de nuestra preferencia por la legislación europea, no se ha analizado cómo EU regula la IA.

Regulación de IA y sistemas de gestión de riesgos

Regulación de IA y sistemas de gestión de riesgos

En un panorama (global) donde las altas cargas regulatorias presionan los presupuestos de cumplimiento dentro de una organización, se hace imperativo gestionar los recursos de una forma eficiente y en eso, la capacidad de implementar y operar un sistema de gestión de riesgos se convierte en una práctica esencial que permite a una empresa dar prioridad a aquellos riesgos críticos y a los más inmediatos por encima de los riesgos menores, pudiendo establecer una planificación sostenible y de acuerdo a cada contexto (y bolsillo).

La metodología de evaluación de riesgos que se implementa debe poder evaluar la probabilidad, el tamaño y los impactos del riesgo y la naturaleza y adecuación de los controles que deben aplicarse para mitigarlo. Esto no se puede lograr sin el uso de puntos de referencia fiables con los que se puedan comparar, contrastar y juzgar estas cuestiones, en esencia como punto de referencia está la Ley secundada por estándares técnicos.

Esto es así, dentro del contexto de delitos económicos, protección de datos personales y ciberseguridad (con una nueva normativa entrante),  pero no había existido claridad sobre la gestión de riesgos en materia de inteligencia artificial, ni desde el punto de vista de los desarrolladores ni de los desplegadores de está tecnología.

Digo «había» porque desde hace poco la certeza ha dejado de lado la incertidumbre. En un corto periodo de tiempo se ha establecido un estándar común, que para muchos les será familiar si conocen las normas ISO, que tiene como referencia una norma vinculante y un estándar técnico.

La norma vinculante es el nuevo Reglamento Europeo de IA, conocido como Ley de IA, que dentro de las obligaciones que aplica a los sistemas de alto riesgo, incorpora un sistema de gestión de riesgo a la luz y de acuerdo con las practicas que por años ha acuñado el estándar ISO 31000, por ejemplo, (nadie está inventando la rueda en esta materia). ISO tiene una norma específica para gestión de riesgos en sistemas de IA, que es la ISO 42001.

Dicho Reglamento establece las directrices para un sistema de gestión de riesgos robusto y eficaz y que si bien es exigible para los sistemas de IA de alto riesgo, debiese ser la norma y regla común no solo para cualquier desarrollador sino que para cualquier empresa que adquiere un sistema de IA y lo despliega en sus operaciones.

El Artículo 9, en particular, indica los componentes del sistema de gestión de riesgo y que es lo que espera se traduzca como un cumplimiento eficaz de la norma.

Aquí les dejo un esquema del contenido de este artículo, que ilustra la profundidad e importancia que adquieren los sistemas de gestión de riesgos:

  1. Establecimiento y Mantenimiento: Se debe establecer, implementar, documentar y mantener un sistema de gestión de riesgos para los sistemas de IA de alto riesgo. Este sistema será un proceso continuo y planificado durante todo el ciclo de vida del sistema de IA.
  2. Proceso Iterativo: El sistema de gestión de riesgos es un proceso iterativo y continuo que incluye revisiones y actualizaciones periódicas.
  3. Etapas del Sistema de Gestión de Riesgos: Determinación y Análisis de Riesgos: Identificar y analizar riesgos conocidos y previsibles para la salud, seguridad o derechos fundamentales cuando se usa el sistema de IA según su finalidad prevista. Estimación y Evaluación de Riesgos: Evaluar riesgos que podrían surgir tanto en el uso previsto como en un uso indebido razonablemente previsible. Evaluación de Otros Riesgos: Analizar otros riesgos basándose en los datos recopilados a través del sistema de vigilancia poscomercialización (Artículo 72). Adopción de Medidas de Gestión de Riesgos: Implementar medidas específicas para gestionar los riesgos identificados.
  4. Riesgos Abordables: Solo se consideran aquellos riesgos que pueden mitigarse o eliminarse razonablemente mediante el desarrollo, diseño del sistema o suministro de información técnica adecuada.
  5. Consideración de Interacciones: Las medidas de gestión de riesgos deben tener en cuenta los efectos y posibles interacciones entre los requisitos para minimizar los riesgos de manera eficaz.
  6. Riesgos Residuales: Se deben considerar aceptables los riesgos residuales asociados a cada peligro y el riesgo residual general del sistema de IA.
  7. Medidas de Gestión de Riesgos Adecuadas: Eliminación o Reducción de Riesgos: Reducir los riesgos mediante un diseño y desarrollo adecuados del sistema. Medidas de Mitigación y Control: Implementar medidas adecuadas para controlar los riesgos no eliminables. Provisión de Información y Formación: Proporcionar la información necesaria y formación adecuada a los responsables del despliegue.
  8. Conocimiento y Experiencia del Responsable del Despliegue: Tener en cuenta el conocimiento técnico, experiencia, educación y formación del responsable del despliegue y el contexto de uso del sistema.
  9. Pruebas de los Sistemas de IA de Alto Riesgo: Determinación de Medidas Adecuadas: Realizar pruebas para determinar las medidas de gestión de riesgos más adecuadas. Coherencia con la Finalidad Prevista: Asegurar que el sistema funciona según su propósito y cumple con los requisitos establecidos. Pruebas en Condiciones Reales: Realizar pruebas en condiciones reales según sea necesario (Artículo 60). Parámetros y Umbrales Definidos: Utilizar parámetros y umbrales de probabilidad adecuados durante las pruebas.
  10. Atención a Colectivos Vulnerables: Considerar el impacto potencial en menores de 18 años y otros colectivos vulnerables al implementar el sistema de gestión de riesgos.
  11. Integración con Otros Requisitos de Gestión de Riesgos: Los proveedores pueden integrar estos aspectos en sus procedimientos internos de gestión de riesgos según otras disposiciones relevantes del Derecho de la Unión.

Me gustaría hacer un alcance final sobre la gestión de riesgos en IA, que puede que en esta norma no se logre apreciar con claridad. No debemos olvidar que los sistemas de IA son, en primer lugar, sistemas sociotécnicos, no se pueden explicar ni conceptualizar solo con elementos técnicos, por lo que, las decisiones de diseñadores, desarrolladores e implementadores, así como, el contexto social donde son desplegados juegan un rol fundamental a la hora de conceptualizar y analizar riesgos y daños. Este enfoque en materia de gestión de riesgos en IA es fundamental. Un buen ejemplo de esta mirada lo desarrolla el NIST con su programa piloto ARIA, lanzado hace unos días, como una nueva aproximación a la gestión de riesgos, tomando en consideración todo el componente social y contextual que está indefectiblemente unido a las consecuencias del uso de esta tecnología. Recomiendo mucho echar un vistazo por la página web del NIST y este proyecto piloto, es muy interesante.

IA y PI

Escrito por Catherine Muñoz

No existe una forma unitaria de protección de sistemas de inteligencia artificial, a través de la propiedad intelectual. Para determinar cual es la protección, es preciso distinguir entre (1) dataset, (2) algoritmos y modelos u otro tipo de métodos matemáticos.

Históricamente la protección de softwares y bases de datos estaba radicada exclusivamente en el derecho de autor. Al respecto, el Convenio de Berna establece en su artículo 1° que «la obra literaria y artística comprenderá todas las producciones del dominio literario, científico y artístico, cualquiera que sea el modo o la forma de su expresión.» Por su parte, el artículo 10.1 del Acuerdo sobre los Aspectos de los Derechos de Propiedad Intelectual relacionados con el Comercio (ADPIC 2002) dispone que «Los programas de ordenador, ya sea en el código fuente o en el código objeto, estarán protegidos como obras literarias en virtud del Convenio de Berna (1971)”.

El código fuente es la expresión de los programas informáticos escritos en caracteres alfanuméricos en un texto plano[1]. Por su parte, el código objeto corresponde a la compilación del código fuente[2]. Sobre la base de las normas mencionadas anteriormente, ambas expresiones se consideran una obra literaria y se protegen como una expresión de una idea.

Sin embargo, en la actualidad la protección de dataset, modelos y algoritmos por el derecho de autor posee serios inconvenientes. Básicamente, el problema radica en que la idea o funcionalidad subyacente detrás de este tipo de tecnología, no es protegida por el derecho de autor.

Un punto fundamental para entender esta problemática es el principio de «idea-expresión», uno de los principios del derecho de autor, que postula básicamente que las ideas como tales no están protegidas por la propiedad intelectual (derecho de autor o copyright) ; en otras palabras, se protege la forma de expresión de una idea y no la idea en sí. Esto está en concordancia con el fin principal del derecho de autor que busca la promoción y desarrollo del arte, no correspondiendo a un mecanismo de recompensa por los esfuerzos, en este caso del autor, como si ocurre en el sistema de patentes de invención [3].

Asimismo, existen otros inconvenientes, el sistema de derechos de autor protege al autor contra la copia literal de líneas de un código fuente. Esto deja abierta la posibilidad de que los competidores eviten las infracciones implementando el mismo algoritmo con un texto diferente[4]

Respecto de las bases de datos, la situación es similar, el derecho de autor protege las bases de datos o las diferentes formas de recopilar información, pero no incluye la funcionalidad técnica de estas bases de datos, que en definitiva en el caso de las ML son su característica más preciada.

Secretos comerciales y machine learning

Un secreto comercial no es un derecho de propiedad intelectual, sin perjuicio de ser una institución protegida por este tipo de normas y que corresponde a un mecanismo de protección bastante equivalente a los derechos industriales, permitiendo proteger información no divulgada, siempre y cuando ésta sea secreta, tenga valor comercial y algún grado razonable de protección. Es fácil de aplicar, no requiere ningún registro, plazo y no tiene requisitos adicionales. Yo siempre digo que los secreto comercial no son un derecho de propiedad intelectual sino algo mucho mejor.

Al respecto, el Acuerdo sobre los Aspectos de los Derechos de Propiedad Intelectual relacionados con el Comercio (ADPIC) en su artículo 39° establecen el marco de la protección contra la competencia desleal prevista en el artículo 10 bis del Convenio de París, disponiendo que “la información comercial pertinente debe protegerse de la divulgación no autorizada siempre que cumpla los siguientes requisitos: i) ser tratada como secreta, ii) tener un valor comercial por ser secreta, y iii) haber sido objeto de medidas razonables, según las circunstancias, por la persona que tiene el control legal de la información, para mantenerla secreta”.

Los dataset, pueden ser los mayores activos de una empresa tecnológica, en términos generales, se protegen a través de secretos comerciales. Al respecto, teniendo presente que los desarrolladores necesitan datos de buena calidad para obtener modelos más precisos, estos son procesados por complejos y costosos mecanismos de ajustes.[5]

En consecuencia, las empresas que poseen dataset de alta calidad, buscarán no compartirlo con otras empresas o el público y mantenerlos en secreto, disfrutando así de una importante ventaja comparativa. Sin perjuicio de lo anterior, existen empresas que se ven obligadas a compartir sus datos por razones estratégicas de negocio, como pueden ser aquellas que estén dentro de alianzas con otras empresas o con instituciones públicas, pero el primer supuesto es la regla general y la mejor opción para la protección de los dataset.

Si bien los secretos comerciales son una protección adecuada para los dataset, no lo son para la mayor parte de algoritmos y modelos de ML. Aunque el secreto comercial posee una protección que supera cualquier derecho de patentes, siempre lleva implícita la condición que no pueda ser obtenido de forma independiente, condición que muchas veces no está presente en este tipo de tecnologías, presentado una serie de desventajas este tipo de protección.

En primer lugar, uno de los problemas de los secretos comerciales en relación con la protección de algoritmos y modelos, es la frecuente rotación de ingenieros de software en el mercado tecnológico, siendo este campo limitado y de alta demanda [6]. Consecuencia de lo anterior, la rotación de especialista es alta, lo que dificulta la distinción entre la divulgación de los secretos comerciales de un trabajo anterior y los conocimientos adquiridos a través de la experiencia laboral [7].

En segundo lugar, la existencia de ML de ingeniera inversa, es decir, de sistemas que deconstruyen otros sistemas para revelar sus diseños o extraer información del mismo, pone a los secretos comerciales en desventaja, ya que es posible usar estos sistemas y develar algoritmos y modelos sin ser divulgados, agregando además el hecho que es posible que la tecnología sea adquirida lícitamente de forma independiente.[8] En vista de estos inconvenientes, las empresas tecnológicas básicamente se han visto obligadas a patentar una parte de sus algoritmos y modelos.

Patentes y machine learning (ML).

Los sistemas de patentes y en general las normas sobre propiedad industrial se encuentran armonizadas y estandarizadas a nivel global. Comparten los mismos principios y normas básicas, basados principalmente en el Convenio de París y el Acuerdo sobre los ADPIC, por lo que por ejemplo, las normas sustantivas europeas son las mismas que las chilenas.

Los titulares de sistemas de AI se han visto obligados a patentar algoritmos y modelos de ML en aquellos casos en que los secretos comerciales son ineficaces, también son parte de políticas internas de patentar y licenciar libremente evitando potenciales conflictos. En consecuencia, existe un creciente interés por este tipo de protección por parte de particulares y entes públicos.

Al respecto, la totalidad de los países desarrollados han creado políticas de incentivo para el registro de patentes de sistemas de AI, como una forma de fomentar la investigación y la inversión de empresas extranjeras.

La ley N° 19.039 sobre propiedad industrial en el artículo 31° define como invención a “toda solución a un problema de la técnica que origine un quehacer industrial. La invención podrá ser un producto o un procedimiento o estar relacionada con ellos”. En general en el derecho comparado no existen muchas legislaciones que definan una invención ya que es un concepto en constante cambio y definirlo es limitarlo.

Por su parte, el artículo 38° de dicho cuerpo legal, indica las materias que no son patentables, tales como, descubrimientos, teorías científicas, métodos matemáticos, sistemas, principios o planes económicos, financieros, comerciales, de negocios o de simple verificación y fiscalización; y los referidos a las actividades puramente mentales o intelectuales o materias de juego. En estas materias excluidas hay un denominador común y es que en ellas, la actividad inventiva está ausente.

Como es posible apreciar dentro de las materias no patentables están precisamente los modelos matemáticos, es decir, tanto algoritmos como modelos de ML están excluidos de patentabilidad. Al respecto, el Reglamento de la Ley 19.039 señala específicamente que los métodos matemáticos se encuentran excluidos de patentabilidad acuerdo al artículo 37° letra c) cuando se intente proteger explícitamente como categoría un producto de programa computacional (software), o un método matemático o un algoritmo que ejecuta sus procesos, o también lo anterior cuando se implementan en un sistema computacional convencional.

Esta norma de exclusión está presente en todas las legislaciones, no obstante debido al auge del ML se han implementado en muchas de ellas, modificaciones e interpretaciones a sus normas para que los sistemas de IA puedan acceder a registros de patentes.

Así por ejemplo, la Oficina Europea de Patentes (EPO) en el año 2018 publicó una versión actualizada de las «Directrices para los examinadores de patentes», que modificó completamente las normas para interpretar las exclusiones de patentabilidad de los modelos matemáticos. En consecuencia, la nueva interpretación establece que si una solicitud de patente se basa en un método matemático que implique el uso de medios técnicos como un ordenador, no puede ser excluida de la patentabilidad siempre y cuando tenga un carácter técnico en su conjunto.

Para este fin, el modelo matemático debe producir un efecto técnico que cumpla una función técnica, mediante su aplicación a un campo de la tecnología y/o su adaptación a una aplicación técnica específica. Además, se requieren requisitos adicionales como un propósito técnico específico, limitándose funcionalmente a la finalidad técnica, para lo cual debe existir un vínculo suficiente entre el objetivo técnico y los pasos del método matemático, por ejemplo, especificando cómo se relacionan la entrada y la salida de la secuencia de pasos matemáticos con el objetivo técnico, de modo que el método matemático esté vinculado causalmente a un efecto técnico[9].

Estas normas establecen altos estándares de divulgación específicas, que los titulares de ML deben cumplir para acceder al registro de una solicitud de patente, por lo que se puede obtener información relevante sobre su funcionamiento, complementada además con patentes del estado del arte cercano que pueden ser elementos aportantes a la transparencia tantas veces requeridas por estos sistemas. La información de la gran mayoría de las oficinas de patentes es pública y están disponibles de manera online, por lo que obtener este tipo de información es relativamente sencillo.

[1] Source Code Definition by The Linux Information Project», Linfo.Org, 2001, http://www.linfo.org/source_code.html

[2] «Object Code Definition», Linfo.Org, 2007, http://www.linfo.org/object_code.html.

[3] Jean-Marc Deltorn and Franck Macrez, «Authorship in the Age of Machine Learning and Artificial Intelligence», SSRN Electronic Journal, 2018.

[4] Jin Hyunjong, «Think Big! The Need For Patent Rights In The Era Of Big Data And Machine Learning», Jipel.Law.Nyu.Edu, 2019, https://jipel.law.nyu.edu/vol-7-no-2-3/.

[5]»What Is Data Preprocessing? – Definition from Whatis.Com”, Searchsqlserver, 2005, https://searchsqlserver.techtarget.com/definition/data-preprocessing.

[6] The Battle For Top AI Talent Only Gets Tougher From Here», WIRED, 2017, https://www.wired.com/2017/03/intel-just-jumped-fierce-competition-ai-talent

[7] Un caso famoso que refleja esta cuestión es «Uber contra Waymo». Google Alphabet demandó a Uber por robo de secretos comerciales y competencia desleal argumentando que el ex ingeniero de Google, Anthony Levandowski, robó secretos comerciales relacionados con la tecnología de vehículos autónomos «Waymo» y llevó esos datos a Uber. La defensa de Uber se centró en el hecho de que el ex ingeniero de Google simplemente aplicó sus conocimientos y experiencia en el campo de los vehículos autónomos y no se pudo probar un robo de secreto comercial. Más detalles ver «Waymo V. Uber: Everything to Know about the Trade Secrets Trial», Fortune, 2018, https://fortune.com/2018/02/05/waymo-v-uber-what-you-need-to-know-about-the-high-stakes-self-driving-tech-trial/.

[8] “Is Reverse Engineering” Misappropriation of Trade Secrets? | JD Supra», JD Supra, 2020, https://www.jdsupra.com/legalnews/is-reverse-engineering-misappropriation-96161/.

[9] European Patent Office, Guidelines for examination in the European Patent Office, 2018, Munich: www.european-patent-office.org/legal/gui_lines/

[10] Hall Bronwyn, Patents, Innovation, and Development (May 10, 2020). Max Planck Institute for Innovation & Competition Research Paper No. 20-07, Available at SSRN: https://ssrn.com/abstract=3598855 or http://dx.doi.org/10.2139/ssrn.3598855

Ada Lovelace

Escrito por Catherine Muñoz

Artificial intelligence’s history is as remarkable as the current result thereof. First, this history starts in a very uncommon way in the mid-19th century, with a woman named Ada Augusta Byron, also known as Ada Lovelace, the daughter of the well-known poet Lord Byron. Ada Lovelace, was an English woman, whose fascination for mathematics led her to meet several mechanical inventions of her time face to face, having a fresh view of them from a revolutionary perspective.[1]

Ada Lovelace was a collaborator of the scientist and mathematician Charles Babbage in the direction, sense and aim of her analytical engine[2], which was finally never put into practice. As a result of this work, she is considered as the first creator of an algorithm as such, and she has been called the first “programmer” of computer systems.[3]

In 1843 and as part of her work as an assistant, Ada translated a paper of Luigi Menabrea, a French scientist, who wrote about Babbage’s analytical engine. Along with said translation, she prepared extensive notes that incorporated an analysis of the functional nature of said machine by her own. Finally, said translation was pushed into the background, with the aforementioned additional notes becoming the main character of a remarkable anticipated understanding on the basis of computer systems and the artificial intelligence from a mathematical and philosophical perspective, opening a number of possibilities for a machine exclusively invented for numerical calculations.[4]

Ultimately, what Ada was discerning was the capacity a machine could have for processing in a consistent, logical way not only numbers, but also another kind of abstract data, such as musical notes.

It is also said that Ada was the first person in writing an algorithm for the note individualized as G [5] in the same document in reference, detailing a logical sequence that allows calculating Bernoulli numbers.[6]

From Ada Lovelace’s deep analyses almost 100 years elapsed until one of the most important scientists of XX century, Alan Turing, would be able to empirically develop the basis of scientific and logical foundations that made the progress of computer science and AI possible.[7] As everything in this story, Turing was a remarkable and advanced man for his time.

In a paper published in 1937[8] called “On computable numbers, with an application to the Entscheidungsproblem”[9], Turing gave new definitions on computable numbers and a description of a universal machine, finally explaining that Entscheidungsproblem cannot be solved. Like Ada Lovelace’s analysis, in this paper and other later one, Turing combines logics with philosophy and mathematics in order to give rise to his well-known theories.

“Calculator” at that time was the denomination given to those persons whose work was the performance of mathematical works. Turing based his machine on said function and as explained by Nils J. Nilsson[10] its operation was very simple, being made of few parts, where an infinite tape divided in cells can be found, which have a 1 or 0 printed. The machine had a reading and writing head, and a logical unit that can change its own state in order to command the writing or reading function of 1 or 0, and move the tape to the left or to the right by reading a new cell or ending an operation

In principle, each machine had an unique function; then Turing created a form in which multiple functions could be coded in the same input data, thus creating the so-called Universal Turing Machine, which is the basis of current computers.

With the advent of the Second World War, this invention and its creator would continue developing the aspect of intelligence and national security. Thus, Turing was recruited by the Government Code and the Cypher School based in Bletchley Park, making important contributions in the field of codebreaking.

Then, in 1950 Turing published in Mind magazine his paper called “Computing Machinery and Intelligence”.[11]The paper started by saying the following: “I intend to review the following question: Can machines think?”.

In that paper, Turing created the so-called “Turing Test”, which purpose was to determine if a computer could “think”. In simple terms, the test required a machine to hold a conversation through a text with a human being. If After five minutes, the human being was convinced of being talking to another human being, it was said that the machine had passed the test. In John McCarthy’s words: He argued (Turing) that if the machine could successfully pretend to be human to a knowledgeable observer then you certainly should consider it intelligent.[12]

Alan Turing Statue at Bletchley Park (C) Gerald Massey

The statue, commissioned from Stephen Kettle by the late Sidney E Frank, depicts Alan Turing seated in front of an…www.geograph.org.uk

Until now we have seen the development of AI from the concept of mathematics and logics, but after that, two well defined approaches became clearly distinct that based their studies and development on AI. First, we have those basing their knowledge on logics and mathematics with philosophical and epistemological resources corresponding to the symbolic or classical AI, and, on the other hand we have those basing their studies on the biology known as connectionist AI — cybernetics.

Cybernetics was defined by Wiener as “the science of control and communication, in the animal and the machine”.[13]

The preceding definition was taken from one of the works of W. Ross Ashby, an English psychiatrist who published a theory of the adaptive behavior in animals and machines.[14]

Parallel to symbolic or classical AI development, the neurologist Warren S. McCulloch and the logician Walter Pitts published in 1943 a paper called “A logical calculus of the ideas immanent in nervous activity”[15] where they proposed an artificial neurologic model from an explanation about how the human nervous system operates.

According to Nils J. Nilsson[16], the McCulloch-Pitts neuron corresponds to a mathematical abstraction of a brain cell as such with an input corresponding to dendrites and an output corresponding to a value of 0 or 1 as a simile of an axion, with these “neurons” being able to connect each other forming networks. In this respect, Nilsson says: “Some neural elements are excitatory — their outputs contribute to “firing” any neural elements to which they are connected. Others are inhibitory — their outputs contribute to inhibiting the firing of neural elements to which they are connected. If the sum of the excitatory inputs less the sum of the inhibitory inputs impinging on a neural element is greater than a certain “threshold,” that neural element fires, sending its output of 1 to all of the neural elements to which it is connected”.[17]

In sum, we have elements of mathematics, logics and biology that have been present in the development of AI, to which also psychology and cognitive sciences are added, since they have been of the essence in the development of learning of artificial neurons.

Psychologist Frank Rosenblatt developed the Perceptron in 1957, which corresponded to the first artificial neuronal network for learning that allows the recognition of patterns based on a binary classifier.[18] Then David Rumelhart, Geoffrey E. Hinton, and Ronald J. Williams describe the retropropagation as a method of optimizing multi-stage dynamic.

In 1956 at the 1956 Dartmouth Conference organized by Marvin Minsky, John McCarthy, the expression “Artificial Intelligence” was first coined. From this conference began a new era in the development of AI.[19]

Government agencies, such as the U.S. Defense and Research Projects Agency (DARPA), invested heavily in Artificial Intelligence innovation during World War II and the Cold War. Then, between 1974 and 1980, the so-called “AI Winter” took place, with the reduction of the interest and the financing of this type of technologies.

However, there was an explosive growth in the early 1990s in AI technology advances driven mainly by the rise of Big Data and supercomputers…

And here we are now, nobody knows how this will continue, we hope it will recover its essence reflected in Ada Lovelance’s work.

[1] Luigia Carlucci Aiello, “The Multifaceted Impact Of Ada Lovelace In The Digital Age”, Artificial Intelligence 235 (2016): 58–62, doi:10.1016/j.artint.2016.02.003.

[2] Margaret A Boden, AI: Its Nature And Future, 1st ed. Oxford: Oxford University Press, 2016. 1–28

[3]Suw Charman-Anderson “Ada Lovelace: Victorian Computing Visionary.” Ada User Journal 36.1 (2015).

[4] J.G. Llaurado, “ADA, The Enchantress Of Numbers”, International Journal Of Bio-Medical Computing 32, no. 1 (1993): 79–80, doi:10.1016/0020–7101(93)90008-t.

[5] L. F. Menabrea & A. Lovelace (1842). “Sketch of the analytical engine invented by Charles Babbage”. 49–59

[6] Ronald L. Graham, et al. “Concrete mathematics: a foundation for computer science.” Computers in Physics 3.5 (1989): 106–107.

[7] Margaret A. Boden, AI: Its Nature And Future, 1st ed. Oxford: Oxford University Press, 2016. 1–28

[8] A. M. Turing, “On Computable Numbers, With An Application To The Entscheidungsproblem”, Proceedings Of The London Mathematical Society 2–42, no. 1 (1937): 230–265, doi:10.1112/plms/s2–42.1.230.

[9] The Entscheidungsproblem (mathematics, logic) is a decision problem, of finding a way to decide whether a formula is true or provable within a given system. “Entscheidungsproblem Dictionary Definition | Entscheidungsproblem Defined”, Yourdictionary.Com, accessed 14 March 2019, https://www.yourdictionary.com/entscheidungsproblem.

[10] Nils Nilsson. The quest for artificial intelligence. Cambridge University Press, 2009. E-book. 57

[11] A. M. Turing, “I. — Computing Machinery And Intelligence”, Mind no. 236 (1950): 433–460, doi:10.1093/mind/lix.236.433.

[12] John McCarthy, “What Is Artificial Intelligence?”, Stanford University, 1998, http://www-formal.stanford.edu/jmc/whatisai/whatisai.html.

[13] W. Ross Ashby and J. R. Pierce, “An Introduction To Cybernetics”, Physics Today 10, no. 7 (1957): 34–36, doi:10.1063/1.3060436.

[14] W. Ross Ashby. “Principles Of The Self-Organizing Dynamic System”, The Journal Of General Psychology 37, no. 2 (1947): 125–128, doi:10.1080/00221309.1947.9918144.

[15] Warren S. McCulloch and Walter Pitts. “A Logical Calculus Of The Ideas Immanent In Nervous Activity”, Bulletin Of Mathematical Biology 52, no. 1–2 (1990): 99–115, doi:10.1016/s0092–8240(05)80006–0.

[16] Nils J. Nilsson. The quest for artificial intelligence. Cambridge University Press, 2009. E-book. 34- 35

[17] Ibid.

[18] S.I. Gallant, “Perceptron-Based Learning Algorithms”, IEEE Transactions on Neural Networks 1, no. 2 (1990): 179–191, doi:10.1109/72.80230.

[19] James Moor. “The Dartmouth College artificial intelligence conference: The next fifty years.” Ai Magazine 27.4 (2006).87.