Pequeños y grandes pasos hacia el imperio de la inteligencia artificial

Fuente: Open Tech

Traducción de la infografía:

  • 1943 – McCullock y Pitts publican un artículo titulado Un cálculo lógico de ideas inmanentes en la actividad nerviosa, en el que proponen las bases para las redes neuronales.
  • 1950 – Turing publica Computing Machinery and Intelligence, proponiendo el Test de Turing como forma de medir la capacidad de una máquina.
  • 1951 – Marvin Minsky y Dean Edmonds construyen SNAR, la primera computadora de red neuronal.
  • 1956 – Se celebra la Conferencia de Dartmouth (organizada por McCarthy, Minsky, Rochester y Shannon), que marca el nacimiento de la IA como campo de estudio.
  • 1957 – Rosenblatt desarrolla el Perceptrón: la primera red neuronal artificial capaz de aprender.

(!!) Test de Turing: donde un evaluador humano entabla una conversación en lenguaje natural con una máquina y un humano.

  • 1965 – Weizenbaum desarrolla ELIZA: un programa de procesamiento del lenguaje natural que simula una conversación.
  • 1967 – Newell y Simon desarrollan el Solucionador General de Problemas (GPS), uno de los primeros programas de IA que demuestra una capacidad de resolución de problemas similar a la humana.
  • 1974 – Comienza el primer invierno de la IA, marcado por una disminución de la financiación y del interés en la investigación en IA debido a expectativas poco realistas y a un progreso limitado.
  • 1980 – Los sistemas expertos ganan popularidad y las empresas los utilizan para realizar previsiones financieras y diagnósticos médicos.
  • 1986 – Hinton, Rumelhart y Williams publican Aprendizaje de representaciones mediante retropropagación de errores, que permite entrenar redes neuronales mucho más profundas.

(!!) Redes neuronales: modelos de aprendizaje automático que imitan el cerebro y aprenden a reconocer patrones y hacer predicciones a través de conexiones neuronales artificiales.

  • 1997 – Deep Blue de IBM derrota al campeón mundial de ajedrez Kasparov, siendo la primera vez que una computadora vence a un campeón mundial en un juego complejo.
  • 2002 – iRobot presenta Roomba, el primer robot aspirador doméstico producido en serie con un sistema de navegación impulsado por IA.
  • 2011 – Watson de IBM derrota a dos ex campeones de Jeopardy!.
  • 2012 – La startup de inteligencia artificial DeepMind desarrolla una red neuronal profunda que puede reconocer gatos en vídeos de YouTube.
  • 2014 – Facebook crea DeepFace, un sistema de reconocimiento facial que puede reconocer rostros con una precisión casi humana.

(!!) DeepMind fue adquirida por Google en 2014 por 500 millones de dólares.

  • 2015 – AlphaGo, desarrollado por DeepMind, derrota al campeón mundial Lee Sedol en el juego de Go.
  • 2017 – AlphaZero de Google derrota a los mejores motores de ajedrez y shogi del mundo en una serie de partidas.
  • 2020 – OpenAI lanza GPT-3, lo que marca un avance significativo en el procesamiento del lenguaje natural.

(!!) Procesamiento del lenguaje natural: enseña a las computadoras a comprender y utilizar el lenguaje humano mediante técnicas como el aprendizaje automático.

  • 2021 – AlphaFold2 de DeepMind resuelve el problema del plegamiento de proteínas, allanando el camino para nuevos descubrimientos de fármacos y avances médicos.
  • 2022 – Google despide al ingeniero Blake Lemoine por sus afirmaciones de que el modelo de lenguaje para aplicaciones de diálogo (LaMDA) de Google era sensible.
  • 2023 – Artistas presentaron una demanda colectiva contra Stability AI, DeviantArt y Mid-journey por usar Stable Diffusion para remezclar las obras protegidas por derechos de autor de millones de artistas.

Gráfico: Open Tech / Genuine Impact

Entradas relacionadas

#ajedrez #alphafold2 #alphago #alphazero #aprendizajeAutomatico #articulo #artistas #aspirador #blakeLemoine #conferenciaDeDartmouth #copyright #deanEdmonds #deepBlue #deepface #deepmind #deviantart #eliza #facebook #gatos #genuineImpact #go #google #gps #gpt3 #grafico #hinton #ia #ibm #infografia #inteligenciaArtificial #irobot #jeopardy #kasparov #lamda #leeSedol #marvinMinsky #mccarthy #mccullock #midJourney #modelos #newell #openTech #openai #patrones #perceptron #pitts #plegamientoDeProteinas #predicciones #procesamientoDelLenguajeNatural #reconocimientoFacial #redesNeuronales #remezclar #robot #rochester #roomba #rosenblatt #rumelhart #shannon #shogi #simon #sistemaDeNavegacion #snar #stabilityAi #stableDiffusion #testDeTuring #turing #videos #watson #weizenbaum #williams #youtube

I read #Rumelhart's #backpropagation paper in 1986. It was a stunner. It changed my life.

http://www.cs.utoronto.ca/~hinton/absps/naturebp.pdf

And I read #Vaswani's #transformer in 2017. It was a groundbreaking paper. It changed the world.

https://proceedings.neurips.cc/paper_files/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf

It could be argued that transformers, through their use in #LLMs, have had far greater impact upon society, compared to backpropagation. On the other hand, there would be no modern #ML, but for backpropagation. So, it's a toss-up.

But to me, Rumelhart's paper is superior to Vaswani's, at least in terms of clarity, concision, coherence, and other indicia of writing style.

“Zwei Bezirkschefs über den Weg gelaufen

Der Bezirksrat war mit den Bezirksvorstehern Markus #Reiter ( #Grüne, #Neubau) und Markus #Rumelhart ( #SPÖ, #Mariahilf) unterwegs - pikanterweise, um unter anderem darüber zu sprechen, welche Lösungen man für von sozialen Härten betroffene Menschen finden könne.”

https://kurier.at/chronik/wien/oevp-karl-mahrer-mariahilfer-strasse-video-empoerung/402522067 #ÖVP

PR-Video mit Schlafendem: Empörung über Wiens ÖVP-Chef Mahrer

Während eines Videodrehs auf der Mariahilfer Straße wurde Mahrer von zwei Bezirksvorstehern zur Rede gestellt.

kurier.at
@nidgethompson #EMForster, who I’ve never read, apparently said ‘Only connect’. Books connect exponentially. That, in turn, became a rallying cry for #cognitive #architectural #engineers (eg. D. #Rumelhart, P. #Smolensky, &c) wanting to exploit more the neuroanatomy or #hardware?) of the #biological 🧠 rather than the idea (eg #Fodor) that discrete parts of the brain run #software and the further idea that thinking is essentially the latter (a long standing research programme).

#ThemeOneProgram#JetsAndSharks 3.1
https://inquiryintoinquiry.com/2022/09/03/theme-one-program-jets-and-sharks-3/

Using #CactusGraphs or #MinimalNegations to implement pools of #MutuallyInhibitoryNeurons erects #NeuralArchitectures on substantially different foundations from current #Connectionist models. At a high level of abstraction, however, there is enough homology between the 2 orders to compare their performance on many of the same tasks. Thus I was able to try the program on a few examples suggested by #McClelland & #Rumelhart.

#Logic

Theme One Program • Jets and Sharks 3

Inquiry Into Inquiry

#ThemeOneProgram#JetsAndSharks 3
https://inquiryintoinquiry.com/2022/09/03/theme-one-program-jets-and-sharks-3/

Given a representation of the Jets & Sharks universe in computer memory, we naturally want to see if the memory serves to supply the facts a well-constructed #DataBase should.

In their #PDPHandbook presentation of the Jets & Sharks example, #McClelland & #Rumelhart give several exercises for exploring the use of their #NeuralPool #MemoryModel on tasks of #Retrieval & #Generalization.

Exercise 2.1
https://web.stanford.edu/group/pdplab/pdphandbook/handbookch3#x7-330001

#Logic

Theme One Program • Jets and Sharks 3

Inquiry Into Inquiry

#ThemeOneProgram#JetsAndSharks 1.3
https://inquiryintoinquiry.com/2022/08/25/theme-one-program-jets-and-sharks-1/

The manner of representation may be illustrated by transcribing a well-known example from the #ParallelDistributedProcessing literature (#McClelland and #Rumelhart 1988) and working through a couple of the associated exercises as translated into #LogicalGraphs.

#Logic #Peirce #Semiotics #Semiosis
#Grossberg #CompetitionCooperation
#GraphTheory #ModelTheory #ProofTheory
#LogicalCacti #MinimalNegationOperators

Theme One Program • Jets and Sharks 1

Inquiry Into Inquiry

#ThemeOneProgram#JetsAndSharks 1.2
https://inquiryintoinquiry.com/2022/08/25/theme-one-program-jets-and-sharks-1/

One way to do this is to interpret the blank or #UnmarkedState as the #RestingState of a #NeuralPool, the bound or #MarkedState as its #ActivatedState, and to represent a mutually inhibitory pool of #Neurons \(a,b,c\) by the proposition \(\texttt{(}a\texttt{,}b\texttt{,}c\texttt{)}.\)

#Logic #LogicalGraphs #Peirce
#Grossberg #McClelland #Rumelhart
#GraphTheory #ModelTheory #ProofTheory
#LogicalCacti #MinimalNegationOperators

Theme One Program • Jets and Sharks 1

Inquiry Into Inquiry
Theme One Program • Jets and Sharks 1

Inquiry Into Inquiry