8 de outubro de 2024

El Mito de la Inteligencia Artificial



Erik J. Larson
El Mito de la Inteligencia Artificial (2021)

Erik J. Larson, cientista da computação e doutorado em filosofia, tendo trabalhado em vários projectos empresariais de IA, é um escritor cuja opinião se fundamenta em bases sólidas, não em palpites nem em estados de espírito. Este livro, cujo título original é The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do, faz um resumo histórico do desenvolvimento da IA e dos limites encontrados nesse percurso (tradução automática, programação, aprendizagem automática, etc.). Sem colocar de parte a possibilidade de se alcançar uma verdadeira IA, o autor identifica o “mito”, tanto no aspecto científico como no da cultura popular, na inevitabilidade da sua chegada, tomando como certo o caminho iniciado para a sua hipotética implantação – o que não passa, diria eu, de mais uma das expressões da crença no progresso, contínuo e ilimitado, que caracteriza o mundo moderno.
Uma das premissas para a existência da IA é o completo domínio da linguagem, coisa que terá de ser fundamentada numa teoria geral do conhecimento, que está muito longe de existir. A programação numa máquina daquilo que é a “intuição” ou o “senso comum” dos seres humanos, essencial para evitar erros grosseiros numa IA, é ainda uma miragem. O caminho que se tem seguido é o chamado “big data”, esperando que, do processamento de cada vez maiores quantidades de informação, as máquinas descubram um método para preencher os vazios da nossa própria compreensão sobre o cérebro, para depois replicar os processos – e não está a resultar, porque se atinge uma “saturação” na qual, a partir de determinado limite, a aprendizagem não só não melhora como tende a decair. Segundo o autor, seria necessário valorizar novamente o factor humano e apostar na descoberta de uma teoria forte que orientasse as hipóteses criativas e estimulasse a investigação.

Fijaos en que no estoy diciendo que la IA verdadera sea imposible. Como les gusta señalar a Stuart Russell y a otros investigadores de IA, algunos científicos del siglo XX, como Ernest Rutherford, pensaron que era imposible construir una bomba atómica, pero Leó Szilárd descubrió la manera en que operan las reacciones nucleares en cadena —y lo hizo apenas veinticuatro horas después de que Rutherford diera la idea por muerta—. Es un buen recordatorio de que no se debe apostar contra la ciencia. Pero piensa que la reacción nuclear en cadena se desarrolló a partir de unas teorías científicas comprobables. Las teorías acerca de la evolución tecnológica de un poder mental no lo son.
Las declaraciones de Good y Bostrom, presentadas como una inevitabilidad científica, son más bien una concesión a la fantasía: ¡imagínate que esto fuera posible! Y no cabe duda de que sería genial. Y quizá peligroso. Pero imaginar escenarios hipotéticos nos aleja mucho de una discusión seria sobre lo que nos espera.
Para comenzar, una capacidad de superinteligencia general debería estar conectada al resto del mundo de manera que pudiera observar y «hacer conjeturas» de manera más productiva que nosotros. Y, si la inteligencia también es social y situacional, tal y como parece que debe de ser, se requerirá una inmensa cantidad de conocimiento contextual para diseñar algo más inteligente. El problema de Good no es mecánico y restrictivo, sino que más bien atrae hacia su órbita la totalidad de la cultura y la sociedad. ¿Dónde está el plano más simple y remotamente plausible para ello?
En otras palabras, la propuesta de Good se basa, una vez más, en una visión de la inteligencia simplista e inadecuada. Presupone el error original de la inteligencia y le añade otro juego de manos reduccionista: que una inteligencia mecánica individual puede diseñar y construir otra inteligencia mecánica individual superior. Que una máquina pueda situarse en tamaño punto de creación arquimédica parece improbable, por decirlo con suavidad. En realidad, la idea de la superinteligencia es una multiplicación de errores, y representa la esencia del punto al que ha llegado la fantasía en relación con el advenimiento de la IA.
[…]
Hay otros ejemplos ya célebres —o quizá deberíamos decir tristemente célebres—. En 2016, Microsoft lanzó su esperadísimo bot conversacional, Tay. El gigante del software publicitó a Tay como un salto espectacular sobre los sistemas antiguos basados en reglas, como aquella famosa ELIZA de apariencia humana salida de los años sesenta, ya que de hecho podría aprender de la interacción con el usuario y los datos online. Pero diríase que no se estudiaron bien las lecciones de la inducción y sus límites, pues Tay se tragó feliz la secuencia de clics racistas y sexistas con que lo trolearon, además de otros discursos de odio que encontró en la red. Tay se convirtió en un alumno aventajado en metadatos, dedicándose a soltar tuits que decían «Es que odio a las feministas, joder» o «Hitler tenía razón: odio a los judíos» para consternación de Microsoft, que tardó menos de un día en cancelar esa exhibición de odio. Pero deberían haber previsto ese resultado, dada la naturaleza esencial que se escogió para su diseño, basada en el concepto de «basura entra, basura sale» (GIGO en sus siglas inglesas). Tay fue un ejemplo de miopía corporativa acerca del propio enfoque técnico —y un ejemplo más de IA débil—. En este caso, una comprensión real habría otorgado a Tay un mínimo de capacidad para filtrar aquellos tuits que resultaran ofensivos. Pero, puesto que para comenzar no disponía de esa comprensión real sobre el lenguaje o los tuits, se puso a regurgitar todo lo que consumía. Tay es un ejemplo memorable (pero, por desgracia, fácil de olvidar) del carácter de sabio idiota que tiene la IA basada en datos.

Ningún comentario:

Publicar un comentario