Tumgik
gonzaloanero · 3 years
Text
Reseña crítica de "La inteligencia artificial o el desafío del siglo", de Éric Sadin
Este texto busca ser una lectura de la contundente propuesta de Éric Sadin al respecto de una teoría crítica de la Inteligencia Artificial.[1] La justificación de reseñar dicha propuesta es, en nuestra opinión, la misma que animó al autor a lanzarse a escribir sobre ello: la importancia y pertinencia de una filosofía de la computación, que dé cuenta de los avances punteros en Inteligencia Artificial desde una perspectiva crítica que puede ser entendida como humanista.
Por tanto, es conveniente empezar alabando la iniciativa de Éric Sadin, así como destacando los numerosos aciertos que tiene su libro, particularmente al analizar las consecuencias de la implementación de sistemas algorítmicos en ámbitos tales como la justicia y la educación. Sin embargo, después de este reconocimiento, y como muestra de la importancia concedida al libro y a la propuesta del autor, aquí vamos a dar peso casi exclusivo a aquellas partes de su obra que, a nuestro juicio, están parcial o completamente desencaminadas, con el objetivo de aportar capacidad expositiva y argumentativa a una más que necesaria filosofía de la Inteligencia Artificial.
La tesis principal del libro puede resumirse en que, debido al desarrollo actual de las ciencias de la computación y, en particular, de la Inteligencia Artificial, se ha producido un cambio de estatuto de las tecnologías digitales. Tal y como él mismo afirma:
Desde ahora en adelante ciertos sistemas computacionales están dotados (…) de una singular y perturbadora vocación: la de enunciar la verdad.[2]
En la propia introducción del texto, y para apoyar esta tesis, el autor presenta una situación ficticia, aunque no por ello alejada del estado actual de las cosas, en la que una candidata a un puesto de trabajo se somete a una suerte de entrevista, en la que el tradicional responsable de Recursos Humanos ha sido sustituido por un asistente virtual, llamado Recrutello, que la somete a ciertos exámenes de destrezas mecánicas, psicológicas y conductuales, para concluir fríamente que la candidata no es apta para el puesto correspondiente. Traemos a colación este ejemplo de Sadin porque es útil para presentar la primera de las cuestiones polémicas en su escrito: el concepto de verdad que maneja.
De forma crítica, Éric Sadin describe el concepto de verdad que subyace en los apologistas de la Inteligencia Artificial, que no es otro que el de aletheia: la verdad como desvelamiento, como manifestación de la realidad de los fenómenos más allá de las apariencias. Sin embargo, para el autor, la verdad no es tanto la exactitud, la correspondencia o la adecuación de ciertos enunciados con respecto a la realidad, sino que se aleja de esta perspectiva tradicional en filosofía de la ciencia para enmarcarse dentro de una óptica influida por Foucault, en la que entiende que la verdad ha de alejarse de la dicotomía correcto/incorrecto, para acercarse a las referentes a justo/injusto, o incluso bello/feo.
En este aspecto, para el autor, debido a la irrupción de la Inteligencia Artificial, la cuestión fundamental es que ha emergido un nuevo régimen de verdad:
Los sistemas de inteligencia artificial están llamados a evaluar una multitud de situaciones de todo orden, las necesidades de las personas, sus deseos, sus estados de salud, los modos de organización en común, así como una infinidad de fenómenos de lo real. Lo que caracteriza a los resultados de dichos análisis es que no se conforman solamente con reproducir ecuaciones que se suponen exactas, sino que se enmascaran bajo un valor de verdad en la medida en que lo hacen presentándose como conclusiones cerradas que llevan a que luego se inicien las acciones correspondientes.[3]
Todo este párrafo, y en general toda la argumentación de Sadin al respecto de la verdad en Inteligencia Artificial, peca a nuestro juicio de asignarle a los algoritmos unas propiedades que en realidad pertenecen a los seres humanos que los han diseñado. Tal y como se entiende del pasaje aquí mostrado, parece ser que los sistemas de Inteligencia Artificial tienen una autonomía evaluadora y decisional, que no sabemos muy bien de dónde sale, pero que es capaz no solo de analizar situaciones, sino, lo que para el autor es más grave, asumir diferentes conclusiones como ciertas de forma incuestionable y orientar la acción en consecuencia.
Sin embargo, los algoritmos de Inteligencia Artificial evalúan las necesidades de las personas, sus deseos, sus estados de salud, los modos de organización en común solo en un sentido extremadamente débil de la palabra. Se trata de una actividad subsidiaria, guiada por directrices y normas generadas por los seres humanos, que en último término hay que tratar de explicar por condiciones externas al propio algoritmo, que no es más que una herramienta que potencia la capacidad evaluadora del humano que lo utiliza.
Por aclarar esto último con un ejemplo: consideremos un sistema que, mediante Inteligencia Artificial y tomando como input un conjunto de datos personales, nos asignase una carrera universitaria. Supongamos también, para hacer la situación más preocupante, que la decisión del sistema es irrevocable, única y no puede ser discutida. Por supuesto, el algoritmo tiene un valor de verdad que no permite cuestionamiento, y además descansa sobre la evaluación de innumerables características (edad, expediente, gustos personales, plazas disponibles, situación del mercado laboral -y todas las que se nos puedan ocurrir-), pero ese valor de verdad, la conclusión del algoritmo, lo que al final va a orientar la acción de únicamente permitirnos entrar en la carrera que toque, descansa en cómo ha sido entrenado ese algoritmo, y ese entrenamiento es una decisión enteramente humana. Es decir, el régimen de verdad que supuestamente ha emergido de manera novedosa con la Inteligencia Artificial no es tal, o por lo menos no es diferente del valor de verdad del que dispusiera, en nuestro ejemplo, un rector de un college británico del siglo XIX, lo que ocurre es que, simplemente, las herramientas de procesado y análisis de datos son infinitamente más potentes.
El autor destaca que uno de los campos en los que más incidencia está teniendo la irrupción de la Inteligencia Artificial, y que además es usado por sus apologistas como la principal baza en defensa de los beneficios que provee, es la medicina. En relación con este tema, la crítica de Sadin cristaliza en el siguiente párrafo:
Hay que poder ver el retroceso que se opera en el marco de la relación que vincula al cuerpo médico con el paciente, en la medida en que instala un nuevo tipo de verticalidad, no dicha, que impone la verdad objetiva de las experticias y las recomendaciones, y que tiene el valor de enunciados prescriptivos superiormente calificados.[4]
Al margen de que el capítulo dedicado a la medicina[5] fabrica un hombre de paja basado en una concepción de sistemas de Inteligencia Artificial que vienen a sustituir completamente a los profesionales de la atención primaria, es interesante analizar en el pasaje mencionado las cuestiones que para Sadin suponen un retroceso.
Entendemos, por oposición, que lo que el autor caracterizaría como avance, o por lo menos como no-retroceso, sería una relación entre médico y paciente basada en otro tipo de verticalidad -sea esto lo que fuese- o directamente horizontal, y desde luego no guiada por una imposición de la verdad objetiva de las experticias y las recomendaciones. Suponemos, confiando cándidamente en el buen criterio de Sadin, que, cuando acude al médico, se deja guiar por la experiencia del titulado que lo atiende y por los siglos de avances técnico-científicos del campo de la medicina, que probablemente cuenten con atisbos de verdad objetiva, y no pretende discutir de igual a igual el diagnóstico que este profesional le comunique. No entendemos por tanto cuál es el mecanismo que identifica como inaceptable la pretensión de veracidad de un algoritmo en contraposición a la del propio médico. Es más, ¿en qué sentido es criticable que las conclusiones del algoritmo tengan el valor de enunciados prescriptivos superiormente calificados? ¿No es eso precisamente la característica más valiosa de la ciencia médica? ¿No es eso a lo que nos agarramos cuando seguimos las recomendaciones de nuestro doctor?
Sadin también identifica que debido al auge de la computación en lo que llevamos de siglo, hemos entrado en una era antropomórfica de la técnica, en la que la técnica ha abandonado sus pretensiones tradicionales mediante tres cualidades diferenciales, que constituyen ese salto cualitativo tan amenazante. Antes de pasar a los tres antropomorfismos que el autor ha analizado, conviene detenerse un momento en lo que él mismo aduce al respecto de dicha era antropomórfica. Sadin reconoce que, a lo largo de la Historia, el ser humano ha utilizado la técnica para superar los límites impuestos por su morfología, creando herramientas y máquinas que potenciaban, suplían o hacían más precisas nuestras más bien modestas capacidades. Sin embargo, lo que separa las técnicas computacionales del resto de técnicas históricamente desarrolladas por los seres humanos, es que la parte de nuestra condición física cuyo límite queremos superar es el cerebro y todo su repertorio cognitivo.
Al hilo de esta brecha que Sadin establece entre las ténicas computacionales y el resto, los tres antropomorfismos que hemos mencionado previamente, las tres características que generan esta separación son las siguientes.
Por un lado, entiende que se está desarrollando un antropomorfismo aumentado, mediante el cual las técnicas se modelan sobre nuestras capacidades para actuar como palancas que impulsen mecanismos más rápidos, eficaces y fiables. En segundo lugar, este antropomorfismo es también parcelario, puesto que no busca una potenciación holística o integral de las habilidades cerebrales humanas, sino que se adapta a tareas específicas y concretas. Por último, se trata también de un antropomorfismo emprendedor, que ya no se limita a simplemente recoger, clasificar e interpretar conjuntos de datos, sino que estos datos están orientados a la acción, a la generación de acciones automatizadas.
Cabe preguntarse aquí con cierta sorpresa cuál de estos tres atributos no puede aplicarse a la práctica totalidad de nuestros intentos como especie de diseñar herramientas que superen nuestras capacidades. ¿No es acaso un brazo hidráulico una modelización de nuestras propias articulaciones, que consigue aumentarnuestra capacidad de transporte o manejo de materiales? ¿Y una broca para realizar ensayos de dureza Vickers no es una técnica parcelaria, que de poco más sirve si no es para su propósito correspondiente? Es más, ¿un sensor lumínico que enciende las luces del jardín no emprende acciones a partir de cierta interpretación de los datos?
Parece obvio que un filósofo tan inteligente como Sadin no puede pasar por alto esta situación, cuestión que él mismo se encarga de aclarar de una forma un tanto contradictoria más adelante. El autor reconoce que la Inteligencia Artificial no es una innovación más, sino que representa un principio técnico universal, consistente en el análisis robotizado de situaciones, la elaboración de ecuaciones relativas a dichas situaciones, la evaluación de los resultados obtenidos y el emprendimiento de una acción guiada por esos resultados. En realidad, lo que está identificando es que una gran parte de la técnica descansa sobre esquemas algorítmicos. En este sentido, parece no darse cuenta de que lo diferencial de la Inteligencia Artificial con respecto al resto de técnicas humanas es una diferencia de grado, cuantitativa, basada en la capacidad cada vez más grande de almacenamiento y computación.
Merece la pena traer a colación un breve párrafo muy representativo de lo que supone la obra de Sadin, en el que, tras constatar que estos procedimientos algorítmicos, que cada vez se implementan en más áreas de nuestra vida, están consiguiendo reducir o borrar nuestra propia autonomía, dice lo siguiente:
Toma forma un estatuto antropológico y ontológico inédito que ve cómo la figura humana se somete a las ecuaciones de sus propios artefactos con el objetivo prioritario de responder a intereses privados y de instaurar una organización de la sociedad en función de criterios principalmente utilitaristas.[6]
Podríamos estar de acuerdo con todo el párrafo si no hubiese incluido el que para nosotros es uno de sus mayores errores: el considerar que la irrupción de la Inteligencia Aritificial es algo fuera de la Historia humana, algo distinto, excepcional, nunca visto. Nos vuelven a surgir preguntas al leer este pasaje. ¿La figura humana de un soldado de Atenas no se sometía a las ecuaciones de la penetración de una punta metálica espartana en cualquier órgano de su cuerpo, que tenían el objetivo prioritario de responder a intereses privados del hoplita de turno? ¿Las figuras humanas de Nagasaki no tendrían algo que decir respecto a cómo tuvieron que someterse a las ecuaciones de una explosión nuclear que buscaba en último término instaurar cierta organización de la sociedad?
Esta especie de privilegio cronológico de la actualidad frente al resto de épocas, en lo que se refiere a las ciencias y las técnicas y su relevancia en las cuestiones humanas (políticas, morales, éticas, etc.), es una constante a lo largo de todo el texto. Sirva este otro ejemplo para mostrar este empecinamiento del autor:
El alineamiento de los científicos y los ingenieros con la doxa técnico-económica representa un vicio de nuestra época en la medida en que las formas de la pluralidad en el campo de la investigación se ven más asfixiadas.[7]
Creemos que Arquímedes se ofendería bastante si no se le considerase como alineado con la doxa técnico-económica (y, aún más inquietante, militar) de Hierón II, y otro tanto ocurriría con Francis Bacon y su orgullosa connivencia con la política religiosa de Jacobo I.
Por apuntar un par más de cuestiones siguiendo este hilo, hay en esta preponderancia negativa de nuestra época una tendencia a idealizar un supuesto pasado tecno-científico inmaculado, caracterizado por una investigación honesta, limpia, que da rienda suelta a los gustos y creatividades propios de cada individuo:
El mundo de la investigación, que en otros tiempos se constituía por actores movilizados por diversas curiosidades, intereses o tropismos de todo orden, y que favorecía el aporte libre de todos, lo cual era condición necesaria para su vitalidad, hoy se ha convertido en un campo en ruinas de la inventiva, al estar compuesto ahora de individuos que se someten tranquilamente a pliegos de licitaciones predeterminados.[8]
No sabemos en qué ejemplos concretos está pensando Sadin para justificar este atrevido alegato, pero caracterizar la época actual de las ciencias computacionales como campo en ruinas de la inventiva es directamente falso, y precisamente entra en contradicción con su ya mencionada idea de que se trata de una técnica que se está abriendo paso en virtualmente todas las áreas de nuestra existencia, creando modelos nuevos y algoritmos más potentes y a su vez alimentando el vertiginoso desarrollo del hardware necesario para ello. Además, cuesta descifrar en qué época histórica la investigación ha constituido esa torre de marfil, en la que cada miembro dispone de su aislada habitación, alejado de inoportunas influencias, para poder desarrollar sus inquietudes técnico-científicas. Podemos añadir además que desvincular las diversas curiosidades, intereses o tropismos de todo orden de cada individuo respecto de las condiciones sociales en las que los mismos insertan su actividad científica supone de facto un idealismo que compraría cualquier miembro de la Escuela Austriaca, un hecho del que el propio Sadin no estaría muy orgulloso, dadas las coordenadas ideológicas desde las que escribe. Su paisano Latour haría bien en darle una colleja materialista. De hecho, es curioso que al comienzo del apartado dedicado a una breve historia de la informática, el autor precisamente critique esa perspectiva historiográfica consistente en entender a los investigadores como entes aislados, hechos a sí mismos y ajenos a la estructura social en la que se entretejen, al hacer una revisión crítica de figuras como Elon Musk o Mark Zuckerberg. Su propuesta podría ser mucho más potente si identificase ese mismo problema en su visión idílica de las épocas previas a la contemporaneidad.
Aunque lo hemos esbozado brevemente más arriba, conviene centrarse ahora en el análisis de Sadin de las cualidades que diferencian a la Inteligencia Artificial y la hacen separarse de la historia de la informática al suponer una ruptura conceptual con los desarrollos pasados. Se trata, por ponerlo en sus palabras, de la emergencia de una aptitud interpretativa, también denominada más adelante facultad cognitiva, que nos indica que las máquinas han dejado de ser simples apoyos para la recolección, clasificación y manejo en general de datos, para convertirse en entes que evalúan las propiedades de ciertas situaciones y revelan fenómenos enmascarados a nuestra conciencia.[9] Para nosotros, esta visión un tanto mítica de las capacidades de la Inteligencia Artificial viene marcada por una ignorancia del fundamento teórico del funcionamiento de los algoritmos utilizados en esta disciplina, y, desde luego, el vocabulario utilizado no ayuda al lector desprevenido a saber qué hace realmente un algoritmo de Inteligencia Artificial y cuál es el papel del humano en su funcionamiento. La Inteligencia Artificial no tiene ninguna aptitud interpretativa de por sí, al margen de la persona que la ha diseñado. Cualquier algoritmo necesita información externa que haya sido previamente catalogada o identificada de alguna manera por un humano: una serie de imágenes etiquetadas como “peatón en la calzada” para un coche autónomo, un conjunto de datos biométricos referentes a pacientes que hayan o no desarrollado un tipo de cáncer, un grupo de canciones con información relativa a su autor o movimiento artístico para entrenar a un algoritmo que componga nuevos temas, etc. Lo que Sadin llama facultad cognitiva, o eso de revelar fenómenos enmascarados a nuestra conciencia, no es más que ocultar bajo denominaciones sugerentes la aplicación de modelos matemáticos (que, por cierto, obviamente también hemos creado y afinado nosotros) a conjuntos de datos cada vez más grandes y complejos. No hay ningún salto cualitativo en lo que las máquinas están consiguiendo hacer, simplemente un crecimiento brutal en su capacidad de procesamiento y de análisis, cada vez más rico y variado gracias al desarrollo de la ciencia de datos.
Una de las críticas que podemos considerar acertadas es la constatación del autor de que el léxico predominante en el campo de la Inteligencia Artificial, en el que se abusa de referencias a mecanismos cerebrales (redes neuronales, capas de neuronas, sinapsis) con el objetivo de dar una capa de barniz naturalista y orgánico al desarrollo informático, supone una elección bastante desafortunada. No obstante, hay un matiz importante que lamentamos que el autor haya pasado por alto. Para él, este vocabulario que abusa del prefijo “neuro” como técnica casi de marketing, es criticable porque es funcional al uso de la Inteligencia Artificial por parte de los organizadores de la sociedad, que conscientemente la enmarcan dentro de su programa de racionalización y desarrollo capitalista, en el que la máquina de lo social alcanza su funcionamiento óptimo cuando se garantiza una adecuada capacidad del cerebro que la controla. Podemos estar de acuerdo aquí con el autor, aunque nuestra línea de crítica es algo distinta; los términos elegidos para ciertas partes de la Inteligencia Artificial, o incluso este mismo, pierden en precisión y claridad conceptual lo que ganan en prestigio y fascinación divulgativas. Denominar un cierto elemento como “red neuronal” nos invita a fantasear con una estructura compleja de transmisiones de información que dispone de capacidad de pensar, y podemos sentirnos decepcionados cuando nos damos cuenta de que se trata de un procedimiento matemático recursivo basado en el cálculo diferencial y las regresiones lineales. Por eso es tan importante que cualquier filósofo de la técnica, y más aún de la informática y las ciencias de la computación, como Éric Sadin, aporten rigor científico y aclaración conceptual a los elementos que analizan, en vez de saltarse ese paso y dirigirse directamente a las funcionalidades económicas, sociales y políticas de los artefactos estudiados.
Al hilo de esta necesidad de presentar los fundamentos teóricos sobre los que descansa la Inteligencia Artificial, el capítulo dedicado al estudio del Machine Learning[10]deja bastante que desear. Al batiburrillo conceptual que nos introduce el autor al respecto del aprendizaje supervisado, no supervisado y por refuerzo (por ejemplo, identificando como sinónimos los dos últimos términos), en el que en ningún caso se molesta en explicar la diferencia entre los mismos, hay que añadirle un cierto tremendismo alarmista al respecto de las capacidades de las que disponen los algoritmos de Machine Learning. Merece la pena trascribir uno de los párrafos para ejemplificar lo que apuntamos:
Entramos en la era de la “posprogramación”: la programación suponía alinear secuencias de códigos con vistas a ejecutar tareas definidas y sistematizadas. Pero ya no vivimos solamente en la era de las instrucciones dadas a protocolos, en su sentido literal, sino en la era de scripts que, una vez escritos, desarrollan su propia gramática en función de la “vida” de cada uno de ellos, haciéndoles adquirir una “personalidad” singular. Se manifiesta una nueva forma de autonomía que no es solamente la provocada por facultades autodecisionales (…) sino que es una forma de autonomía actualmente en devenir que resulta de la licencia que se otorga a las inteligencias artificiales para trazar su “propio camino” y luego diferenciarse conforme a su propia “experiencia”.[11]
Habría que utilizar muchísimas más comillas de las que utiliza el autor para poder asignar a los algoritmos de Inteligencia Artificial algo medianamente cercano a los conceptos de vida, personalidad, propio camino o experiencia. Como alegorías, rayando en el liricismo, son muy ocurrentes y estimulan nuestra imaginación. Ahora, si después de haber criticado el uso de cierto léxico por funcional al enmascaramiento de la verdadera esencia de la Inteligencia Artificial, se nos vende que ésta puede entenderse como poseedora de estos atributos humanos, consideramos que se ha perdido toda pretensión de exactitud y rigor que corresponde a un tema tan serio. Creemos que el autor debe elegir uno de los dos caminos: o apuesta por la misa de la representación metafórica de tintes continentales para reforzar sus trazas de alarmismo, o se pone a repicar con un análisis técnico y esclarecedor de los fundamentos teóricos de las ciencias de la computación.
No queremos detenernos excesivamente en la tercera parte del libro[12], puesto que en nuestra opinión es la sección más nebulosa, sin una relevancia clara en el discurso lógico del texto, pero es útil en tanto que deja atrás una lectura antropológica de la Inteligencia Artificial para adentrarse en la esfera estrictamente política de la misma.
De manera continuada, a lo largo de la obra, el autor ha ido señalando que el social-liberalismo (sic), al que también denomina tecno-liberalismo, ha encontrado la herramienta perfecta, de la que no disponía antes, para ejercer de forma cada vez más extendida un control de la actividad social; control que se basaría en una racionalización de ciertos sectores de la sociedad (…) haciendo advenir una “era de la racionalidad extrema”.[13]En línea con esto, al hablar de cómo en la actualidad el Estado ha puesto a disposición pública ingentes cantidades de datos estadísticos sobre el comportamiento de la población, Sadin expone lo siguiente:
El objetivo declarado no consiste solamente en hacer accesibles todo tipo de informaciones relativas a las propias actividades, sino que prioritariamente consiste en autorizar su explotación con vistas a estimular la oferta de nuevos servicios. (…) Esta lógica supone no solamente que el mundo económico ya no está situado a la distancia justa de la organización de los asuntos en común, sino más todavía, que se beneficia de la colaboración del Estado, que le permite hacer más intensos los vínculos con las personas.[14]
Este pasaje nos hace preguntarnos en qué época histórica el mundo económico ha estado situado a cierta distancia de la organización de los asuntos en común. Esa visión de la economía y la administración pública como dos sectores estancos, aislados el uno del otro y sujetos a ser analizados independientemente es una perspectiva intelectualmente muy pobre, y realmente preocupante en un autor que cita a los clásicos marxistas tan profusamente. Entender que es gracias a la Inteligencia Artificial que los agentes económicos privados se benefician de la colaboración del Estado, por el hecho inane de que exista la publicidad de las estadísticas, es un error a nivel historiográfico.
Esta transformación digital del Estado va de la mano, para el autor, de un cambio en el estatuto del ciudadano. No sabemos cuál es el estatuto de ciudadanía en el que nos encontrábamos antes del advenimiento de la era digital, porque el autor no ha tenido a bien realizar esa comparación, pero sí que hace un detallado análisis de en lo que implica ser ciudadano hoy: convertirnos en clientes que utilizan servicios y simplemente buscan ver garantizada su satisfacción. La endeblez teórica de esta caracterización sociológica viene bien demostrada en el siguiente párrafo:
Hasta tiempos muy recientes, la política (…) suponía perfeccionar la igualdad de derechos, trabajar en los avances sociales, sostener la educación, permitir un acceso universal a salud (sic), favorecer a la cultura. De ahora en adelante el desafío consiste en reducir los costos, dejar actuar a los sistemas y hacer como si todos pudiéramos beneficiarnos relativamente de distintos servicios en cada secuencia de la vida cotidiana.[15]
Al margen de la idealización de la política previa a nuestro presente y de la falta de claridad en la comparación con la política actual y futura (¿qué será eso de dejar actuar a los sistemas?), la argumentación del autor se descalabra a continuación, cuando encuentra esta divertida situación para sustentar su enfoque:
Un ejemplo es aquello en lo que se están convirtiendo las bibliotecas, que ya no son lugares de lectura de libros y periódicos que ofrecen momentos propicios para los descubrimientos y para la adquisición de conocimientos en un marco favorable a la reflexión y en una atención serena, sino que se convierten en espacios en donde ahora se proponen cursos de yoga, donde se hacen relatos de los propios viajes, donde se toman cafés o jugos de fruta y en donde hay intercambios de acuerdo con la nueva doctrina de la vida social basada en el primado del bienestar y la expresividad de uno mismo.[16]
Siendo condescendientes, en el peor de los casos esto es otra muestra más de la falta de seriedad a la hora de extraer conclusiones y fundamentarlas teóricamente, y en el mejor una pequeña licencia que se ha tomado Sadin para exorcizar alguna mala experiencia haciendo yoga en la biblioteca de su barrio. En ambos casos es una mezcla de churras con merinas, un intento de achacar a las ciencias de la computación y a la Inteligencia Artificial algo completamente ajeno a ellas.
Por otro lado, hay una argumentación bastante curiosa que se deja traslucir en todo el escrito de Sadin, pero que éste tampoco acaba de enunciar explícitamente, y es la caracterización negativa de la vocación de organizar y ordenar la sociedad. Este ímpetu de control integral, que se vería enormemente impulsado por la Inteligencia Artificial y la ciencia de datos, es para el autor un elemento característico del capitalismo (incluso del capitalismo dirigido (sic) en el que enmarca a China):
Vemos relanzada la teoría de la “física social”: Auguste Comte la designaba como la “ciencia de las sociedades”, y había precedido a la “ciencia de los hechos sociales”, que tomó el nombre de sociología. La primera habría creído en la posibilidad de erigir una cartografía casi total de los fenómenos humanos, que entonces podían ser ordenados según ciertas reglas. (…) Vivimos la era de la voluntad de modelar nuevamente los hechos sociales.[17]
Esta visión crítica del interés humano por controlar en el mayor grado posible su propio desarrollo está en connivencia absoluta con las tesis defendidas por autores como Hayek, hasta el punto de haber elegido la misma figura explicativa: Auguste Comte.[18]Destacamos esto, con un reconocido riesgo de caer en lo ad hominem, porque creemos que una filosofía de la computación y de la Inteligencia Artificial que parta de postulados humanistas no puede embestir ciegamente contra la propensión y la vocación de control de ciertas áreas de la sociedad, como puede ser la planificación económica. La crítica tiene que ser quirúrgica, analítica; la vocación humana de controlar cada vez más su propio destino no es per senegativa, eso implica caer en un esencialismo inútil. Se debería tratar de estudiar qué tendencias concretas dentro de la Inteligencia Artificial apuntan a posibles transgresiones de nuestros derechos fundamentales, y cómo operan los resortes políticos de los que disponemos para compensar dichas tendencias, en vez de despachar de un plumazo los avances en computación etiquetándolos como la implementación de una fantasía de civilización que aspira a que todo funcione al unísono en vistas a construir un universo desprovisto de fallas, indefinidamente dinámico y perfectamente autorregulado.[19]
Una de las desafortunadas vetas de la tesis de Sadin, que ya hemos vislumbrado, es el concebir la Inteligencia Artificial como una herramienta muchísimo más potente de lo que hoy es. Al otorgarle capacidades y potencias muchísimo mayores a las que realmente tiene, su caracterización se colorea más fácilmente de tintes preocupantes, y se presta mucho más a las inquietantes metáforas que nos brinda el autor. Ejemplo de todo ello es la sección que dedica a la supuesta desaparición de lo real.[20] En ella encontramos no pocos encumbramientos de nuestra capacidad de desentrañar los mecanismos que gobiernan la realidad, gracias a los sensores que recopilan datos de cada vez más aspectos de nuestra existencia. Estamos cada vez más cerca de descifrar los fenómenos que nos rodean y de los que somos partícipes, lo que supone eliminar de la realidad esa pared de incognoscibilidad contra la que el ser humano se ha estrellado durante toda su historia, hasta hoy. En palabras del autor:
Detentamos un dominio creciente en nuestra relación con lo real, ya que de ahora en adelante podemos plegarlo a nuestros deseos, a nuestras exigencias, someterlo a nuestras categorías, y pronto no nos opondrá ninguna resistencia. (…) Lo que se ve redefinido entonces es el sentido de la acción humana, y más ampliamente el de nuestra humanidad, ya que nos vemos liberados de la duda y del peso de la responsabilidad.[21]
Como ya hemos dicho, es un lugar común del texto el erigir hombres de paja contra los que luego es muy fácil cargar. Esta concepción de Sadin del nivel que hemos alcanzado en el desarrollo de algoritmos y la implementación efectiva, realmente existente, de la Inteligencia Artificial, recuerda al meme del perro musculado, que representaría la existing Artificial Intelligence, enfrentado al ejemplar raquítico y triste, en el que la actual Artificial Intelligence se vería encarnada.
El último capítulo del libro[22], que deja un tanto de lado la intención explicativa para tomar explícitamente un carácter propositivo, es quizá el más acertado de todo el texto, en cuanto aquí el autor parece encontrarse más cómodo vehiculando a través de la crítica sociológica el juicio al establishment científico-técnico y su comportamiento estructuralmente funcional a la búsqueda de beneficio económico de las grandes corporaciones. Está escrito en un lenguaje provocativo que aquí sí encaja a la perfección, y dota a esta última parte de un cierre a modo de manifiesto que casi consigue hacer olvidar todos los errores conceptuales que han ido quedando diseminados y que hemos analizado en esta reseña.
Para finalizar, queremos reincidir en la importancia de una filosofía crítica de la Inteligencia Artificial, y en este sentido el de Éric Sadin es un aporte que no debe ser pasado por alto, pero dicha filosofía tiene que partir siempre de un conocimiento técnico lo más preciso posible, que sirva de cimiento conceptual para a partir de ahí evaluar cuáles son los elementos positivos a conservar, cuáles deben ser atacados y de cuáles aún no tenemos información suficiente como para emitir aseveraciones consistentes.
[1] Sadin, É. (2021). La Inteligencia artificial o el desafío del siglo: anatomía de un antihumanismo radical. Buenos Aires, Caja Negra. Traducción de Margarita Martínez. En adelante, las notas al pie que apunten el número de páginas sin otra indicación se refieren a la obra mencionada. [2] p. 17 [3] p. 95 [4] p. 134. [5] pp 125-136. [6] p. 21. La negrita es nuestra. [7] p. 31. [8] p. 41. [9] pp. 57-58. [10] pp. 71-80. [11] p. 77. Comillas del autor. [12] pp. 153-191. [13] p. 162. Comillas del autor. [14] p. 208. [15] p. 210. [16] pp. 210-211. [17] pp. 225-226. [18] Para profundizar en esta coordinación de las tesis de Sadin con la crítica liberal/libertaria véase Von Hayek, Friedrich A. (2003). La contrarrevolución de la ciencia: estudios sobre el abuso de la razón. Madrid, Unión Editorial. [19] p. 231. [20] pp. 247-258. [21] p. 249. Cursivas del autor. [22] pp. 261-311.
0 notes
gonzaloanero · 3 years
Text
Comentarios sobre Rationality in Psychology and Economics, de H. Simon, y Rational Fools: A critique of the behavioral foundations of economic theory, de A. Sen
Una de las tesis sostenidas por Herbert Simon en su artículo de 1986 consiste en que la racionalidad económica, entendida como la asunción de que los actores económicos maximizan cierta utilidad esperada, supone solo una pequeña parte entre todas las premisas que explicarían la toma de decisiones de estos actores, y normalmente ni siquiera es la parte más importante. 
El resto de premisas que los modelos económicos tradicionales consideraban (en la época en la que el texto fue escrito), eran un conjunto de postulados auxiliares acerca de las utilidades, las creencias, las esperanzas, los principios, etc., de los agentes económicos. Simon defiende en este apartado la necesidad de una teoría con fundamentación empírica que dé cuenta de esta serie de postulados: qué información utilizan los agentes y cómo la procesan. 
Esta es la principal falta que el autor encuentra en la producción académica de sus tiempos. En esta línea de acción, la tarea del artículo es comparar y contrastar los conceptos de racionalidad prevalentes en los campos de la psicología y la economía. Esta última disciplina ha considerado siempre el comportamiento humano como racional, al menos dentro de su ámbito de estudio, cerrando la puerta a la posibilidad de elementos de irracionalidad en la conducta, algo que habría quedado relegado a ser tema de estudio de otras ciencias, como la psicología. 
Para Simon, al margen de la economía, el resto de ciencias sociales han contado con una veta empírica que las ha llevado a obtener conocimientos relevantes de sus realidades estudiadas, por lo que promulga que también la economía asuma ese principio de investigación como rector de sus actividades. 
Aspectos como la naturaleza y el origen de los valores, así como el cambio de estos con el tiempo y la experiencia, los procesos individuales y/o sociales que sustentan las tomas de decisiones o las estrategias computacionales utilizadas en el razonamiento supondrían para el autor ejemplos propicios para ser estudiados desde una perspectiva empírica. Esta diferencia entre la psicología y la economía en el concepto de racionalidad descansa en una distinción más fundamental: en economía, la racionalidad se ve en los términos de las elecciones que produce, mientas que en la psicología se ve en términos de los procesos que emplea. A la primera forma de entenderla Simon la denota como sustantiva, mientras que la segunda sería procedimental. Desde la perspectiva del autor, para poder avanzar desde la racionalidad sustantiva a la procedimental se requiere una profundización y ampliación de los fundamentos empíricos de la economía. Es decir, no es válido establecer postulados teóricos que actúen como premisas dadas (por ejemplo, que la función de utilidad tenga tal o cual forma, o que los actores se crean expectativas de cierta manera) si no están sobradamente justificados de forma empírica. El ethos de la ciencia requiere para Simon que todos los puntos de partida asumidos como ciertos se apoyen en observaciones obtenidas y analizadas de forma objetiva. 
Una de las críticas más potentes realizadas en este artículo está dirigida a los autores neoclásicos y algunas de sus conclusiones. Concretamente a la tendencia generalizada de suponer cualquier asunción auxiliar que ayude a preservar la coherencia de los postulados que se buscan defender, aunque no exista verificación empírica de ningún tipo. 
Además, a la exigencia de sustentación empírica, los autores criticados por Simon prefieren desviar la atención hacia las predicciones correctas realizadas por sus modelos, en vez de asumir la aportación y enfocar su atención en mejorar las premisas de las que parten sus investigaciones. 
Como conclusión, Herbert Simon constata que la teoría de una racionalidad sustantiva y las asunciones de una supuesta maximización de la utilidad no proporcionan una base suficiente para explicar y predecir el comportamiento económico. Gracias a la psicología se dispone de un cuerpo teórico sustentado empíricamente en relación con los procesos que la gente lleva a cabo realmente a la hora de tomar decisiones de forma razonable. Este cuerpo teórico establece que estos procesos son sensibles a la extrema complejidad de los contextos y del aprendizaje humanos. La aplicación de esta teoría de la racionalidad procedimental lógicamente supone una investigación empírica detallada, con el objetivo de determinar específicamente cómo el contexto moldea la toma de decisiones en los ambientes económicos realmente existentes. 
En su artículo, Sen se centra en cuestionar cierta visión hegemónica en los modelos económicos del siglo XIX, de los que son ejemplos paradigmáticos las disputas entre Edgeworth, Spencer, Sidgwick y otros. Dichos modelos estaban pensados para responder a preguntas muy concretas, como por ejemplo en qué sentido y hasta qué punto el comportamiento egoísta promueve el bienestar general. 
La cuestión tratada por el autor no estriba tanto en la relación de los modelos postulados con el mundo económico real, sino con el acierto al responder a preguntas bien definidas basándose en unas asunciones que son las que limitan los propios modelos incluidos en el análisis. La pregunta antes mencionada supone un cierto concepto de ser humano, y es imposible salirse de esta concepción mientras se quiera responder a una pregunta tan concreta. 
La conclusión de Sen es que la naturaleza del ser humano asumida por estos modelos refleja la formulación particular de preocupaciones filosóficas generales. Hay que traer a colación aquí la teoría de la preferencia revelada, que establece que se pueden definir los intereses de una persona por las elecciones que lleva a cabo: si un individuo elige x frente a y se entiende que ha revelado una preferencia por x sobre y. La búsqueda del interés propio, de la que la teoría de la preferencia revelada es solo una de las múltiples explicaciones propuestas, tradicionalmente se ha identificado con la elección racional, y es un proceso que simplemente requiere cierta coherencia interna.
Las elecciones de una persona serán consideradas racionales bajo esta perspectiva si pueden ser explicadas en términos de una relación de preferencias; es decir, si todas sus decisiones pueden ser explicadas como las elecciones de las alternativas preferidas. Para Amartya Sen este enfoque se basa en la idea de que la única forma de entender las preferencias reales de los individuos es examinar las elecciones finalmente llevadas a cabo, y prácticamente descarta estudiar esta toma de decisiones desde algo que ponga el foco en otros aspectos distintos de la decisión tomada en sí. 
En línea con la propuesta de Simon, Sen constata que la complejidad de los procesos psicológicos que subyacen a la toma de decisiones están cada vez teniéndose más en cuenta a la hora de analizar cuestiones como las decisiones de los consumidores y las actividades productivas. No obstante, permanece abierta la cuestión de si estas características conductuales pueden ser encuadradas dentro de los límites formales de los modelos neoclásicos, en los que se enmarca la teoría de la maximización del bienestar propio. 
Para este alejamiento de dichos modelos, que proponen ambos autores, Sen destaca la importancia de distinguir entre dos conceptos: empatía y compromiso. El primero de ellos hace referencia al hecho de que lo acontecido sobre otros influye en nuestro propio ánimo. Sirva como ejemplo el caso de la tortura; si el conocimiento de que cierta persona está siendo torturada hace surgir en nosotros un rechazo visceral, estaríamos hablando de empatía, mientras que si no nos afecta anímicamente, pero reconocemos que es reprobable y estaríamos dispuestos a actuar para evitarlo, entraría en juego el compromiso. 
Es interesante destacar aquí que, en realidad, si estamos actuando movidos por la empatía, se podría entender que lo que buscamos al fin y al cabo es nuestro propio bienestar, al obtenerlo cuando garantizamos el bienestar de otros, o al evitarlo cuando evitamos las penas de alguien ajeno. En este sentido el compromiso sería el comportamiento verdaderamente altruista, no movido por la búsqueda del interés propio. El concepto de compromiso presentado por Sen supone una distinción importante entre las elecciones personales y el bienestar personal, dos cuestiones distintas que los modelos económicos tradicionales habían tratado como lo mismo, confundidos a veces por la ambigüedad del término preferencia. 
En este sentido, parece ser que la teoría neoclásica de la maximización de la utilidad parte de la base de unos seres humanos demasiado simples, con órdenes de preferencias bien establecidos que muestran claramente sus valores e intereses y explican su comportamiento y elecciones. Estos modelos desembocan en un concepto de individuo racional muy limitado: aquel que simplemente hace gala de coherencia interna en lo referente a la toma de decisiones.
0 notes
gonzaloanero · 4 years
Text
Observaciones sobre “Las Prácticas Matemáticas en Contexto”, de Víctor Rodríguez
Este texto se encuentra recogido en la antología Historia, Prácticas y Estilos en la Filosofía de la Ciencia: hacia una epistemología plural realizada por Sergio Martínez, Xiang Huang y Godfrey Guillaumin. 
Más allá de intentar hacer un análisis exhaustivo de la disciplina, o de centrarse en alguna de las ramas temáticas de la misma, el autor aboga en el texto por poner el foco de atención en las prácticas matemáticas, entendidas como la dinámica interna de la disciplina, que engloba tanto el proceso de justificación de los conocimientos como el contexto de descubrimiento, desarrollo y comunicación de las teorías matemáticas. 
Víctor Rodríguez aduce la dificultad de captar en una imagen general la situación actual de las matemáticas, y esta observación a mi juicio no es trivial, sino que está íntimamente ligada a la propia estructura de este campo de conocimiento. Se trata de un ámbito sobre el cual varios debates filosóficos de calado siguen abiertos. Podemos poner como ejemplo significativo el referente al estatuto ontológico de los objetos matemáticos. De un lado encontramos posiciones cercanas al platonismo, que también han sido definidas como realismo matemático, mientras que existen visiones opuestas que consideran las matemáticas como un aparato formal de construcción humana, gracias al cual las disciplinas científicas materiales pueden desarrollarse de una manera exacta y sin vaguedades.
De hecho, el autor reconoce que este último ha sido el enfoque adoptado por la mayoría de filósofos del siglo XX, orientándose a las relaciones entre lenguaje, lógica y matemáticas. La premisa ontológica desde la cual se parta desembocará en una línea de estudio de la disciplina diferente de otras posibilidades, o por lo menos dará al análisis filosófico algunos rasgos particulares. Aun así, en este caso, el autor elige un punto de encuentro en el que pueden converger sin discrepancias distintas filosofías de las matemáticas: el concepto de práctica. Reiteramos aquí la definición que da Rodríguez de este término; procesos e ideas-guía que han confluido en teorías importantes. Puede decirse que hay cierta veta sociológica en la perspectiva que adopta en su texto. 
Una vez esclarecido el enfoque por el que opta Víctor Rodríguez, llegamos a algunas de las reflexiones que plantea en su publicación. Rodríguez identifica dos grandes cuestiones sin resolver en torno del lenguaje científico: la relación entre matemáticas y mundo empírico y el alcance epistémico de los lenguajes procedimentales. Cita para ejemplificarlo a dos matemáticos ilustres del siglo XX. Henri Poincaré comentaba que el futuro de las matemáticas yace en el desarrollo de la física matemática orientada a la descripción de fenómenos relativistas y cuánticos, y R. Guy observaba que las matemáticas deben a menudo más a los que hacen preguntas que a los que las resuelven. Plantear buenos problemas no fáciles de resolver es un arte difícil que exige un balance entre la trivialidad y la insolubilidad sin esperanzas, baste analizar la conjetura de Riemann, a la que algunos autores le encontraron conexiones potenciales con la física. 
Resumiendo este apartado, a ojos del autor aún 
“estamos lejos de comprender adecuadamente el alcance de un lenguaje matemático en relación con el contexto de aplicación del mismo.” 
Con respecto a las demostraciones matemáticas, el autor reivindica el rol de las prácticas y del contexto de descubrimiento frente al de justificación. El procedimiento por tanteo es para Víctor Rodríguez muchas veces más importante que el esfuerzo por legitimar lo encontrado. Para apoyar su argumento, cita a Philip Kitcher, que reconocía la importancia de la capacidad de responder preguntas importantes de cierta teoría matemática, por encima de consecuencias adversas de la misma, como entrar en contradicción con enunciados previos, o no ser entendida, o no ser fácilmente expresable. 
El autor reconoce que la estabilidad epistemológica en torno del significado de las demostraciones ha sido una característica distintiva de la disciplina desde Euclides. Sin embargo, elige alinearse con perspectivas como la de Lakatos, entendiendo las demostraciones como niveles de conjeturas, analizables a través de las prácticas y con una fuerte componente heurística. El razonamiento plausible y el arte de plantear y resolver problemas son parte de las prácticas matemáticas. En este punto, cabe destacar la mención a la génesis de los conocidos como Arnold’s Problems, en la que se mezclan estilo y tradición cultural. 
Tras hacer una breve referencia bibliográfica a la interacción con otras disciplinas, principalmente la biología: genética de poblaciones, plegamiento de proteínas, inmunología teórica…, Víctor Rodríguez pasa a repasar el rol de las computadoras en la matemática experimental. Para él, se está produciendo un distanciamiento por parte de algunos modelos científicos -enmarcados en el realismo ingenuo-, en relación con los referentes provenientes del mundo empírico; es decir, se está incrementando el nivel de abstracción de los lenguajes científicos en la mayoría de disciplinas, lo que ha derivado en un grado creciente de complejidad. 
Aparte de las ciencias de la computación, la física es el campo que en relación con las matemáticas ocupa el lugar más importante. La física representa el caso paradigmático en el que que no sólo las teorías, sino aún los lenguajes de teorías todavía por construir, 
“se adelantan con éxito incierto a los experimentos, al modo de gigantescas heurísticas que pretenden acomodar una inmensa red de información y trama teórica, con eventual poder predictivo. Con el correr del tiempo, estas nuevas entidades pueden tomar otros cursos al margen de las expectativas de sus creadores, cobrando vida propia en el concierto de las teorías y los lenguajes matemáticos.”
 Rodríguez pasa a continuación a centrarse en el tratamiento matemático del cambio. Desde un enfoque cronológico, es el desarrollo del cálculo diferencial e integral el que marca el pistoletazo de salida de este problema concreto dentro del campo de las matemáticas. A partir de la concepción de esta rama, la búsqueda de regularidades e invariantes detrás de los cambios se convierte en un lugar común de la disciplina. 
En cuanto a la geometría, originalmente las simetrías han estado asociadas a los números y a las formas geométricas, en dos y tres dimensiones, y siempre ha existido una importante relación entre simetrías e invariancias a la hora de estudiar los avances a en la expresión de las teorías científicas. A partir del siglo XX y el desarrollo matemático de la mecánica cuántica este interés se acentúa, como ejemplifican el grupo de Lorentz y el grupo de gauge de las partículas elementales. Un hecho curioso de todos modos es que la falta de organización estructural y de correlaciones al nivel local lleva a un elevado grado de simetría global, como en la ley de Gauss de distribución de probabilidades. Es un punto importante en la conexión entre áreas de las matemáticas el nexo entre probabilidad y simetría, y mucho queda todavía por explorar al respecto. 
Volviendo al cálculo diferencial, Víctor Rodríguez observa que la derivada ha sido pensada y expresada en varias formas, entre las que se encuentran: 
 La razón del cambio infinitesimal en el valor de una función al cambio infinitesimal en una función. 
Una regla que asocia un valor específico de una función a otra función. Por decir, la derivada de la expresión A es esta otra expresión B. 
Una caracterización en términos de cantidades tan pequeñas como se quiera. En la nomenclatura matemática usual, en términos de epsilon y delta. 
La pendiente de una línea tangente al gráfico de una función, si el gráfico tiene tangente. 
La lista sigue incluyendo varias definiciones más, lo que apoya el argumento del autor de que 
“en matemáticas, los conceptos suelen estar expresados bajo diferentes niveles de abstracción, y el uso de ellos depende de los objetivos y del nivel de rigor exigidos por las aplicaciones prácticas o por el tratamiento teórico necesitado para desarrollar un área de investigación teórica.”
 Esta apreciación apoya la intención del texto de constituir un enfoque centrado en la práctica matemática como tal. 
En un artículo sobre la unidad de las matemáticas, Michael Atiyah comentaba que el aspecto que más le fascinaba de las matemáticas es la rica interacción entre sus diferentes ramas, las conexiones inesperadas, y las sorpresas. Interpretaba que esto no es un accidente interesante, sino que está en la esencia de las matemáticas. Para él, encontrar analogías entre fenómenos diferentes y desarrollar técnicas para explotar estas analogías es el enfoque matemático básico para el mundo físico. El punto importante para destacar aquí es que consideraba que no debe perderse este punto de vista, ya que la axiomática ha tendido a dividir a las matemáticas en ramas especializadas, cada una de ellas restringida a desarrollar las consecuencias de un conjunto dado de axiomas. Un punto adicional que remarcaba es la necesidad de simplicidad, puesto que el propósito de las matemáticas es explicar tanto como sea posible en términos básicos simples. 
Se ha dicho que la matemática es todavía una actividad humana, no un programa computacional. Y uno de sus principales rasgos es la acumulación de experiencias de generación en generación. Esta simple reflexión impresiona como de gran riqueza filosófica, y las prácticas matemáticas como una fuente inagotable de estímulos epistemológicos. 
0 notes
gonzaloanero · 4 years
Text
¿Dependencia epistémica centro-periferia? Un comentario breve a Sismondo.
Estos cinco párrafos son una reflexión en borrador sobre el cierre de “An Introduction to Science and Technology Studies”, Wiley-Blackwell, 2010, de Sergio Sismondo, en el que propone la agenda que deben seguir los estudios de la ciencia y la tecnología al enfocar el problema del desarrollo económico.
Antes de entrar en más detalle, creo que para estar de acuerdo, al menos en parte, con el desarrollo deductivo de Sismondo, hay que compartir ciertas premisas. Si el punto de partida ya supone una divergencia importante es muy difícil que se pueda andar el mismo camino al razonar. Esto es lo que me ocurre personalmente con la perspectiva constructivista que muchas veces se toma en el manual.
Pese a que no tengo problema en aceptar el enfoque materialista y localista en algunas cuestiones, me cuesta separar la parte epistémica del conocimiento científico de su componente social. 
No estoy de acuerdo con la observación de Shrum y Yehuda de que la ciencia y la tecnología deberían verse en términos de formas de conocimiento y práctica específicas de un contexto. No creo que se pueda hablar de ciencia española, o de ciencia del Imperio Austrohúngaro o de ciencia de Palencia más allá de en el sentido geográfico-temporal de esa práctica científica concreta, de dónde y cuándo se esté llevando a cabo, en un sentido trivial en definitiva.
Creo que las conclusiones obtenidas tienen que cumplir un estándar universal, que sí, ha sido y es continuamente determinado históricamente, pero que una vez compartido por la comunidad científica garantiza que el avance científico dado en un lugar y tiempo concreto tenga que ser comunicable, comprobable y asumible en cualquier otro contexto. 
Esto entra en conflicto con la visión de Sismondo de una supuesta relación de dependencia entre la ciencia del mundo sub-desarrollado y la ciencia occidental. De nuevo, el no ser capaz de conjuntar la parte epistémica de la parte social me hace estar de acuerdo solo parcialmente con la visión del autor y, por tanto, con su propuesta de agenda. Pienso que ese enfoque es totalmente válido y productivo cuando no amplía su objeto de estudio al conocimiento científico propiamente dicho. No puedo estar de acuerdo con la referencia que hace Sismondo de Goonatilake, en la que argumenta que lo que es considerado como conocimiento científico en un contexto periférico y dependiente es lo que se ha legitimado en el centro. En línea con mi observación anterior, que algo sea o no considerado conocimiento científico lo dirán las reglas del método científico y la confirmación teórico-experimental de dicho conocimiento. Y para completar, que la génesis y el desarrollo inicial del método científico haya sido occidental no implica unívocamente una relación de dependencia, puesto que el resto del mundo científico ha decidido asumirlo y tomarlo como propio por su efectividad contrastada, no por imposiciones consignadas desde el centro.
0 notes
gonzaloanero · 4 years
Text
No me digas de qué presumes.
Para llamarse a uno mismo escritor no basta con saber escribir. De hecho, creo que no hay acto más pedante que llamarse a uno mismo escritor. Uno escribe, y el resto ya le juzgará con la categoría que crea conveniente. Lo que no puede ser, lo que no debería poder ser, es que en un acto de puro envalentonamiento cultural nos colguemos etiquetas que nos vienen demasiado grandes.
No me imagino a las mentes más brillantes de la literatura universal aireando alegremente su condición de escribientes entre sus allegados, ya fuese en la Gaceta de Salamanca, en el foro de la polis o en Twitter. Que no. Y es que para mí hay una relación inversamente proporcional entre el tiempo que dedica un individuo a definirse de cierta forma y el que dedica a ser de esa forma. 
Escribir es proyectar la vida sobre un plano, que arbitrariamente es el papel, como arbitrario es elegir el mármol, el lienzo o las cuerdas del bajo. Es traducir la vida a otro lenguaje, para expresar y entender y razonar e irrazonar y confundir y aclarar mejor. Es aprovechar la miríada de formatos para elegir el que se adapte a lo que tenemos dentro y a cómo lo queremos sacar. Por eso nadie debería llamarse escritor, ni pintor, ni escultor, ni bajista, igual que nadie se llama vividor a sí mismo sin dar bastante vergüenza ajena. 
Puedo aceptar la categorización como herramienta profesional, como recurso de identificación para conseguir algún objetivo, para facilitar la promoción personal y todas esas cosas. Estoy hablando de otra cosa. El DNI nos dice quiénes somos, pero no dice nada de quiénes somos. 
El que tiene escritor en su DNI no está cometiendo pecado alguno; el que tiene escritor en su pregón diario debería doblar el cuello, mirar hacia el suelo penitentemente y recordar que el refranero español con su infinita sabiduría ya se encarga de meter a cada uno en vereda porque dime de lo que presumes, etc. 
Esto para empezar. Porque hasta aquí podría haber discusión y quizá haya alguna cita suelta de algún escritor (de los de verdad, de los que no llevan el cartel de neón señalándose y señalando al mundo su condición) en la que pavoneándose se reconozca como tal y entonces habría debate y todo es relativo, y mira lo que dijo Bukowski y que sí, que vale.
Por donde no paso es por escribir mal. Eso sí que no. No, señor. Creo que he dejado claro a mi juicio cuál debería ser uno de los requisitos indispensables para entrar en el censo electoral y/o ser una persona de bien: ser comedido, cauto, modesto. Hacer gala de la sencillez cristiana y no ir de lo que no se es. Es más, no ir de lo que se es, tampoco. Hablar lo mínimo y hacer lo máximo. 
Pero hacerlo bien. 
Si ya tienes el valor para definirte como escritor, qué menos que asegurarte con todas las energías que tengas disponibles de que escribes correctamente. Por lo menos sin faltas de ortografía. 
No puedo concebir un ingeniero que no aplique bien la propiedad distributiva del producto, no puedo concebir a Hamilton sin saberse las marchas del coche, y por eso cuando veo una falta de ortografía recurrente en alguna publicación de esta peña me enciendo y me pongo negro y se me sale el humo por las orejas y noto a cientos y cientos de personas con un talento increíble para la expresión escrita revolverse en sus tumbas y eso no está bien. 
Pues eso, que sí, esto va por ti, porque no eres escritora por mucho que lo diga tu bio de Twitter y tu cuentito juvenil para furros.
0 notes
gonzaloanero · 5 years
Link
0 notes
gonzaloanero · 5 years
Text
¿Quién le hace sombra a Vivianne Miedema? Algoritmos de agrupamiento para encontrar candidatas.
Poca duda hay en Inglaterra de que Vivianne Miedema es una de las jugadoras más determinantes de la Women’s Super League. Líder en goles (16) y asistencias (8), la holandesa, que cumplirá 24 años en julio, se ha convertido en la pieza clave del ataque del equipo del norte de Londres. Atrás quedó ya el momento en el que se convirtió en la máxima goleadora histórica de su selección, un récord que batió con solo 22 años. 
Aun así, la temporada 2019/2020 está viendo cómo los tres grandes del fútbol femenino de Inglaterra mantienen una lucha muy igualada por la primera posición. El intervalo de 3 puntos en el que se encuentran Manchester City, Chelsea y el propio Arsenal augura un final de temporada igualado, al menos más que los de las últimas temporadas.
En esa línea, vamos a tratar de encontrar a las jugadoras de la categoría que se acercan al rendimiento de Miedema, y a las que, quién sabe, podríamos ver con la camiseta del Arsenal en futuras temporadas, ayudando a conseguir el decimosexto título de Liga para las gunners.
El algoritmo de agrupación por excelencia: k-means
Desde que en 1967 James MacQueen utilizase el término por primera vez, este algoritmo ha sido uno de los más utilizados, estudiados y desarrollados dentro del campo del análisis de datos, y más concretamente, en el apartado de minería de datos.
Su funcionamiento a grandes rasgos se basa en clasificar distintos elementos de un conjunto de datos en k agrupaciones, buscando minimizar las distancias cuadráticas de los valores de dicho elemento con respecto a las medias (means) de dicho conjunto. 
Tumblr media
El valor de k se puede definir de varias formas. Uno de los métodos más comunes es el llamado Elbow, a partir del cual se obtiene una gráfica que indica visualmente cuál es el valor de k óptimo.
Agrupamiento de jugadoras
Con estas herramientas en la mano, podemos proceder a buscar qué jugadoras nos va a agrupar el algoritmo junto a Vivianne Miedema. Los datos con los que se ha trabajado están ofrecidos en abierto por StatsBomb a través de la página FBRef. 
El filtrado de los datos se ha realizado para quedarnos con aquellos que consideramos interesantes para la comparación con Miedema, esto es, principalmente variables ofensivas, fundamentalmente relacionadas con disparos, creación de ocasiones y pases clave, y dejando de lado algunas como intercepciones, robos de balón, etc. 
Actualmente existen numerosos métodos para que este filtrado de las variables lo realice el propio algoritmo, enmarcados dentro del aprendizaje no-supervisado, como el Minkowski Weighted K-Means, en el que se establecen ciertos coeficientes asociados a cada variable, para darles distintas importancias a la hora de realizar los agrupamientos.
Una vez que se han preparado los datos para agruparlos, es necesario darle un valor al parámetro k. Aquí se puede ver el gráfico elbow que obtenemos:
Tumblr media
Parece claro que a partir de 15 el error no disminuye significativamente (incluso aumenta para k=16 y k=17).
Aplicando el algoritmo de k-means al conjunto de datos de todas las jugadoras de la liga, obtenemos 15 agrupaciones diferentes. A continuación, buscamos el grupo en el que se encuentra Miedema, y en él observamos que el algoritmo ha encuadrado a otras cinco jugadoras.
Tumblr media
Para alguien que no conozca demasiado la Women’s Super League inglesa, lo destacable de este grupo de jugadoras es que mientras dos de ellas (Bremer y England) pertencen a dos de los grandes (City y Chelsea respectivamente), las otras tres son jugadoras de equipos de la parte media/baja de la tabla (Williams juega en el Reading, Kelly en el Everton y Graham en el Tottenham). 
Comparaciones con Miedema
A continuación se muestran las comparaciones de las cinco jugadoras con Vivianne Miedema, con respecto a algunas métricas elegidas arbitrariamente. Es importante aclarar que estas no son las únicas métricas en función de las cuales se ha realizado el agrupamiento anterior, aunque están incluidas en ellas.
Tumblr media Tumblr media Tumblr media Tumblr media Tumblr media
Las métricas a las que se hace alusión son las siguientes:
npxG/90: Goles esperados (sin contar penaltis) por cada 90 minutos.
npxG +xA/90: Suma de goles esperados (sin contar penaltis) y asistencias esperadas por cada 90 minutos.
SoT%: Porcentaje de tiros a puerta sobre el total de tiros.
PPA: Pases dentro del área de penalti.
#PlayersDribbled: número de jugadoras superadas en conducción.
Una cuestión importante de estos gráficos es que el valor máximo de cada eje es el máximo de la liga. Es decir, que el gráfico compara los valores de las variables de la jugadora con los valores máximos alcanzados en la competición. Por esa razón nunca pueden ser superiores a 1.0.
Apuntes finales
Una vez que hemos utilizado el algoritmo k-means para restringir el rango de jugadoras a comparar y hemos representado ciertas métricas que consideramos claves para esta comparación, podemos extraer algunas conclusiones:
Pauline Bremer, Bethany England y Fara Williams tienen un perfil parecido al de Miedema, y de estas tres son las dos primeras las que incluso superan a la holandesa en ciertos aspectos. Aun así, es Fara Williams la jugadora cuyo gráfico de radar guarda más parecido con el de la delantera del Arsenal. No obstante, si comparamos las edades de estas tres jugadoras, la juventud de las dos primeras (23 y 25 años respectivamente) contrasta con la veteranía de Williams, que acaba de cumplir 36 años, y no parece que su rendimiento futuro vaya a ir a mejor. 
Chloe Kelly y Kit Graham son dos jugadoras parecidas, que destacan sobre el resto en el desborde. De hecho, Chloe Kelly lidera la clasificación de jugadoras sobrepasadas mediante regates, aparte de ser la máxima goleadora de su equipo con 9 goles.
Kelly, que ya perteneció al Arsenal y acabó cedida en el Everton, club que se hizo con ella en propiedad, es la jugadora más joven de las cinco, con 22 años. Kit Graham cumplirá 25 años en noviembre, y también lidera la tabla de goleadoras de su equipo. Ambas jugadoras son las referentes ofensivas de sus conjuntos, que aun así no parecen poder salir de la zona media de la clasificación. 
Este ha sido un modelo muy simplificado de cómo la aplicación de herramientas de programación sencillas pueden facilitar la búsqueda y selección de jugadoras en un contexto en el que se dispone de buenas muestras de datos, como las que proporciona StatsBomb.
Esperemos que en un futuro la Liga Iberdrola pueda disponer de ellas, para poder dar un paso más en el empleo del análisis de datos para complementar las labores de scouting. 
0 notes
gonzaloanero · 5 years
Link
0 notes
gonzaloanero · 5 years
Link
0 notes
gonzaloanero · 5 years
Link
0 notes
gonzaloanero · 5 years
Link
0 notes
gonzaloanero · 5 years
Link
0 notes
gonzaloanero · 5 years
Link
0 notes
gonzaloanero · 5 years
Video
youtube
0 notes
gonzaloanero · 5 years
Video
youtube
Trato trato y queda en nada
1 note · View note