PSICOLOGÍA, La mente y el entendimiento.
En primer lugar, antes de merodear por otros lugares, vamos a meternos de lleno con la Inteligencia artificial, sosteniendo que la Inteligencia artificial,en el contexto de las ciencias de la computación, es una disciplina y un conjunto de capacidades cognoscitivas e intelectuales expresadas por sistemas informáticos o combinaciones de algoritmos cuyo propósito es la creación de máquinas que imiten la inteligencia humana para realizar tareas, y que pueden mejorar conforme recopilan información. A diferencia de la inteligencia sintética, la inteligencia artificial no tiene como finalidad reemplazar a los humanos, sino mejorar significativamente las capacidades y contribuciones de estos. Se hizo presente poco después de la Segunda Guerra Mundial con el desarrollo de la «prueba de Turing», mientras que la locución fue acuñada en 1956 por el informático John McCarthy en la Conferencia de Dartmouth. En la actualidad, la inteligencia artificial abarca una gran variedad de subcampos. Éstos van desde áreas de propósito general, aprendizaje y percepción, a otras más específicas como el reconocimiento de voz, el juego de ajedrez, la demostración de teoremas matemáticos, la escritura de poesía y el diagnóstico de enfermedades. La inteligencia artificial sintetiza y automatiza tareas que en principio son intelectuales y, por lo tanto, es potencialmente relevante para cualquier ámbito de diversas actividades intelectuales humanas. En este sentido, es un campo genuinamente universal. La arquitectura de las inteligencias artificiales y los procesos por los cuales aprenden, se mejoran y se implementan en algún área de interés varían según el enfoque de utilidad que se les quiera dar, pero de manera general, estos van desde la ejecución de sencillos algoritmos hasta la interconexión de complejas redes neuronales artificiales que intentan replicar los circuitos neuronales del cerebro humano y que aprenden mediante diferentes modelos de aprendizaje tales como el aprendizaje automático, el aprendizaje por refuerzo, el aprendizaje profundo o el aprendizaje supervisado. Por otro lado, el desarrollo y aplicación de la inteligencia artificial en muchos aspectos de la vida cotidiana también ha propiciado la creación de nuevos campos de estudio como la roboética y la ética de las máquinas que abordan aspectos relacionados con la ética en la inteligencia artificial y que se encargan de analizar cómo los avances en este tipo de tecnologías impactarían en diversos ámbitos de la vida, así como el manejo responsable y ético que se les debería dar a los mismos, además de establecer cuál debería ser la manera correcta de proceder de las máquinas y las reglas que deberían cumplir. En cuanto a su clasificación, tradicionalmente se divide a la inteligencia artificial en inteligencia artificial débil, la cual es la única que existe en la actualidad y que se ocupa de realizar tareas específicas, e inteligencia artificial fuerte, que sería una IA que excediese las capacidades humanas. Algunos expertos creen que si alguna vez se alcanza este nivel, se podría dar lugar a la aparición de una singularidad tecnológica, es decir, una entidad tecnológica superior que se mejoraría a sí misma constantemente, volviéndose incontrolable para los humanos, dando pie a teorías como el basilisco de Roko. Algunas de las inteligencias artificiales más conocidas y utilizadas en la actualidad alrededor del mundo incluyen inteligencia artificial en el campo de la salud, asistentes virtuales como Alexa, el asistente de Google o Siri, traductores automáticos como el traductor de Google y DeepL, sistemas de recomendación como el de la plataforma digital de YouTube, motores de ajedrez y otros juegos como Stockfish y AlphaZero, chatbots como ChatGPT, creadores de arte de inteligencia artificial como Midjourney, Dall-e y StableDiffusion, e incluso la conducción de vehículos autónomos como Tesla Autopilot Descendiendo de la nubes, podemos afirmar con toda complacencia que la Inteligencia artificial es la capacidad o aptitud de una máquina o dispositivo para realizar funciones ligadas a la inteligencia humana. A partir de esta primera y sencilla definición se pueden encontrar otras muchas, ya que los investigadores de este campo no se ponen de acuerdo en la formulación de una única definición para la Inteligencia Artificial o IA. La propia etimología del término inteligencia artificial da una sencilla definición de la palabra en cuestión: deriva del término latino intellegentia, que significa 'discernir', 'comprender', 'captar'. Siguiendo esta pauta, Feigenbaum y McCorduck elaboraron en 1983 la siguiente definición: "si pudiésemos imaginar un artefacto capaz de elegir, comprender, percibir y saber, tendríamos inteligencia artificial". Marvin Minsky, uno de los científicos que más ha estudiado este tema, define la inteligencia artificial de la siguiente forma: "IA es el arte de construir máquinas capaces de hacer cosas que requerirían inteligencia en caso de que fuesen hechas por los seres humanos", definición que, sin embargo, no dice nada sobre cuál es la naturaleza de la inteligencia. Otra tipo de definición es dada por E. Rich en su obra Artificial Intelligence: "IA es el estudio de cómo hacer que los ordenadores hagan cosas que, por el momento, las personas realizan de una forma más perfecta". Además, en dicha obra plantea preguntas del tipo: "¿cuales son esas "cosas" que los humanos hacemos mejor que los ordenadores?", cuya respuesta tradicional sería: "todas aquellas que implican inteligencia". Pero, ¿qué es la inteligencia? La dificultad existente en definir esta propiedad humana afecta a la forma en que se define la inteligencia artificial. Además, también existe un prejuicio, muy humano, en declarar que una máquina puede ser inteligente, lo que también dificulta el hecho de encontrar una definición clara. En conclusión, es posible decir que cada investigador define la inteligencia artificial según su propio campo de interés en la materia. Así, se encuentran definiciones relacionadas con la manera en que la inteligencia artificial resuelve los problemas: "la IA es una rama de la Informática, que tiene como métodos para procesar información, la representación del conocimiento usando símbolos en lugar de números y la heurística o conjunto de reglas basadas en la experiencia". (B.G. Buchanan, Enciclopedia Britannica). Sin embargo, quizás las definiciones que más se entienden desde una perspectiva no especializada, son aquellas que comparan las características atribuidas a las máquinas inteligentes, con las capacidades humanas. Una muestra de éstas es la definición de A. Barr y E.A. Feigenbaum en TheHandbookof Artificial Intelligence: "La IA es la parte de la Informática relacionada con el diseño de sistemas de ordenadores inteligentes, es decir, sistemas que exhiben las características que asociamos con la inteligencia en la conducta humana". Antes de que los científicos definieran un campo de la ciencia como Inteligencia Artificial, existía en los humanos la idea de crear inteligencia en artefactos. En la mitología griega hay abundantes referencias a esta idea. Un ejemplo sería el de Pigmalión, que construyó una mujer de marfil a la que dio vida la diosa Afrodita. Pero también en la Edad Media se habla de ingenios inteligentes; los escritos recogen que el papa Silvestre II fabricó una "cabeza parlante" que tenía poderes para contestar preguntas relacionadas con el futuro, incluso se describe su vocabulario, diciéndose que sólo podía contestar a cada pregunta con un sí o con un no. La primera idea de dotar de inteligencia a ingenios creados por el hombre se localiza en la Grecia Clásica, con el poeta Homero, que, unos 800 años a.C., reflexionaba ya sobre los principios y consecuencias de la IA; y, algún tiempo después, aparece un historiador, Polibio, que estaba convencido de que Nabis, el famoso tirano de Esparta, había obligado a sus conciudadanos a pagar los impuestos utilizando un robot. Durante los siglos posteriores se desarrollaron numerosos intentos de crear máquinas con inteligencia. Primero se utilizaron los controles mediante complicados engranajes de relojería, y más tarde se pasó a las estructuras mecánicas, electromecánicas e hidráulicas. En varias fuentes se recoge la historia de Alberto Magno, el famoso filósofo y teólogo alemán profesor de Tomás de Aquino, que construyó en madera, cristal y cera, un criado que podía hablar y abrir la puerta a los invitados. También se sabe que el eminente científico y artista italiano Leonardo de Vinci fabricó, en el siglo XV, un león automático que se colocaba delante del rey, se rasgaba el pecho con una de sus garras y mostraba la flor de lis del escudo de Francia. Siglos más tarde, en el XVIII, se documentan muchos de estos artefactos, como los androides del artesano Jaquet-Droz. En el siglo XIX se crearon máquinas automáticas con capacidades más elaboradas que sus predecesoras. Eran capaces de hablar y de jugar partidas de ajedrez. En el Salón Egipcio de Picadilly, en Londres, se expuso el llamado Euphonia, figura de un turco barbudo que podía realizar preguntas y contestarlas, y que también podía reír, cantar o susurrar. Entre los autómatas capaces de jugar, destaca el fabricado por el investigador español L. Torres Quevedo, que fabricó, a principios del siglo XX, una máquina electromecánica que podía realizar jugadas de ajedrez. En la Expo 70 que se realizó en Osaka (Japón) se exhibió un enorme robot que movía la cabeza y era capaz de reaccionar ante determinados sonidos. Todos los automatismos que se han descrito hasta aquí utilizaban controles mecánicos, eléctricos o electromecánicos, y sólo eran capaces de simular determinados movimientos o funciones de seres animados, pero no poseían verdadera inteligencia artificial. Esta capacidad se hizo real cuando surgió la electrónica; se puede afirmar que la historia de la IA corre paralela al desarrollo de la electrónica y del ordenador electrónico. Y así, en el siglo XX se establece toda una cultura específica sobre la IA, en diversos campos como literatura, cine y televisión. Una de las obras cinematográficas que causó más impacto fue 2001: Odisea del espacio. En esta película, basada en una obra de Arthur C. Clarke, un malvado ordenador, que recibía el nombre de HAL, dirigía y controlaba una nave espacial con tripulación humana. HAL poseía algunas de la características que en la actualidad se investigan en el campo de la IA. Estas propiedades consistían en la capacidad para tomar decisiones eficaces, en el reconocimiento del lenguaje oral, en la visión y en la comprensión coherente de todos los datos que le facilitaban sus sensores, en suma, poseía la comprensión de la realidad del medio en el que se encontraba. La misión de HAL era ayudar a los humanos en la complicada tarea de dirigir la nave, pero HAL se reveló como demasiado eficiente en sus razonamientos y se extralimitó en sus funciones, por lo que la tripulación decidió que debía ser desconectado. Ante esta situación, HAL, exhibiendo un instinto de supervivencia muy estricto, comienza a eliminar a los humanos para impedir su desconexión. Al final de la película, el ordenador es vencido, pero en los espectadores queda la idea de que esta máquina era algo más que simples circuitos interconectados. Era inteligencia artificial. No todos los relatos de ciencia-ficción acusan a las máquinas de poseer instintos perversos, aunque es cierto que un gran porcentaje de ellas si ofrece esa visión. Algunos escritores, como el famoso científico y divulgador estadounidense Isaac Asimov, proporcionaron una visión más positiva de los robots inteligentes. Asimov creó las tres leyes de la robótica, que en un futuro pueden evitar el mal funcionamiento de robots parecidos a HAL, y contribuyó a dar una visión más sensible de las criaturas creadas con inteligencia artificial. Otra muestra del arte cinematográfico sobre la creación de máquinas inteligentes se encuentra en la película Blade Runner, considerada como un clásico del tema. Esta obra, basada en la novela ¿Sueñan los androides con ovejas mecánicas? del escritor P.K. Dick, proponía toda una nueva serie de interrogantes sobre los sentimientos y sensaciones de las criaturas creadas por humanos para su propia descarga de tareas, entretenimiento o placer, y ofrecía una visión espeluznante de la relación entre el ser creado y su creador. Esta obra hacía reflexionar nuevamente sobre la naturaleza de la vida inteligente y su significado. Y, una vez llegados aquí, vamos a hacer un alto en el camino para hablar, aunque sea muy por encima, de la “Historia de la Inteligencia Artificial”. Antes de la creación de las primeras calculadoras se consideraba que la capacidad de realizar cálculos era "inteligente", sin embargo después de la aparición de estos dispositivos y de su masiva utilización, esta tarea se consideró simplemente mecánica. En la actualidad, nadie diría que su calculadora de bolsillo es una máquina inteligente. De esto se deduce la dificultad, como se decía al comienzo de este artículo, para lograr una definición correcta del concepto de Inteligencia Artificial, pues el hombre tiende a distanciar la frontera de la IA en cuanto los logros conseguidos acercan las máquinas a este límite. Durante la Segunda Guerra Mundial, los gobiernos norteamericano y británico utilizaron los ordenadores para descifrar los códigos y claves de los mensajes enemigos, tarea que hasta ese momento necesitaba de la inteligencia humana. El matemático Alan Turing trabajó en el proyecto Ultra que consiguió descifrar la clave "Enigma" utilizada por los nazis. Además, colaboró en el diseño de uno de los primeros ordenadores, el ACE (Automatic Computing Engine), que se desarrolló en el NationalPhysicalLaboratory, en Teddington. Ya en 1950 Turing escribió un artículo titulado Computing Machinery and Intelligence (Ordenador e Inteligencia) en el que hacía sorprendentes reflexiones sobre la inteligencia artificial. En él, Turing proponía un juego para ayudar a esclarecer el tema, que llamó juego de imitación, pero que, más tarde y en su honor, fue denominado Prueba de Turing. Esta prueba consiste en un diálogo entre un examinador y un examinado que no se pueden ver; si, una vez terminada la conversación, el examinador no puede diferenciar si su interlocutor es un humano o una máquina, se considera que el ordenador es inteligente. En la misma época en la que Turing presentaba sus estudios, también existían otros científicos investigando en inteligencia artificial. Uno de ellos, W. McCulloch, un eminente neurofísico que trabajaba en la Universidad de Illinois (Estados Unidos) y que más tarde fue uno de los componentes del laboratorio de electrónica del M.I.T, puso de manifiesto, en 1943, las semejanzas existentes entre el cerebro humano y la forma de trabajo de una hipotética máquina de Turing. Sus estudios en este tema, aunque en la actualidad han perdida fuerza, debido a las últimas investigaciones del funcionamiento del cerebro, sirvieron para impulsar el desarrollo de la inteligencia artificial. En 1937, un joven investigador llamado C. Shannon utilizó el álgebra de Boole para describir los circuitos eléctricos de conmutación. Estos estudios dieron origen, más tarde, al sistema binario que se emplea para almacenar información en los ordenadores digitales. Además, Shannon publicó artículos sobre el uso de los ordenadores en el ajedrez, uno de los primeros campos de estudio de la IA. Otro importante investigador norteamericano, N. Wiener, propuso un nuevo modelo de funcionamiento del Universo. Explicó que algunos fenómenos podían modelarse de forma más eficiente si se le daba más importancia a la transferencia de información entre los sistemas relacionados que a la transferencia de energía entre los mismos. Wiener bautizó a esta manera de relacionarse los fenómenos con el nombre de Cibernética, también título del libro que publicó en 1948 sobre el mismo tema. La Cibernética definida por este investigador estudia las semejanzas funcionales entre el Hombre y la Máquina, y fue determinante en el desarrollo de las primeros estudios sobre Inteligencia Artificial. Un punto de inflexión en la historia de la IA, y en el que se empieza a definir la IA como una disciplina aparte de la Informática, se establece en la Conferencia de Dartmouth, celebrada en 1956 en la localidad norteamericana de Hanover, y en la que se reunieron los investigadores que estaban trabajando en IA para presentar y discutir sus estudios. En dicha conferencia, que se hizo famosa porque en ella se acuñó el término Inteligencia Artificial, todos los científicos asistentes se afirmaron después como los líderes de la investigación en este campo y, aún hoy, sus discípulos o los discípulos de éstos mantienen un puesto predominante en la comunidad científica internacional. Cuatro fueron los investigadores que organizaron esta conferencia: J. McCarthy, M. Minsky, N. Rochester y C. Shannon. Los dos primeros fundaron el Laboratorio de Inteligencia Artificial del M.I.T. que es, en la actualidad, uno de los centros que posee mayor prestigio en el estudio de la IA en el mundo. Además, J. McCarthy es el creador del lenguaje LISP, uno de los más utilizados en inteligencia artificial. Durante la década de los setenta, E. Feigenbaum desarrolló, en la Universidad de Stanford, el primer sistema experto de la historia, al que se denominó DENDRAL. Este programa estaba diseñado para comportarse de forma inteligente en un tema tan específico como el análisis de datos de espectrografía de masas, pero carecía de la universalidad de respuestas que algunos investigadores consideran imprescindible para ser considerado un sistema de inteligencia artificial. Durante esta década, la investigación en IA se dirigió hacia los siguientes campos: los sistemas expertos, la traducción automática, los juegos y el comportamiento de autómatas. En el año 1981, se celebró el vigesimoquinto aniversario de la Conferencia de Dartmouth con una nueva reunión de muchos de los investigadores que acudieron a la primera. El encuentro tuvo lugar en la Universidad de British Columbia en Vancouver (Canadá) durante la séptima Conferencia Mixta Internacional sobre Inteligencia Artificial (IJCAI). Algunos de los temas tratados fueron: visión artificial, sistemas expertos, representación del conocimiento, inferencia, métodos de búsqueda y lenguaje natural. En la actualidad son muchos los organismos públicos y privados que desarrollan proyectos de investigación en inteligencia artificial. Por ejemplo, dentro de las universidades e instituciones educativas, las más prestigiosas en este área son: la Universidad de Stanford, el Instituto Tecnológico de Massachusetts (M.I.T.) y la Universidad Carnegie-Mellon (CMU), localizadas todas ellas en Estados Unidos. En el grupo de las compañías privadas se pueden citar las siguientes: IBM, Hewlett-Packard, Digital EquipmentCorporation, Fujitsu, Texas Instruments y Xerox, entre otras. Mención especial merecen los proyectos de la quinta generación de ordenadores que se están desarrollando en Japón, ya que tienen mucho que ver con la IA. También es necesario citar que en la actualidad existen programas de inteligencia "variable", a disposición de los profesionales de muy diversas áreas como por ejemplo: la medicina, la educación, la biología, el derecho, etc. Muy brevemente, diremos que la Inteligencia artificial es el conjunto de técnicas que tratan de crear autómatas con un funcionamiento semejante al del pensamiento humano. De hecho se trata de un abuso de lenguaje ya que el autómata está basado en un modelo (uno o varios algoritmos) que reacciona solamente ante unas estrategias preestablecidas. Cualquier fallo o situación no prevista deja de ser interpretada y resuelta, a no ser que el autómata sea capaz de aprender. Y, por último, se llama Robot a un dispositivo destinado a efectuar trabajos en sustitución del hombre. Generalmente, los robots de nuestros días constan de un manipulador (brazo articulado rematado en una pinza) y un sistema de control de órdenes (casi siempre a base de microprocesadores). A veces están dotados de una cierta movilidad (montados en ruedas, por ejemplo). Las características de los robots son su automatismo, su versatilidad, su autoadaptabilidad (aptitud para tener en cuenta el medio exterior), sin contar sus características de fuerza, agilidad y destreza. Entre las áreas de aplicación de la Inteligencia artificial tenemos: • Los Sistemas expertos, que son programas de ordenador que están especialmente diseñados para simular la experiencia humana en un área muy particular del conocimiento. Se utilizan para ayudar a los expertos humanos proporcionándoles sugerencias sobre las decisiones que deben tomar ante determinadas situaciones. • El procesamiento del lenguaje natural. Se refiere a la capacidad de los ordenadores para entender el lenguaje que se escribe utilizando un teclado, que se imprime o que se visualiza en una pantalla, con el objetivo de hacer más fácil la comunicación entre los humanos y los ordenadores. • Reconocimiento del habla. El procesamiento del habla consiste en que el ordenador y el ser humano se puedan comunicar mediante el lenguaje oral. Para ello la máquina debe poder realizar dos procesos: la síntesis del habla, es decir, la posibilidad de que el ordenador se comunique oralmente; y el reconocimiento-entendimiento del habla de cualquier humano, que es el problema más complicado de resolver en la actualidad. • Visión por ordenador. Se refiere a la capacidad de los ordenadores para procesar las señales digitales que le transmiten sus sensores ópticos de forma inteligente. • Robótica. Es el estudio de los robots, es decir, de los automatismos reprogramables. Además de éstas, existen otras muchas áreas de aplicación de la Inteligencia Artificial como la enseñanza, la planificación y soporte de la decisión y la automatización de fábricas y oficinas, entre otras. Ahora, vamos a hacer una especie de vocabulario, en torno a la palabra mente. ¡Vamos a intentarlo! MENTE: 1. Conjunto de las facultades y capacidades intelectuales del hombre. 2. Pensamiento, imaginación o voluntad. 3. Pensamiento o intención para realizar una determinada acción. 4. Mentalidad o manera particular de pensar. INTELIGENCIA: El uso de la palabra "inteligencia" es muy habitual entre profanos, incluso puede que más que entre los expertos. Utilizamos la palabra "inteligencia" como si conociéramos su significado cuando ni los expertos se ponen de acuerdo al definirla. Se sigue sin estar de acuerdo sobre qué es la inteligencia, fundamentalmente por considerar que es una actividad muy compleja y multidimensional. Son muy frecuentes expresiones como "¡No seas tonto!", "¡Qué tonterías dices o haces!", "¡Estupideces!", etc., y "tonto" es quizás una de las palabras que más acepciones y modos de expresión populares tiene en la lengua castellana, además de infinidad de sinónimos: atontado, tontaina, bobo bobalicón, sandio, fatuo, babieca, simple, simplón, cipote, primo, lila, gilí, lelo, panoli, memo, alelado, pasmarote, pánfilo, estafermo, pazguato, gaznápiro, zoquete, zamacuco, bodoque, ceporro, sinsonte, mameluco, papanatas, papamoscas, pingüino, romo, lerdo, torpe, topo, corto, obtuso, necio, estólido, supino, estúpido, beocio, cretino, imbécil, idiota, oligofrénico, esquizofrénico, ganso, etc. En definitiva, la palabra "tonto" está constantemente en labios de muchas personas que, desde la posición "inteligente", recriminan el comportamiento de los demás para acercarlo a las propias posiciones. Cuando se pide a los profanos que cualifiquen lo que creen que es la inteligencia, hablan de personas con capacidad de resolver problemas, de obtener buenos resultados académicos, de ingeniárselas para conseguir algo, de capacidad de hablar con corrección, de conseguir buen status económico, de tener iniciativas propias. En estudios en que se preguntaba por los rasgos de personalidad de las personas inteligentes aparecen cualidades como listo, prudente, eficiente o enérgico, pero nunca se les tilda de apáticos, informales, deshonestos y dependientes. En dos congresos distanciados entre sí 65 años: Pittsburgh (1921) y Sydney (1986) se pidió a los expertos una definición de inteligencia. En el congreso de 1921, se dieron definiciones como las siguientes: "el poder de dar buenas respuestas desde el punto de vista de la verdad o el hecho" (E. L. Thorndike); "la capacidad de pasar a un pensamiento abstracto" (L. M. Terman); "haber aprendido o tener capacidad para aprender a adaptarse al entorno" (S. S. Colvin); "la capacidad de adaptarse adecuadamente en la vida a situaciones relativamente nuevas" (R. Pintner); "la capacidad para el conocimiento y poseer conocimiento" (V. A. C. Henmon); "un mecanismo biológico a través del cual los efectos de una complejidad de estímulos se reúnen y proporcionan un efecto algo unificado en la conducta" (J. Peterson); "la capacidad para inhibir un ajuste instintivo, la capacidad para redefinir el ajuste instintivo inhibido a la luz de los ensayos y errores experimentados en la imaginación y la capacidad voluntaria para realizar el ajuste instintivo modificado en una conducta abierta a la ventaja del individuo como un animal social" (L. L. Thurstone); "la capacidad para adquirir capacidad" (H. Woodrow) o, por último, "la capacidad para aprender o para aprovechar la experiencia" (W. F. Dearborn). La dispersión en cuanto a la concepción de qué es la inteligencia es evidente, y llevó a E. G. Boring (1923), psicólogo experimental, a proponer una definición operativa con la sana intención de zanjar la cuestión: "inteligencia es lo que miden los tests de inteligencia". La definición de Boring, en el fondo es una hipótesis de base de las teorías psicométricas factorialistas, que están proponiendo que los reactivos de tests utilizados son muestras verdaderamente representativas de la inteligencia (véase psicometría). Pero es una definición también crítica, caricaturizable fácilmente por su carácter tautológico. En el congreso de 1986 dos docenas de expertos mundiales trataron de responder a la misma pregunta, he aquí algunas de sus respuestas: "es una cualidad de la conducta" (A. Anastasi); "conjunto de todo tipo de aptitudes que las personas utilizan con éxito para lograr sus objetivos racionalmente elegidos" (J. Baron); "constructo condicionado por la cultura, etnocéntrico y excesivamente limitado" (J. W. Berry); "capacidad de afrontar y resolver problemas académicos, técnicos, prácticos y sociales" (J. B. Carrol); "repertorio de conocimientos y destrezas intelectuales útiles a la persona en un determinado momento" (L. G. Humphreys). En este último congreso la mayoría de las respuestas de los expertos no se prestaron a una definición de un par de líneas, sino que fueron mucho más intrincadas y complejas. Tratar de explicar la inteligencia en términos universalmente aceptables es tarea punto menos que imposible por la extraordinaria riqueza que el concepto encierra y porque se trata de describir la herramienta con la que describimos. Pero al mismo tiempo es una tarea apasionante y quizás el área de la psicología que más tinta ha hecho correr a lo largo de la historia. El análisis del funcionamiento de la inteligencia puede realizarse a partir de distintas capacidades, como la adecuada percepción selectiva, la capacidad para resolver problemas o encontrar regularidades lógicas, la creatividad, la facultad de construir significados, el uso de estrategias eficaces de aprendizaje o también en relación a los aspectos emocionales. Esta diversidad de enfoques puede hacernos pensar que la inteligencia es un rompecabezas muy complejo con piezas yuxtapuestas y a menudo bastante inconexas, aunque en un principio la entendamos una única capacidad. ¿Dónde encontramos entonces tantas "inteligencias diferentes"? Las diferentes inteligencias no son más que puntos de vista que perfectamente se pueden integrar. La inteligencia es una pero podemos aplicarla a muy diferentes objetos, ámbitos y objetivos, con lo que ejercitamos cada vez facetas que podemos diferenciar y que cristalizan en habilidades diferenciadas. Así podemos distinguir la inteligencia verbal o la inteligencia numérica, cuando aplicamos la capacidad de relacionar y abstraer propia de la inteligencia a modalidades de contenidos verbales o numéricos. Hablamos de inteligencia espacial cuando la aplicamos a contenidos de los que tenemos una representación espacial, y si la aplicamos a contenidos sociales, tenemos una inteligencia social. Incluso podemos utilizar la inteligencia con contenidos de modalidad rítmica y considerar así una inteligencia musical. También podemos detenernos en la capacidad de modelar la motricidad corporal, de desarrollar sentimientos útiles o de analizar el funcionamiento de nuestros propios sentimientos, lo que podríamos definir como conocimiento del conocimiento, es decir conocimiento de nuestras propias sensaciones. La inteligencia puede entenderse como la capacidad de relacionar todo con todo en diferentes grados de abstracción, de ahí su flexibilidad extraordinaria. Podemos dedicarla a reflexionar sobre cómo solucionar los problemas medioambientales o cómo llegar a la Luna, pero también aplicarla a tratar de relacionarme bien con mis familiares y amigos. La inteligencia también puede trabajar en pos de un pequeño deseo a corto plazo o de un proyecto ambicioso a largo plazo, y del mismo modo sirve para aprender los conceptos que sostienen una teoría científica y para arreglar el cable de luz en el que se ha producido un cortocircuito. Es verdad que se ha exagerado la importancia de la inteligencia académica medida como cociente intelectual (CI) pero, aunque se trata de una medida parcial, no puede negarse su validez, siempre que esta medición se complete con otras medidas de personalidad, intereses, sentimientos o de relación adecuada con otras personas. No todos utilizamos la inteligencia para todos los desarrollos posibles, debido a que nuestra capacidad de dedicación y acción es limitada. La dedicamos a unas actividades específicas usando preferentemente determinados tipos de contenidos y representaciones mentales, de ahí la especificidad de las habilidades más concretas. Por ejemplo, un catedrático de universidad puede sentirse inútil para enroscar una simple bombilla que se ha fundido, un número uno en conocimientos escolares puede fracasar al dirigir una empresa e incluso el llamado "tonto" por los demás puede alcanzar más éxito que muchos "listos" en entornos y exigencias muy específicas. Lo que sí puede asegurarse es que la inteligencia es la capacidad más específicamente humana que tenemos. Posiblemente en el futuro tengamos que reconocer la importancia de "otras inteligencias" que no permitan resolver problemas nuevos. Por ejemplo un inteligencia ecológica que resuelva los problemas creados por el hombre y ayude a mantener mejor el medio ambiente. Al mismo tiempo, la inteligencia es una de nuestras capacidades menos conocidas, más difícil de conocer por ser ella misma el propio instrumento de pensamiento. De si este siglo será o no el siglo en que desentrañemos algunos de los misterios del cerebro humano dependerá también en gran medida el que conozcamos mejor qué es y cómo funciona nuestra inteligencia; no debemos olvidar que el desarrollo de la inteligencia no es un objetivo absoluto sino un instrumento para potenciar el desarrollo del mismo ser humano. CEREBRO: Es la parte principal del encéfalo de los vertebrados, encerrado en el cráneo. Se compone de la sustancia cortical gris, constituida por los cuerpos neuronales, las dendritas, las células de glía y axones amielínicos; la sustancia medular blanca, formada por el cuerpo calloso y el tallo cerebral que están constituidos por axones mielínicos; y los ganglios grises cerebrales, que son el tálamo óptico, núcleo lenticular y núcleo caudal, estos dos últimos llamados en su conjunto el cuerpo estriado. En la corteza cerebral, cada uno de los hemisferios cerebrales está dividido en lóbulos por dos fisuras o surcos. En cada hemisferio hay cuatro lóbulos: frontal, parietal, temporal y occipital. La superficie cerebral está recorrida por numerosos repliegues de posición definida, llamados circunvalaciones. Éstas están separadas por surcos o cisuras como la cisura interhemisférica, que divide el cerebro en dos hemisferios, cisura de Rolando y cisura de Silvio, que separa el lóbulo temporal del frontal y el parietal. De la corteza gris parten todos los impulsos motores voluntarios y, viceversa, los estímulos e impresiones conducidos por las vías sensitivas y todos los procedentes del exterior se transforman en representaciones conscientes en la corteza cerebral. Además, en este sitio se almacenan las impresiones sensoriales previas, formando las sinapsis neuronales que posee nuestro córtex encefálico, la base para el contenido de la memoria. NEURONA: Es la célula que constituye la unidad biológica básica del sistema nervioso. La neurona manipula y transmite información entre las diferentes partes del cuerpo. En las neuronas se distinguen distintas partes: una zona central o cuerpo celular o soma, unas ramificaciones arborescentes o dendritas, y un filamento delgado y más largo llamado axón. Generalmente las conexiones o sinapsis entre neuronas se realizan entre el axón y las dendritas de las otras neuronas. En el sistema nervioso la información se transmite de forma eléctrica y de forma química: la información le llega a la neurona por las dendritas y se transmite como impulsos eléctricos a lo largo de toda la célula y del axón; pero entre el axón y las dentritas de las otras neuronas existe un pequeño espacio pues las neuronas no están totalmente en contacto. La información recorre este pequeño espacio en la forma de actividad química de las sustancias llamadas neurotransmisores. En los modelos conexionistas, y por analogía con las neuronas cerebrales, se suelen llamar «neuronas» o «neuronas artificiales», a cada uno de los elementos que componen la «red neuronal» diseñada por el investigador. Estas «neuronas» son las unidades que en la red conexionista se encargan de cada uno de los cómputos o cálculos gracias a los cuales la red puede realizar las tareas computacionales para las que ha sido diseñada. Cada unidad está unida a otras por una o varias conexiones a las que se les asigna un «peso» que sirve para ponderar la información que le envía a la(s) unidad(es) con la que está conectada. Además, por el diseño de la red, el conjunto de «neuronas» que reciben la información de entrada recibe el nombre de «capa de entrada» y al conjunto de «neuronas» que envía la información de salida fuera de la red se le da el nombre de «capa de salida«. A partir de los años ochenta del siglo XX fue posible diseñar redes conexionistas más complejas que incluían también neuronas de conexión entre ambas capas y que forman la llamada «capa intermedia«. NEUROCIENCIAS: Conjunto de disciplinas científicas y médicas que tienen como objeto de estudio el sistema nervioso, en particular en sistema nervioso central. Cabe destacar, por ejemplo, las siguientes: neuroanatomía, neurobiología, neurocirugía, neurofarmacología, neurofisiología, neuropatología, neuropsicología y neuroquímica. Dado que sus investigaciones cumplen muy bien las exigencias de la metodología científica, muchos investigadores consideran que el futuro de la comprensión de la mente humana y de su conducta está más del lado de las neurociencias que de la psicología. Este no podría ser el caso si ocurriera que existe una cierta (o una mucha) independencia de la mente respecto del cerebro, como defienden importantes teorías psicológicas y filosóficas; la psicología cognitiva, por ejemplo, gracias a su concepción funcionalista de la mente, puede reclamar, el derecho a un estudio independiente del psiquismo, nunca reductible a los enfoques de las neurociencias. Las pretensiones de las neurociencias son también problemáticas en el campo de la comprensión y cura de la enfermedad mental y del comportamiento: de nuevo, si es posible que la mente esté mal y sin embargo el cerebro funcione bien (como sin duda es el caso) entonces es legítima la defensa de un estudio y tratamiento de la enfermedad mental independiente de los enfoques biologistas; esto es lo que da sentido precisamente a una de las partes más importantes de la psicología aplicada, la psicología clínica, y a las llamadas psicoterapias como formas adecuadas de intervención y distintas a las de la psiquiatría. CEREBELO: Parte del encéfalo situada debajo de la porción posterior del cerebro y cubierta en parte por el cráneo.El cerebelo tiene por función la coordinación de las actividades motoras, de manera que coordina la acción de los músculos durante los movimientos voluntarios, regula su tono einterviene en el mantenimiento del equilibrio. El cerebelo representa una estación en las vías sensitivas y motoras de la corteza cerebral. Algunos haces de estas fibras penetran en el cerebelo, establecen sinapsis con las células de la sustancia cerebelosa, cuyos cilindros-ejes vuelven a salir del cerebelo, y se reintegran a su correspondiente vía. Así, el cerebelo desempeña el papel regulador de las movilidades del organismo, asegurando la medida y la fuerza de cada movimiento. También regula los mecanismos que influyen sobre el tono muscular y proporciona al organismo el sentido de la orientación, gracias a la vía sensitiva, secundaria o cerebelosa. REDES NEURONALES PARA EXPLICAR EL CEREBRO: Cuando nos enfrentamos con la difícil tarea de comprender los presupuestos, tesis y alcance del conexionismo muy pronto se nos presenta la siguiente pregunta: los modelos conexionistas, ¿qué quieren explicar, la mente o el cerebro? ¿Son modelos de la mente o del cerebro? Una respuesta que habitualmente se ofrece es que las redes conexionistas se han desarrollado en el campo de la psicología para explicar habilidades y competencias mentales (percepción, lenguaje, pensamiento, …); ese tipo de redes pertenecen a la psicología y son modelos de la mente; frente a ellas, se indican ejemplos de redes creadas en el marco de la neurociencia para dar cuenta de procesos puramente cerebrales (y, en este caso, son por lo tanto modelos del cerebro). Con el término “psicobiología” podemos referirnos al enfoque que intenta explicar el mundo de la mente y la conducta a partir de elementos, estructuras y procesos biológicos. Una parte importante de esta disciplina incluye el estudio de la influencia que sobre la psíque tienen las substancias químicas, tanto exógenas como endógenas (por ejemplo el influjo de los neurotransmisores en la conducta). Pero parece claro que también el estudio de cómo la arquitectura y procesos del sistema nervioso influyen en la mente y la conducta (lo que cabría llamar psiconeurología) debe formar parte de la psicobiología. En el momento actual de la ciencia disponemos ya de explicaciones “biologistas” para dar cuenta de importantes fenómenos psicológicos, y no sólo en el ámbito de los trastornos de conducta; no es arriesgado afirmar que en el campo de la percepción este enfoque ya nos permite explicar algunos fenómenos perceptuales (por ejemplo, simplemente el hecho de poder percibir colores, o la distinción de contornos a partir de peculiaridades del procesamiento neural como la del efecto de la inhibición lateral, …). Aunque la siguiente tesis exigiría, naturalmente, un análisis cuidadoso parece que el conexionismo tiene como destino formar parte de la psicobiología (o psiconeurología) antes que de lo que tradicionalmente entendemos por psicología. CORTEZA CEREBRAL: Conjunto de tejido nervioso que forma la parte más externa y superior del encéfalo y que permite el análisis y la integración de las diferentes informaciones provenientes del medio, así como la adquisición y realización de diferentes habilidades y aptitudes como el habla, el pensamiento abstracto, la inteligencia o la capacidad de regulación de la conducta. CONEXIONISMO: El conexionismo es un conjunto de enfoques en los ámbitos de la inteligencia artificial, psicología cognitiva, ciencia cognitiva, neurociencia y filosofía de la mente, que presenta los fenómenos de la mente y del comportamiento como procesos que emergen de redes formadas por unidades sencillas interconectadas. Y, así, damos por terminado este apartado. En la tercera parte, vamos a estudiar a Noam Chomsky y su gramática generativo-transformacional o generativa. Así, pues, tenemos lo siguiente: GRAMÁTICA GENERATIVA: O «gramática generativo-transformacional». Hasta Noam Chomsky, la lingüística se preocupaba por el análisis estructural de la lengua, a la que consideraba como una realidad independiente de las habilidades del sujeto; este afán le llevaba, por ejemplo, a buscar métodos rigurosos para extraer los fonemas y los morfemas, pero no a estudiar los usos del lenguaje ni los significados. Cuando se quería comprender cómo un sujeto era capaz de adquirir y desarrollar un lenguaje se acudía a la psicología. Los psicólogos conductistas (Skinner de modo destacado) consideraban que el niño aprende el lenguaje como consecuencia de los refuerzos que los educadores realizan en su conducta verbal correcta. Cuando emite enunciados mal formados se le reprende y cuando los construye bien se le premia. A partir de 1957 con la obra «Estructuras sintácticas», Noam Chomsky se enfrentará a esta concepción conductista, y en último término empirista, relativa a la capacidad o competencia lingüística, indicando que dicha explicación es insuficiente porque no puede explicar: • cómo, disponiendo de un número finito de morfemas y de fonemas, podemos construir potencialmente un número infinito de oraciones; • la rapidez en el aprendizaje de una lengua, aunque la estimulación verbal de los padres o educadores sea pobre y desordenada; • la existencia de estructuras comunes en todas las lenguas. Con estas críticas Chomsky revoluciona la lingüística; en primer lugar, mostrando que no se puede separar la investigación del lingüista de la del psicólogo, antes bien, llegará a considerar a la lingüística como una parte o rama de la psicología del conocimiento; en segundo lugar -aunque vinculado con lo anterior- proponiendo, frente a la gramática estructural anterior, una gramática generativa. La idea básica de esta gramática es que la competencia queposee cualquier hablante para emitir o proferir frases con sentido se fundamenta en el hecho de que el hablante domina una serie de reglas para la formación o generación de frases bien construidas. La tarea de la gramática consiste en pasar de lo observable -el uso o ejecución del lenguaje- a lo no observable la competencia-, en descubrir las reglas gramaticales que le permiten al sujeto producir las oraciones gramaticalmente bien construidas en un lenguaje. Junto con las reglas específicas de construcción de oraciones propias a cada lengua -inglés, alemán, español-, la gramática generativo-transformacional creerá que existen unas reglas más básicas, de carácter innato y comunes a todas las lenguas, y que explican la facilidad para el aprendizaje del lenguaje por parte del niño, defendiendo con ello un punto de vista más racionalista que empirista. La obra de Chomsky es importante para el desarrollo de la psicología, primero por su crítica al conductismo, en particular a las explicaciones que dio Skinner del lenguaje, y segundo por la defensa de la existencia de procesos mentales que consisten en la aplicación de reglas y cuyo funcionamiento es casi de tipo automático y gracias al cual disponemos de lenguaje. Esta idea está muy cerca de la psicología cognitiva. UNIVERSALES LINGÜÍSTICOS: La Gramática Generativo-Transformacional de Chomsky supone que todos los hombres poseen de forma innata y como consecuencia de la evolución unas estructuras lingüísticas comunes a todas las lenguas, y que se sitúan en la estructura profunda del lenguaje. Del mismo modo que la naturaleza y la evolución nos han otorgado disposiciones perceptuales innatas, como la visión tridimensional, también nos han otorgado disposiciones lingüísticas innatas. La estructura sujeto-predicado es un ejemplo de dichos universales. Se trata de una visión naturalista de las ideas innatas del racionalismo. ESTRUCTURA PROFUNDA: La gramática generativo-transformacional de Chomsky muestra que cuando analizamos varias oraciones aparentemente distintas podemos encontrar la misma estructura, o que oraciones aparentemente iguales poseen distintas estructuras. Ello sugiere que en el lenguaje cabe distinguir dos niveles: el nivel de la estructura superficial o del enunciado tal y como lo proferimos -lo relativo al uso o ejecución-, y el nivel o estructura profunda, que se muestra al análisis lingüístico, y a partir del cual, y mediante transformaciones que siguen reglas, el sujeto genera las estructuras superficiales -nivel relativo a la competencia-. Dicho lo cual, aquí quedan los últimos aportes de Noam Chomsky a la psicolingüística. En otro sentido, matizaremos que la PSICOLINGÜÍSTICA es una disciplina reciente que surge a mediados de los años cincuenta con el propósito de estudiar los aspectos psicológicos de la conducta lingüística . Ya desde sus inicios la psicolingüística ha mostrado el enfoque multidisciplinar, característico de la ciencia cognitiva, trabajando en colaboración y recogiendo aportaciones básicas de otras disciplinas como la lingüística, la inteligencia artificial, y neuropsicología. Asimismo, en su estudio de los fenómenos psicológicos que subyacen a la conducta lingüística, la psicolingüística se introduce a menudo en otros campos vecinos del estudio psicológico, como la psicología de la percepción, la memoria, el pensamiento, o la psicología del desarrollo. Se suelen considerar tres partes diferenciadas en el campo de estudio de la psicolinguística: el estudio de los procesos psicológicos que subyacen en la utilización normal del lenguaje entre los adolescentes y los adultos, incluyendo de manera específica la percepción, comprensión y producción del lenguaje tanto oral como escrito; el estudio de la adquisición y desarrollo del lenguaje; y el estudio de los trastornos y alteraciones del lenguaje, junto con sus bases neurológicas. El impresionante desarrollo de la investigación psicolinguística ha llevado a que algunos campos de estudio se planteen su carácter específico, como es el caso del estudio de la comprensión y memoria del discurso, que se centra principalmente en el procesamiento de textos relativamente largos y complejos, para el que se ha propuesto la denominación de psicología del discurso. La influencia de la teoría de la gramática generativa de Chomsky, junto con sus ideas sobre el carácter independiente del lenguaje, así como las formulaciones teóricas de Fodor y el propio desarrollo de la psicolingüística, han llevado a que un gran número de investigadores considere el lenguaje como fruto de la actuación de un módulo específico, que realiza su trabajo de forma más o menos independiente de otros procesos cognitivos. Esta concepción modular parece necesaria, al menos parcialmente, para explicar el comportamiento lingüístico humano, aunque como los enfoques conexionistas han mostrado recientemente es necesario también postular un mínimo de interacción entre el lenguaje y el resto de procesos cognitivos. --------------------------------------------------------------------------------------------------------------------

0 comentarios:
Publicar un comentario
Suscribirse a Enviar comentarios [Atom]
<< Inicio