abril 27, 2024

Regionalpuebla.mx

Encuentra toda la información nacional e internacional sobre españa. Selecciona los temas sobre los que quieres saber más

No, la IA de Google no es consciente

No, la IA de Google no es consciente
de acuerdo a Historia reveladora En el Washington Post el sábado, un ingeniero de Google dijo que después de cientos de interacciones con un sofisticado sistema de inteligencia artificial inédito llamado lambdaSe creía que el programa había alcanzado un nivel de conciencia.

En entrevistas y declaraciones públicas, muchos en la comunidad de IA han desestimado las afirmaciones del ingeniero, mientras que algunos han señalado que su relato destaca cómo la tecnología puede hacer que las personas le asignen rasgos humanos. Pero se puede argumentar que la creencia de que la IA de Google puede ser consciente resalta nuestros temores y expectativas de lo que puede hacer esta tecnología.

LaMDA, que significa Language Model for Dialog Applications, es uno de varios sistemas de inteligencia artificial a gran escala que se han entrenado en grandes extensiones de texto de Internet y pueden responder a indicaciones escritas. Ellos tienen la tarea, esencialmente, de encontrar patrones y predecir qué palabra o palabras deben venir a continuación. Tales sistemas se convirtieron cada vez mejor respondiendo preguntas y escribiendo de maneras que pueden parecer convincentemente humanas, y Google mismo LaMDA presentó en mayo pasado en una publicación de blog Como tal, puede «comprometerse de manera fluida en torno a un número aparentemente infinito de temas». Pero los resultados también pueden ser ridículos, extraños, molestos y propensos a la distracción.

Según los informes, el ingeniero Blake Lemoine le dijo al Washington Post que compartió la evidencia con Google de que Lambda estaba consciente, pero la compañía no estuvo de acuerdo. En un comunicado, Google dijo el lunes que su equipo, que incluye éticos y tecnólogos, «revisó las preocupaciones de Blake de acuerdo con nuestros principios de IA y le informó que la evidencia no respalda sus afirmaciones».

El 6 de junio, Lemoine publicó en Medium que Google lo había puesto en licencia administrativa pagada «en relación con una investigación de preocupaciones éticas sobre inteligencia artificial que había estado planteando dentro de la empresa» y que podría ser despedido «pronto». (Mencionó la experiencia de Margaret Mitchell, quien fue líder del equipo de inteligencia artificial ética en Google hasta Google lo eliminó a principios de 2021 Después de su franco sobre A fines de 2020, Timnit Gebro, el entonces colíder, dejará. Gebru fue expulsada después de disputas internas, incluida una relacionada con un trabajo de investigación que pedía a los líderes de IA de la empresa que retiraran la consideración de la oferta en una conferencia, o eliminaran su nombre).

Un portavoz de Google confirmó que Lemoine permanece en licencia administrativa. Según The Washington Post, se le dio permiso para ausentarse por violar la política de confidencialidad de la empresa.

READ  Goldman Sachs es el primer gran banco estadounidense en retirarse de Rusia

Lemoine no estuvo disponible para hacer comentarios el lunes.

El surgimiento continuo de poderosos programas informáticos entrenados en big data ha generado preocupaciones sobre la ética que rige el desarrollo y uso de esta tecnología. Y a veces los desarrollos se ven desde la perspectiva de lo que podría venir, en lugar de lo que es posible actualmente.

Las respuestas de la comunidad de IA al experimento de Lemoine resonaron en las redes sociales durante el fin de semana y, en general, llegaron a la misma conclusión: la IA de Google ni siquiera está cerca de la conciencia. Abiba Birhani, miembro sénior de confianza en inteligencia artificial de Mozilla, chirrido El domingo, «Hemos entrado en una nueva era de ‘esta red neuronal consciente’ y esta vez se necesitará mucha energía para refutarla».
Gary Marcus, fundador y director ejecutivo de Geometric Intelligence, vendida por Uber, y autor de libros que incluyen «Rebooting AI: Building Artificial Intelligence We Can Trust», describió la idea de LaMDA como consciente «Mierda sobre zancos» en un tuit. escribió rápidamente Entrada en el blog Teniendo en cuenta que todos estos sistemas de IA realizan coincidencias de patrones extrayéndolos de bases de datos masivas de lenguaje.

En una entrevista el lunes con CNN Business, Marcus dijo que la mejor manera de pensar en sistemas como LaMDA es como una «versión glorificada» de un programa de autocompletado que podría usar para predecir la siguiente palabra en un mensaje de texto. Si escribes «Tengo mucha hambre, así que quiero ir», podría sugerir «restaurante» como tu siguiente palabra. Pero esta es una predicción hecha usando estadísticas.

READ  Las acciones en Hong Kong subieron un 6%; Mercados asiáticos mixtos antes del informe de empleo de EE. UU.

«Nadie debería pensar que el autocompletado, incluso con esteroides, es consciente», dijo.

En una entrevista con Gebru, fundador y CEO de Instituto de Investigación de Inteligencia Artificial DistribuidaDAIR, o DAIR, Lemoine dijo que es víctima de muchas empresas que afirman que la inteligencia artificial consciente o la inteligencia artificial general, una idea que se refiere a la inteligencia artificial que puede realizar tareas similares a las humanas e interactuar con nosotros de manera significativa, no está muy lejos. .
Google le ofreció al profesor 60.000 dólares, pero él los rechazó.  Este es el por qué
Por ejemplo, Ilya Sutskiver, cofundador y científico jefe de OpenAI, señala: chirrido En febrero, «las grandes redes neuronales de hoy pueden ser un poco conscientes». Y la semana pasada, el vicepresidente de Google Research y colega Blaise Aguera y Arcas Escrito en un artículo para The Economist que cuando comenzó a usar LaMDA el año pasado, «sentía cada vez más que estaba hablando de algo inteligente». (Este artículo ahora incluye una nota del editor que señala que desde entonces, Lemoine ha sido «suspendido después de que afirmó en una entrevista con el Washington Post que LaMDA, el chatbot de Google, se había vuelto «consciente»).

“Lo que pasa es que hay una carrera para usar más datos, más computación, para decir que creaste esta cosa genérica que todos conocen, responde a todas sus preguntas o lo que sea, y ese es el tambor que han estado tocando”, Gebru. dijo. . «Entonces, ¿cómo te sorprendes cuando esta persona lo lleva al extremo?»

En su declaración, Google señaló que LaMDA se ha sometido a 11 «revisiones distinguidas de los principios de IA», así como a «investigaciones y pruebas rigurosas» con respecto a la calidad, la seguridad y la capacidad de generar datos basados ​​en hechos. «Por supuesto, algunos en la comunidad de IA más amplia están estudiando el potencial a largo plazo de la IA consciente o general, pero no tiene sentido hacerlo mediante la incorporación de modelos de conversación actuales, que no son conscientes», dijo la compañía.

READ  Amazon está invirtiendo hasta 4 mil millones de dólares en Anthropic, un competidor del desarrollador de ChatGPT OpenAI

«Cientos de investigadores e ingenieros han tenido conversaciones con lambda, y no conocemos a nadie más que proporcione afirmaciones tan extensas o que incorpore lambda como lo hizo Blake», dijo Google.