No, la IA de Google no es consciente

de acuerdo a Historia reveladora En el Washington Post el sábado, un ingeniero de Google dijo que después de cientos de interacciones con un sofisticado sistema de inteligencia artificial inédito llamado lambdaSe creía que el programa había alcanzado un nivel de conciencia.

En entrevistas y declaraciones públicas, muchos en la comunidad de IA han desestimado las afirmaciones del ingeniero, mientras que algunos han señalado que su relato destaca cómo la tecnología puede hacer que las personas le asignen rasgos humanos. Pero se puede argumentar que la creencia de que la IA de Google puede ser consciente resalta nuestros temores y expectativas de lo que puede hacer esta tecnología.

LaMDA, que significa Language Model for Dialog Applications, es uno de varios sistemas de inteligencia artificial a gran escala que se han entrenado en grandes extensiones de texto de Internet y pueden responder a indicaciones escritas. Ellos tienen la tarea, esencialmente, de encontrar patrones y predecir qué palabra o palabras deben venir a continuación. Tales sistemas se convirtieron cada vez mejor respondiendo preguntas y escribiendo de maneras que pueden parecer convincentemente humanas, y Google mismo LaMDA presentó en mayo pasado en una publicación de blog Como tal, puede «comprometerse de manera fluida en torno a un número aparentemente infinito de temas». Pero los resultados también pueden ser ridículos, extraños, molestos y propensos a la distracción.

Según los informes, el ingeniero Blake Lemoine le dijo al Washington Post que compartió la evidencia con Google de que Lambda estaba consciente, pero la compañía no estuvo de acuerdo. En un comunicado, Google dijo el lunes que su equipo, que incluye éticos y tecnólogos, «revisó las preocupaciones de Blake de acuerdo con nuestros principios de IA y le informó que la evidencia no respalda sus afirmaciones».

El 6 de junio, Lemoine publicó en Medium que Google lo había puesto en licencia administrativa pagada «en relación con una investigación de preocupaciones éticas sobre inteligencia artificial que había estado planteando dentro de la empresa» y que podría ser despedido «pronto». (Mencionó la experiencia de Margaret Mitchell, quien fue líder del equipo de inteligencia artificial ética en Google hasta Google lo eliminó a principios de 2021 Después de su franco sobre A fines de 2020, Timnit Gebro, el entonces colíder, dejará. Gebru fue expulsada después de disputas internas, incluida una relacionada con un trabajo de investigación que pedía a los líderes de inteligencia artificial de la compañía que se retiraran de considerar la oferta en una conferencia, o que eliminaran su nombre).

Un portavoz de Google confirmó que Lemoine permanece en licencia administrativa. Según The Washington Post, se le dio permiso para ausentarse por violar la política de confidencialidad de la empresa.

READ  Los Gonzaga Bulldogs son unánimemente #1 en el Top 25 de AP; Gatos monteses de Arizona al No. 2

Lemoine no estuvo disponible para hacer comentarios el lunes.

El surgimiento continuo de poderosos programas informáticos entrenados en grandes datos profundos ha generado preocupaciones sobre la ética que rige el desarrollo y el uso de esta tecnología. Y a veces los desarrollos se ven desde la perspectiva de lo que podría venir, en lugar de lo que es posible actualmente.

Las respuestas de la comunidad de IA al experimento de Lemoine resonaron en las redes sociales durante el fin de semana y, en general, llegaron a la misma conclusión: la IA de Google ni siquiera está cerca de la conciencia. Abiba Birhani, miembro sénior de confianza en inteligencia artificial de Mozilla, chirrido El domingo, «Hemos entrado en una nueva era de ‘esta red neuronal consciente’ y esta vez se necesitará mucha energía para refutarla».
Gary Marcus, fundador y director ejecutivo de Geometric Intelligence, vendida por Uber, y autor de libros que incluyen «Rebooting AI: Building Artificial Intelligence We Can Trust», describió la idea de LaMDA como consciente «Mierda sobre zancos» en un tuit. escribió rápidamente Entrada en el blog Teniendo en cuenta que todos estos sistemas de IA realizan coincidencias de patrones extrayéndolos de bases de datos masivas de lenguaje.

En una entrevista el lunes con CNN Business, Marcus dijo que la mejor manera de pensar en sistemas como LaMDA es como una «versión glorificada» de un programa de autocompletar que podría usar para predecir la siguiente palabra en un mensaje de texto. Si escribes «Tengo mucha hambre, así que quiero ir», podría sugerir «restaurante» como tu próxima palabra. Pero esta es una predicción hecha usando estadísticas.

READ  Royce Lewis ha sido diagnosticado de nuevo con rotura de LCA, para ser operado a final de temporada

«Nadie debería pensar que el autocompletado, incluso con esteroides, es consciente», dijo.

En una entrevista con Gebru, fundador y CEO de Instituto de Investigación de Inteligencia Artificial DistribuidaDAIR, o DAIR, Lemoine dijo que es víctima de muchas empresas que afirman que la inteligencia artificial consciente o la inteligencia artificial general, una idea que se refiere a la inteligencia artificial que puede realizar tareas similares a las humanas e interactuar con nosotros de manera significativa, no está muy lejos. .
Google le ofreció al profesor 60.000 dólares, pero él los rechazó.  Este es el por qué
Por ejemplo, Ilya Sutskiver, cofundador y científico jefe de OpenAI, señala: chirrido En febrero, «las grandes redes neuronales de hoy pueden ser un poco conscientes». Y la semana pasada, el vicepresidente de Google Research y colega Blaise Aguera y Arcas Escrito en un artículo para The Economist que cuando comenzó a usar LaMDA el año pasado, «sentía cada vez más que estaba hablando de algo inteligente». (Este artículo ahora incluye una nota del editor que señala que desde entonces, Lemoine ha sido «suspendido después de que afirmó en una entrevista con el Washington Post que LaMDA, el chatbot de Google, se había vuelto «consciente»).

“Lo que pasa es que hay una carrera para usar más datos, más computación, para decir que creaste esta cosa genérica que todos conocen, responde a todas sus preguntas o lo que sea, y ese es el tambor que han estado tocando”, Gebru. dijo. . «Entonces, ¿cómo te sorprendes cuando esta persona lo lleva al extremo?»

En su declaración, Google señaló que LaMDA se ha sometido a 11 «revisiones distinguidas de los principios de IA», así como a «investigaciones y pruebas rigurosas» con respecto a la calidad, la seguridad y la capacidad de generar datos basados ​​en hechos. «Por supuesto, algunos en la comunidad de IA más amplia están estudiando el potencial a largo plazo de la IA consciente o general, pero no tiene sentido hacerlo mediante la incorporación de modelos de conversación actuales, que no son conscientes», dijo la compañía.

READ  El derretimiento de los glaciares de Chile, una medida del cambio climático que desaparece rápidamente

«Cientos de investigadores e ingenieros han tenido conversaciones con lambda, y no conocemos a nadie más que proporcione afirmaciones tan extensas o que incorpore lambda como lo hizo Blake», dijo Google.

Estaremos encantados de escuchar lo que piensas

Deje una respuesta

CORDOBESISMO.COM ES PARTICIPANTE EN EL PROGRAMA DE ASOCIADOS DE AMAZON SERVICES LLC, UN PROGRAMA DE PUBLICIDAD DE AFILIADOS DISEÑADO PARA PROPORCIONAR UN MEDIO PARA QUE LOS SITIOS GANAN TARIFAS DE PUBLICIDAD POR PUBLICIDAD Y ENLACE A AMAZON.COM. AMAZON, EL LOGOTIPO DE AMAZON, AMAZONSUPPLY Y EL LOGOTIPO DE AMAZONSUPPLY SON MARCAS COMERCIALES DE AMAZON.COM, INC. O SUS AFILIADAS. COMO ASOCIADO DE AMAZON, GANAMOS COMISIONES DE AFILIADOS DE COMPRAS QUE CALIFICAN. ¡GRACIAS, AMAZON POR AYUDARNOS A PAGAR LOS GASTOS DE NUESTRO SITIO WEB! TODAS LAS IMÁGENES DE LOS PRODUCTOS PERTENECEN A AMAZON.COM Y SUS VENDEDORES.
Cordobesismo