Seleccionar página

Google tiene planes para evitar que la nueva IA se ensucie y sea grosera
Google tiene planes para evitar que la nueva IA se ensucie y sea grosera

 

CEO de Silicon Valley Por lo general, cuando anunciamos la próxima gran cosa en una empresa, nos enfocamos en los aspectos positivos. En 2007, Steve Jobs de Apple elogió la “interfaz de usuario innovadora” y el “software innovador” del primer iPhone. El CEO de Google, Sundar Pichai, dio un paso más cuando anunció una prueba beta de la “IA conversacional más avanzada de la historia” de Google en la reunión anual de la compañía el miércoles.

Según Pichai, el chatbot, conocido como LaMDA 2, pudo hablar sobre cualquier tema y funcionó bien en las pruebas con los empleados de Google. Ha anunciado la siguiente aplicación llamada AI Test Kitchen, que permite a personas externas probar bots. Sin embargo, Pichai agregó una advertencia estricta. “Aunque la seguridad ha mejorado, el modelo aún puede causar reacciones inexactas, inapropiadas o desagradables”, dijo.

El tono vacilante de Pichai muestra una mezcla de entusiasmo, vergüenza y preocupación que gira en torno a una serie reciente de avances en las capacidades del software de aprendizaje automático que procesa el lenguaje.

Esta tecnología ya ha mejorado la capacidad de autocompletar y búsqueda web. También hemos creado una nueva categoría de aplicaciones de productividad que ayudan a los trabajadores a generar texto fluido y código de programación. Y cuando Pichai reveló por primera vez el proyecto LaMDA el año pasado, dijo que eventualmente podría funcionar dentro de los motores de búsqueda, asistentes virtuales y aplicaciones para el lugar de trabajo de Google. A pesar de sus deslumbrantes promesas, no está claro cómo controlar de manera confiable estos nuevos AI Wordsmiths.

LaMDA de Google, o modelo de lenguaje de aplicación interactiva, es un ejemplo de lo que los investigadores de aprendizaje automático llaman modelo de lenguaje grande. Este término se utiliza para describir el software que genera un sentido estadístico de los patrones del lenguaje mediante el procesamiento de grandes cantidades de texto, generalmente proporcionado en línea. Por ejemplo, LaMDA se entrenó inicialmente con más de un billón de palabras de foros en línea, sitios de preguntas y respuestas, Wikipedia y otras páginas web. Esta gran cantidad de datos ayuda al algoritmo a realizar tareas como generar diferentes estilos de texto, interpretar texto nuevo y actuar como un chatbot. Y si estos sistemas funcionan, no son como los frustrantes chatbots que usamos hoy. Actualmente, el Asistente de Google y Alexa de Amazon solo pueden realizar ciertas tareas preprogramadas y están sesgados cuando se les presenta algo que no entienden. Google actualmente está proponiendo una computadora que realmente puede hablar.

Los registros de chat publicados por Google muestran que LaMDA puede ser útil, sugerente o interesante, al menos a veces. Al probar los chatbots, el vicepresidente de Google e investigador de inteligencia artificial, Blaise Agüeray Arcas, argumentó que la tecnología podría proporcionar nuevos conocimientos sobre la naturaleza del lenguaje y la inteligencia, y le pidió que escribiera un ensayo personal en diciembre pasado. “Puede ser muy difícil deshacerse de la idea de que hay” quién “en lugar de” él “al otro lado de la pantalla”, escribe.

Cuando Pichai anunció la primera versión de LaMDA el año pasado, y nuevamente el miércoles, ofrece un camino hacia una interfaz de voz mucho más amplia que las características a menudo frustrantes y limitadas de servicios como Alexa, el Asistente de Google y Siri de Apple. una posibilidad. Ahora, los líderes de Google parecen estar seguros de que finalmente han encontrado una manera de crear una computadora de la que realmente puedan hablar.

Al mismo tiempo, el modelo de lenguaje extenso ha demostrado ser competente en historias racistas sucias, desagradables y simples. Eliminar miles de millones de palabras de texto de la web inevitablemente elimina una gran cantidad de contenido ofensivo. OpenAI, la empresa detrás del generador de lenguaje GPT-3, informa que su creación puede perpetuar los estereotipos sobre género y raza, y se pide a los clientes que implementen filtros para eliminar el contenido ofensivo.

Comentarios de otros artículos

  1. Yo tengo un problema, mis hijos no se quieren venir conmigo pero son chiquitos y mi marido los compra con…

  2. Doctor usted me puede curar una hemorroide externa???? No puedo con el dolor, vivo en canal nacional.

  3. Ya lo sigo en Tiktok. Esta usted muy guapo Licenciado. Gracias por compartirnos su talento. 🥰

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada.

También te puede interesar 👇

Pin It on Pinterest

Share This