Experiencia Generativa de Búsqueda de Google
Este elemento es una expansión del contenido de los cursos y guías de Lawi. Ofrece hechos, comentarios y análisis sobre la “Experiencia Generativa de Búsqueda de Google”. [aioseo_breadcrumbs]
Con la Experiencia Generativa de Búsqueda, podemos:
- Experimentar una reducción de la visibilidad y los clics en los resultados orgánicos, ya que están siendo empujados por debajo del pliegue de búsquedas.
- Replantearse la optimización de contenidos y trabajar para aparecer en las fuentes y enlaces dentro de SGE. Pero no está claro que las personas quieran clickear ahi, como no lo hacen en las fuentes de wikipedia actualmente.
- Optimizar a través de diferentes tipos de medios, por ejemplo, vídeo, menciones sociales y autores para ganar visibilidad en las nuevas funciones de búsqueda.
- Actualizar nuestra forma de pensar en torno a las métricas SEO comunes, como las palabras clave y las clasificaciones, para reflejar el nuevo comportamiento de búsqueda y el flujo de usuarios.
- Ajustar nuestra estrategia de anuncios en Google. Alphabet (la empresa matriz de Google) obtiene la mayor parte de sus ingresos de los anuncios. Encontrarán y mantendrán una forma de obtener estos ingresos. Los anuncios han sido muy prominentes en las maquetas de SGE. Tendremos que ajustar el enfoque, el presupuesto y los informes en consecuencia.
Qué significa esto para la empresa
Visibilidad orgánica
Algunas ideas:
- Es probable que experimentemos más búsquedas sin clic, ya que SGE proporciona respuestas a las preguntas de búsqueda directamente en los resultados de búsqueda, haciendo innecesario que el usuario continúe hasta un sitio web.
- Experimentaremos solicitudes de búsqueda más largas, detalladas y específicas que nunca. Tenga en cuenta que las búsquedas llevan años haciéndose más long-tail.
- Es probable que se produzca una disminución de la tasa de clics aunque su clasificación se mantenga estable, ya que el SGE y otras nuevas funciones de búsqueda desplazan a los resultados orgánicos clásicos.
El marketing de búsqueda cambiará hacia la optimización de todas las funciones de búsqueda, incluidas las respuestas de chatbot. Tendremos que entender cómo “clasificar” las respuestas de SGE y cuántos clics se pueden ganar de forma realista cuando figuran como fuente.
Otras posibilidades:
- A corto plazo, es probable que revisemos y ajustemos el enfoque estratégico y las prioridades entre las campañas de pago y las orgánicas. Los anuncios han sido muy prominentes en las maquetas de SGE.
- Los vínculos de retroceso y una sólida calificación del dominio podrían ser el factor diferenciador cuando Google intente estimar la fiabilidad de un sitio web en el mar de contenidos generados por la IA, al menos al principio.
- Es probable que experimentemos un aumento de la importancia del contenido de la parte inferior del embudo, ya que las complejas decisiones de compra de tecnología B2B necesitarán conocimientos que vayan más allá de una respuesta por chat. Es probable que demos prioridad a las guías de compra, las comparaciones con la competencia, las historias de clientes y las páginas de aterrizaje para captar esta demanda existente.
- A largo plazo, nos centraremos en crear contenidos significativos que generen perspectivas únicas para su ICP. Véase la subsección: Experiencia humana frente a IA.
El SGE proporciona una síntesis útil de percepciones e información relevantes – no historias únicas o nuevas.
Hoy en día, todos los profesionales del marketing tienen acceso a las mismas soluciones de SEO, análisis de la competencia y herramientas de optimización de contenidos. El coste de los contenidos de formato largo se ha hundido hasta prácticamente cero con el lanzamiento cada día de más herramientas de redacción con IA. Tanto estos generadores de texto de IA como el nuevo SGE se nutren de los mismos artículos repetitivos que todos los demás. El contenido será barato, largo y rankeable, pero no será memorable.
El objetivo con el marketing de contenidos siempre ha sido facilitar las ventas en el futuro. Para ello, necesitamos que se nos recuerde y formar parte del conjunto de consideraciones cuando su ICP esté listo para tomar una decisión de compra.
A largo plazo, es probable que haya que dar prioridad a las experiencias web únicas, así como a una narrativa y unos mensajes de empresa sólidos. Sería clave que las empresas aprovechen a sus expertos en la materia, las historias de sus clientes, sus conocimientos y experiencias únicas en el sector.
Experiencia humana frente a IA
Por ahora, Google ha dicho que no castigará el contenido escrito con IA siempre que sea útil. Y nos guste o no, los contenidos escritos con IA han dado lugar a una mayor publicación de contenidos en la mayoría de los sectores. Un ejemplo impresionante es LinkedIn, que ha publicado 62.000 artículos generados por IA desde marzo de 2023.
Es probable que en los próximos meses veamos más contenidos y más largos que nunca. Esto aumentará la competitividad en los resultados de búsqueda, pero también plantea un problema para la formación y el retorno de respuestas útiles de la SGE.
Pero hay esperanza: Google ha ampliado las Directrices de calidad con E-E-A-T en diciembre de 2022.
La nueva E significa Experiencia: Experiencia de primera mano o de vida en el tema. Esto significa que Google intentará “recompensar” las páginas en las que el autor haya experimentado realmente el tema sobre el que escribe. ¿Demuestra también el contenido que ha sido elaborado con cierto grado de experiencia, como por ejemplo con el uso real de un producto, habiendo visitado realmente un lugar o comunicando lo que ha experimentado una persona? Hay algunas situaciones en las que realmente lo que más se valora es el contenido producido por alguien que tiene experiencia vital de primera mano sobre el tema en cuestión.
Google lo anunció el 10 de mayo: Porque incluso en un mundo en el que la IA puede proporcionar información, sabemos que la gente siempre valorará la aportación de otras personas, y una Web próspera es esencial para ello.
También van a lanzar una nueva función de búsqueda: Perspectivas, que permite incorporar información de foros, etc.
En muchos sentidos, el enfoque de Google en los expertos en la materia, la experiencia de primera mano y la autoría es el último paso de una serie de actualizaciones que intentan combatir el spam y la información falsa. En los últimos 12 meses, Google ha lanzado la actualización Revisión (septiembre de 2022), la actualización Contenido útil (diciembre de 2022) y ahora Perspectivas.
Es probable que la visibilidad de búsqueda descendente se encuentre en la intersección del marketing de contenidos, los mensajes únicos y el liderazgo de pensamiento.
Revisor de hechos: ST
IA generativa y búsqueda
Los motores de búsqueda, los motores de recomendación y los sistemas relacionados llevan décadas utilizando activamente algoritmos de inteligencia artificial, pero el panorama cambió radicalmente con el lanzamiento de ChatGPT de OpenAI en noviembre de 2022. ChatGPT abrió la posibilidad de que los humanos interactuaran con las máquinas de una forma totalmente diferente para obtener respuestas a sus preguntas. Este tipo de tecnología de IA se denomina IA generativa. Este capítulo explorará cómo los motores de búsqueda están aplicando esta tecnología y qué oportunidades existen para que las organizaciones utilicen la IA generativa como parte de sus programas de SEO.
En las primeras secciones se ofrece información básica sobre el panorama actual de la IA para contextualizar la tecnología y ayudar a aclarar sus implicaciones más generales. Si desea pasar directamente a las aplicaciones, puede saltar a “Soluciones de IA generativa”.
Breve descripción de la Inteligencia Artificial
El concepto de algoritmos de IA se formuló originalmente en la década de 1950, con el libro de Alan Turing “Computing Machinery and Intelligence”, considerado un artículo fundamental en el campo de la IA. El término inteligencia artificial fue acuñado por los informáticos John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude E. Shannon, y las primeras actividades de investigación y desarrollo de IA tuvieron lugar en el Instituto Tecnológico de Massachusetts y la Universidad de Oxford. La mayor parte de lo que vemos hoy en día en términos de IA consiste en redes neuronales y grandes modelos de lenguaje (LLM) basados en redes neuronales muy grandes con muchas capas, denominadas modelos de aprendizaje profundo.
Las redes neuronales y los modelos de aprendizaje profundo son como ecuaciones enormemente complejas con muchos parámetros. Estos modelos pueden entrenarse para proporcionar el resultado deseado utilizando datos de entrenamiento para ajustar los pesos asignados a cada parámetro (aprendizaje supervisado) o comparándolos con los datos brutos y haciendo que aprendan los patrones de los datos por sí mismos (aprendizaje no supervisado).
Estos tipos de algoritmos están diseñados para crear herramientas que sean muy buenas en tareas analíticas. Para entender lo que esto significa, es útil dar un paso atrás y considerar lo que constituye la inteligencia humana. Robert J. Sternberg propuso un modelo denominado teoría triárquica de la inteligencia. Esta teoría sugiere que hay tres tipos de inteligencia:
Inteligencia componencial
Asociada a la capacidad para realizar tareas analíticas. Es el tipo de inteligencia que se evalúa con más frecuencia.
Inteligencia experiencial
Asociada a la capacidad de ser creativo y flexible en el pensamiento.
Inteligencia práctica
Asociada a la capacidad de aplicar una idea o un proceso de pensamiento determinado al contexto de una situación (es decir, ¿tiene sentido teniendo en cuenta lo que intentamos conseguir?).
Actualmente, los algoritmos de IA se centran principalmente en la inteligencia componencial (o analítica). También estamos empezando a ver algunas ofertas, como AutoGPT, que pueden utilizarse para ejecutar tareas complejas con muchos pasos que pueden representar el comienzo de cierto nivel de inteligencia práctica.
Por el momento no está claro adónde pueden llegar estos algoritmos ni a qué velocidad progresarán, pero su desarrollo da lugar a riesgos importantes que hay que gestionar. Profundizaremos más en este tema en “Retos de la IA generativa”.
Más información sobre los grandes modelos lingüísticos
Los LLM son, en esencia, redes neuronales muy grandes entrenadas para comprender el lenguaje. Estas redes pueden tener miles de millones de parámetros o más (la GPT-3 de OpenAI consta de 175.000 millones de parámetros; el tamaño de la red GPT-4 no se ha confirmado, pero las especulaciones del sector sugieren que tiene más de 100 billones de parámetros). También son increíblemente complicadas y caras de entrenar: Sam Altman, CEO de OpenAI, ha declarado que entrenar a GPT-4 costó más de 100 millones de dólares. Estas redes enormemente complejas son necesarias para maximizar la capacidad de los modelos de comprender el lenguaje en un alto grado.
Los modelos de aprendizaje profundo aprenden el lenguaje basándose en el concepto de modelos de compleción. Como ejemplo, considere la siguiente frase de tres palabras y complete el espacio en blanco:
“Ver Spot _______”.
Puede que hayas decidido que la tercera palabra sea “correr”; es muy probable que un gran número de personas la elijan porque “ver correr a Spot” es una frase que se hizo famosa en una serie de libros infantiles muy populares (además de en una película más reciente que no tuvo tanto éxito). Sea cual sea la palabra que hayas elegido, lo más probable es que lo hayas hecho porque considerabas que tenía la mayor probabilidad de ser la respuesta más popular. En esencia, este es el enfoque que utilizan los LLM para aprender idiomas, pero a una escala mucho mayor.
Otra innovación clave que hace posibles los LLM es el concepto de modelos de atención. Dado que el entrenamiento de los LLM conlleva muchos gastos y mucho tiempo (entrenar el modelo completo puede llevar años), tener que actualizar todo el modelo es una tarea prohibitiva. También es muy difícil entrenar un modelo que tiene que dar cuenta de todos los escenarios posibles en todas las lenguas.
La llegada de los modelos de atención hizo todo esto mucho más manejable porque permitió que el entrenamiento se produjera en contextos mucho más estrechos, una pieza cada vez. Por ejemplo, el modelo puede entrenarse en un área temática específica, como todo el lenguaje relacionado con el piragüismo o todo el lenguaje relacionado con jugar al golf.
Este tipo de innovaciones y la enorme escala de estos modelos han hecho posibles muchos de los avances recientes. Además, es posible realizar ajustes para cuestiones específicas sin tener que volver a entrenar todo el modelo. Hablaremos más de esto en la sección sobre los retos de la IA generativa.
En su forma actual, los LLM pueden estar llegando al límite de sus capacidades potenciales. De hecho, Sam Altman predijo que “la era de los modelos gigantes de IA ya ha terminado” y que se necesitarán nuevas ideas para hacer avanzar la IA más allá de donde se encuentra ahora.
Soluciones de IA generativa
OpenAI fue la primera en ofrecer una herramienta de IA generativa con el lanzamiento de ChatGPT en noviembre de 2022. La respuesta del mercado a este lanzamiento fue inmediata: ChatGPT fue la aplicación que más rápido alcanzó los cien millones de usuarios en la historia, logrando este hito en tan solo dos meses.
Inherente a su crecimiento exponencial fue la convincente propuesta de valor que ofrecía: ChatGPT permite a los usuarios conversar con ella de forma significativa. Esto incluye la opción de plantear preguntas complejas de varias partes (prompts) y hacer que responda con respuestas complejas y extensas. Además de esta funcionalidad de pregunta y respuesta, ChatGPT tiene muchas otras capacidades que incluyen (pero no se limitan a):
Escribir y depurar código
Creación de marcado Schema.org
Escribir macros de Excel
Creación de esquemas de artículos
Redacción de borradores de contenido
Explicación de temas complejos
Escribir música
Traducción de textos
Resumir contenidos
Estas funciones aún no están disponibles en los motores de búsqueda tradicionales, pero son muy demandadas por los usuarios.
ADVERTENCIA
Todas las soluciones de IA generativa son propensas a cometer errores. Por eso, antes de confiar en ellas, hay que validar (y corregir) todos y cada uno de sus resultados. Como ejemplo de precaución, CNET se apresuró a publicar contenidos creados por una herramienta de IA, pero tras examinar 71 de los artículos de formato largo producidos por la herramienta, descubrió que 41 de ellos contenían errores. El coautor Eric Enge también realizó un pequeño estudio de 30 consultas con ChatGPT y descubrió que el 20% del contenido producido contenía información abiertamente incorrecta y más del 50% del contenido tenía omisiones materiales. También probó dos versiones de Bing Chat, que funcionaba de forma similar a ChatGPT, y Google Bard, que funcionaba algo peor.
Bing anunció su solución, basada en ChatGPT y denominada Bing Chat, en febrero de 2023. Esto creó una gran expectación debido a su integración en el motor de búsqueda Bing. Como ejemplo, si se busca cómo se hace el loc lac (un plato popular camboyano), se obtiene un resultado de búsqueda estándar, como se muestra en la Figura 2-1.
Figura 2-1. Resultado de la búsqueda en Bing
Sin embargo, debajo de la consulta de búsqueda verás una opción llamada CHAT. Si haces clic en ella, accederás al chat de Bing, como se muestra en la Figura 2-2.
Figura 2-2. Resultado de búsqueda de Bing Chat
Esta integración ofrece una forma elegante de cambiar entre la experiencia de búsqueda tradicional y Bing Chat. Eric Enge concedió una entrevista a Fabrice Canel, de Bing, en la que hablaron de cómo se había concebido esta integración. Una de las ideas clave fue que los buscadores suelen estar en uno de estos dos modos. La Figura 2-3 muestra esos dos modos y algunos ejemplos de consultas.
Figura 2-3. Teoría de Bing sobre los dos modos de búsqueda
Bing considera que los modelos tradicionales de motores de búsqueda están diseñados para responder a consultas en las que el usuario sabe exactamente lo que quiere. Ejemplos de este tipo de consultas son las de navegación y las directamente informativas. Sin embargo, muchas sesiones de búsqueda implican múltiples iteraciones de consulta, en las que el usuario trabaja a través de un proceso para obtener finalmente lo que quiere. En las figuras 1-11 y 1-13 del capítulo 1 se muestran ejemplos de este tipo de sesiones complejas.
La entrevista con Canel también arroja luz sobre cómo está estructurada la infraestructura subyacente para la integración de Bing Chat.
En el “Modelo Prometheus de Bing”, el Bing Orchestrator gestiona gran parte de la interacción entre Bing Search y Bing Chat. Sin embargo, la verdadera innovación es el backend de Bing, impulsado por el LLM. Esto es lo que Canel tenía que decir al respecto:
Cuando hicimos un gran avance en los grandes modelos lingüísticos (LLM), al igual que otros LLM, se entrenaba con datos de un momento determinado, así que pensamos que podíamos hacer que la experiencia del usuario fuera más rica, relevante y precisa combinándola con la potencia del back-end de Bing.
Para ser más concretos, desarrollamos una tecnología propia llamada Prometheus, un modelo de IA pionero en su clase que combina los resultados frescos y completos del índice, la clasificación y las respuestas de Bing con la capacidad de razonamiento creativo de los modelos más avanzados.
Bing Chat se beneficia porque el modelo Prometheus puede utilizar datos del índice de Bing para comprobar las respuestas que genera y reducir las imprecisiones. Bing denomina a esto “grounding”.
NOTA:
ChatGPT no tenía esta capacidad en su lanzamiento, pero se añadió una integración con Bing Search mediante un acuerdo con Microsoft anunciado en mayo de 2023.
Otro aspecto importante a destacar sobre la implementación de Bing es que, a diferencia de ChatGPT, Bing Chat proporciona atribución a todas las fuentes utilizadas para generar una respuesta. He aquí el comentario de Canel al respecto:
Nuestro objetivo es satisfacer a nuestros usuarios de Bing y dirigir más tráfico a los editores en este nuevo mundo de búsquedas. Es un objetivo primordial para nosotros, y medimos el éxito en parte por la cantidad de tráfico que enviamos desde el nuevo Bing/Edge.
Como era de esperar, Google también se apresuró a responder al lanzamiento de ChatGPT. En febrero de 2023, el consejero delegado de Google, Sundar Pichai, publicó un post titulado “An Important Next Step on Our AI Journey” en el que anunciaba el lanzamiento de un producto propio de Google similar a ChatGPT, llamado Bard. Rápidamente se hizo evidente que Bard de Google, lanzado al mes siguiente, no era tan capaz como ChatGPT o Bing Chat, pero era un pie en el juego. A diferencia de Bing Chat, Bard se lanzó totalmente separado de la experiencia de búsqueda. Además, no ofrece ningún tipo de atribución a los sitios web de terceros que fueron las fuentes de información utilizadas para generar sus respuestas, un aspecto que muchos se apresuraron a criticar.
Google dio el siguiente paso en su conferencia anual I/O el 10 de mayo de 2023, anunciando planes para lo que denomina Search Generative Experience (SGE). Se trata del primer paso de Google para integrar la IA generativa directamente en sus resultados de búsqueda. Según el anuncio de Google, SGE permitirá a los usuarios:
Hacer “tipos de preguntas completamente nuevos que nunca pensaste que la Búsqueda podría responder”.
Obtener rápidamente información sobre un tema, con enlaces a resultados relevantes para profundizar.
Hacer preguntas de seguimiento de forma natural en un nuevo modo de conversación.
Hacer más cosas fácilmente, como generar ideas creativas y borradores directamente en la Búsqueda.
En principio, esto suena bastante similar a los objetivos de alto nivel expresados por Bing, pero con algunos enfoques específicos de Google. Google también proporcionó una vista previa de cómo podría ser esta experiencia, mostrando un primer avance del contenido generativo de IA en las SERPs de Google.
Fíjate en la advertencia de la parte superior izquierda que dice: “La IA generativa es experimental”. Esta precaución también se muestra en otros aspectos del anuncio de Google, y las posibles limitaciones se analizaron en mayor profundidad en un PDF que Google publicó tras el anuncio. En este documento también se analizan otros aspectos del enfoque de Google sobre la SGE. Algunos de los puntos clave adicionales incluyen:
SGE es independiente de Bard. Comparten una base común, pero Bard está diseñado para ser una herramienta independiente, y SGE no. Por esa razón, puede haber algunas diferencias entre ellos.
SGE está totalmente integrado con otras experiencias, como las compras y la búsqueda local.
Se fomenta el uso creativo de SGE, pero con una advertencia: “Aunque SGE es apto tanto para aplicaciones informativas como creativas, los usuarios notarán limitaciones en los usos creativos para empezar, ya que hemos puesto intencionadamente un mayor énfasis en la seguridad y la calidad”.
Google planea utilizar el color para ayudar a diferenciar aspectos de los resultados impulsados por la IA, señalando que este color puede cambiar en función de los tipos de viaje y la intención del usuario.
Google planea utilizar evaluadores humanos para revisar los resultados y acelerar el proceso de eliminación de errores y puntos débiles, señalando que se centrarán en las áreas más susceptibles a riesgos de calidad.
Google planea utilizar activamente métodos de pruebas adversariales para exponer otras áreas de debilidad.
Al igual que en el caso de las búsquedas, Google exigirá a los SGE un nivel de exigencia aún mayor con respecto a las consultas YMYL. Esto incluye añadir avisos específicos a este tipo de resultados para aconsejar a los usuarios que validen las respuestas con información de otras fuentes.
En las áreas en las que escaseen los datos fiables (Google las denomina “vacíos de datos”), SGE se negará a proporcionar una respuesta.
SGE evitará proporcionar respuestas generadas a consultas que indiquen situaciones vulnerables, como las relacionadas con autolesiones.
Google planea ser muy cuidadoso con temas que sean explícitos, odiosos, violentos o contradictorios con el consenso sobre temas de interés público, por ejemplo.
También son interesantes las observaciones de Google sobre comportamientos que pueden hacer que los usuarios confíen en los resultados más de lo debido. Para minimizar este riesgo, Google ha tomado dos decisiones intencionadas:
Sin fluidez
SGE no se comportará como un compañero de intercambio de ideas que fluye libremente, sino que será seco y objetivo, proporcionando enlaces a recursos que el usuario puede consultar para obtener información adicional.
Sin personalidad
SGE no responderá en primera persona, y los resultados están diseñados para ser objetivos y neutrales.
Como puedes ver, Google se ha esforzado mucho en ser cuidadoso con el uso que hace de la IA generativa. Como veremos en “Retos de la IA generativa”, estas tecnologías tienen muchos problemas de precisión e integridad. Google está mostrando una gran preocupación por la forma en que la información que proporciona podría utilizarse indebidamente o causar daños. Creemos que este es uno de los motivos por los que Google se ha retrasado con respecto a Bing en el despliegue de su propia solución.
Capacidades de la IA Generativa
La IA generativa se puede utilizar de muchas formas diferentes para apoyar el SEO y las tareas relacionadas con el SEO. En esta sección compartiremos algunas de esas formas, incluyendo ejemplos de indicaciones y resultados. Tenga en cuenta que todos los ejemplos mostrados en esta sección utilizan ChatGPT-4, pero la mayoría (si no todos) funcionarán con Bing Chat o SGE de Google. Como verás, abarcan una gran variedad de áreas, desde la codificación hasta la investigación de palabras clave y la creación de contenidos:
Escribir código. Para ver un ejemplo sencillo, prueba con la pregunta “Por favor, escriba el código Python que escribirá ‘¡Hola Mundo!’ en la pantalla de mi PC”.
Este es obviamente un script muy simple, pero ChatGPT es bastante bueno en el manejo de la creación de código más complejo, incluyendo el acceso a las API, problemas matemáticos difíciles, y mucho más. Pruébalo y mira cómo te funciona, pero asegúrate de que tienes un desarrollador experimentado que conoce los objetivos del programa usándolo como punto de partida para su trabajo. Advertencia: ¡no utilices ChatGPT para sustituir a tu desarrollador!
Depurar código. ¿Tienes un trozo de código que no funciona? Cópialo y pégalo en ChatGPT para que lo compruebe por ti. Prueba con un mensaje de este tipo: “Por favor, revise el siguiente código en busca de errores de sintaxis”. Esto puede tener un valor sorprendente, ya que una de las partes menos agradables de la programación es pasar una hora tratando de encontrar un problema en el código que está trabajando, sólo para descubrir que es un error de sintaxis básica. Este tipo de errores son bastante comunes.
Determinar la intención de un grupo de palabras clave. Proporcione una lista de palabras clave y utilice una pregunta similar a la siguiente: “clasifique la siguiente lista de palabras clave en grupos en función de su intención de búsqueda, ya sea comercial, transaccional o informativa”. La Figura 2-7 muestra un ejemplo de la pregunta y la Figura 2-8 muestra los resultados proporcionados por ChatGPT.
Observe que este resultado contiene algunos errores. En particular, la interpretación de la palabra “navigational” no es la esperada. “Sitio web de los Boston Celtics” es claramente una consulta de navegación, mientras que “Equipación de los Boston Celtics” y “Aparcamiento de los Boston Celtics” no lo son. Esto ilustra una limitación de la IA generativa, pero este problema puede solucionarse fácilmente añadiendo a la pregunta definiciones claras de lo que se entiende por “informacional”, “transaccional” y “de navegación”.
Agrupe las palabras clave por relevancia. Proporcione una lista de palabras clave, precedida de una pregunta similar a la siguiente: “Agrupe las siguientes palabras clave según su relevancia semántica”. La Figura 2-9 muestra la instrucción y una lista de palabras de ejemplo, y la Figura 2-10 muestra los resultados.
Traduzca el texto. Puede hacer esto con una lista de palabras clave. Pruebe con una pregunta de este tipo “Traduzca las siguientes palabras clave del inglés al francés y genere los resultados en una tabla con dos columnas, con las palabras clave en inglés en la primera, y su traducción al francés en la segunda”.
Genere una lista de preguntas sobre un tema. A continuación se muestra un ejemplo de solicitud de ideas de contenido relacionadas con la fabricación de muebles: “Genere una lista de 10 preguntas populares relacionadas con la fabricación de muebles que sean relevantes para los nuevos carpinteros”. La Figura 2-13 muestra la respuesta a esta pregunta.
Generar esquemas de artículos. Probamos la siguiente pregunta: “Por favor, genere un artículo sobre cruceros fluviales europeos”.
Cree posibles etiquetas de título. Pruebe este ejemplo: “Genere 10 etiquetas de título únicas, de un máximo de 60 caracteres, para el siguiente texto. Deben ser descriptivas e incluir el término ‘vinos finos'”. A continuación, escriba el texto que desea analizar.
Tenga en cuenta que estas etiquetas de título sugeridas no aprovechan las herramientas de investigación de palabras clave del sector (como las analizadas en el Capítulo 6) y la información sobre volumen que proporcionan, por lo que será necesario revisarlas con ese tipo de datos antes de finalizar sus elecciones. No obstante, utilizar ChatGPT de este modo puede ser útil para generar ideas. A continuación, puede introducir algunas de las frases clave que proporciona en sus herramientas de investigación de palabras clave para obtener datos sobre los volúmenes de búsqueda.
Generar meta descripciones. Proporcione el texto que desea analizar y, a continuación, escriba algo similar a lo siguiente: “Genere 6 meta descripciones únicas, de un máximo de 150 caracteres, para el siguiente texto. Deben ser pegadizas, con una llamada a la acción, e incluir en ellas el término ‘vinos finos'”. La Figura 2-15 muestra el texto de muestra proporcionado a ChatGPT para su análisis, y la Figura 2-17 muestra la respuesta.
Como con cualquier otro contenido creado por una herramienta de IA generativa, asegúrese de revisar el resultado antes de publicar el contenido y/o ponerlo en producción. Puede utilizar estas ideas como combustible para su proceso de lluvia de ideas y, a continuación, elaborar sus propias descripciones que mejor se adapten a sus necesidades.
Generar descripciones de texto. También puede obtener un contenido bastante sólido creado para usted, si todos los hechos materiales se extraen de una base de datos de confianza. Por ejemplo, si tiene una cadena de pizzerías, es posible que desee tener una página para cada una de ellas en su sitio web. Si dispone de una base de datos con información sobre cada local que almacene datos como la dirección, los horarios de apertura y algunos de los alimentos que ofrecen, entonces esto puede funcionar a escala. Como parte del proceso, proporcione los datos de cada local y una muestra del resultado deseado.
Por ejemplo, puede proporcionar un mensaje del tipo: “Reformule el siguiente párrafo para tres ubicaciones diferentes, pero evite las repeticiones, manteniendo su significado. Utilice la siguiente información para cada ubicación”. Puede ver cómo funciona esto en la Figura 2-18 (que muestra el ejemplo de solicitud que utilizamos, incluidos los datos de muestra para cada ubicación), el texto de plantilla proporcionado como parte de la solicitud y la Figura 2-19. Tenga en cuenta que la Figura 2-19 muestra sólo una solicitud. Tenga en cuenta que la Figura 2-19 muestra sólo uno de los resultados generados a partir de esta solicitud; las otras dos ubicaciones tuvieron resultados similares, aunque con una redacción muy diferente.
Figura 2-18. Petición de generación de texto a partir de una base de datos
Este es el borrador de texto que se proporcionó:
Joe’s Pizza ofrece algunas de las mejores pizzas de Estados Unidos. Sólo utilizamos ingredientes naturales de granjas locales en todas nuestras pizzas. Las pizzas más populares en nuestras tiendas incluyen: Queso, Pepperoni, Piña, y amantes de la carne.
Siempre nos esforzamos por ser competitivos en precios, pero es la calidad de nuestras pizzas y servicios lo que más importa a nuestros clientes. Te trataremos como a un amigo perdido hace tiempo cuando vengas a visitarnos. Esperamos verle pronto.
Genere una lista de preguntas frecuentes para un bloque de contenido. Su pregunta podría ser algo parecido a lo siguiente “Generar una lista de X preguntas frecuentes basadas en el siguiente contenido”. La Figura 2-20 muestra el bloque de contenido utilizado en nuestro ejemplo, y la Figura 2-21 muestra la salida de ChatGPT.
Buscar y obtener estadísticas. Para probar esto, probamos la siguiente pregunta: “Genera una lista de los cinco principales hechos y estadísticas relacionados con la batalla de Stiklestad, incluyendo su fuente”. La Figura 2-22 muestra lo que obtuvimos.
Esta es una buena forma de utilizar la IA generativa para acelerar el proceso de enriquecimiento de contenidos, al tiempo que se proporciona la atribución adecuada a las fuentes.
Resumir contenidos. A veces es útil obtener resúmenes más breves del contenido que has escrito, y la IA generativa también puede ayudar en este caso. Un ejemplo que puedes utilizar es “Genera un resumen de 15 a 20 palabras del siguiente contenido”. En la Figura 2-23 se muestra el texto que utilizamos para probar esta pregunta, y en la Figura 2-24, los resultados obtenidos por ChatGPT.
Observe que la respuesta tiene 33 palabras, un poco más de lo que buscábamos.
Crear marcado Schema.org para una o más preguntas de tipo Q&A. Para ilustrar esto, usamos la pregunta y el ejemplo de Q&A mostrados en la Figura 2-25, y recibimos la respuesta mostrada en la Figura 2-26.
Tenga en cuenta que también puede proporcionar un bloque de texto, y ChatGPT identificará lo que cree que son buenas preguntas y respuestas candidatas a partir del texto. Esto también funciona bastante bien.
Generar etiquetas hreflang. La Figura 2-27 muestra el prompt completo que utilizamos, y la Figura 2-28 muestra la respuesta proporcionada.
Generar código .htaccess. Para ilustrar esto, usamos un ejemplo bastante simple, como se muestra en la Figura 2-29, y obtuvimos los resultados mostrados en la Figura 2-30.
Hay muchos más casos de uso para la IA generativa que los 16 descritos en esta sección. Un amplio campo a explorar es cómo optimizar los procesos empresariales internos. Por ejemplo, tal vez su herramienta de IA generativa preferida no funcione tan bien en la creación de esquemas de artículos, como se muestra en el caso de uso nº 7, pero eso no significa que no pueda utilizarla para ayudar con esta tarea. Considere la posibilidad de utilizar la herramienta para crear tres esquemas diferentes sobre el tema y, a continuación, entregue todos esos esquemas a su experto en la materia, que acabará escribiendo el artículo. Pídeles que creen su propio esquema, aprovechando los esquemas generados por la IA para acelerar sus esfuerzos de desarrollo.
Estas técnicas pueden ser sorprendentemente eficaces, ya que a menudo la parte más difícil de la creación de nuevos contenidos es dar con el concepto inicial y decidir cómo quieres estructurarlo. Puede ser una forma excelente de generar nuevas ideas y mejorar las actuales.
Enfoques similares pueden funcionar bien con la escritura de código. Haga que su herramienta de IA generativa cree un borrador de código y que su desarrollador lo utilice como punto de partida. Aunque la codificación no es específicamente una tarea de SEO, le ofrecemos esta sugerencia porque todo lo que pueda hacer para aumentar la eficiencia operativa es positivo.
Generación de instrucciones (también conocida como ingeniería de instrucciones)
En la sección anterior hemos compartido muchos ejemplos de interacciones con ChatGPT. Como se indicó al principio de esa sección, la mayoría de ellos también funcionarán con Bing Chat o SGE. Puedes utilizarlos como punto de partida para tus propios esfuerzos, pero también te resultará útil conocer un enfoque general para crear prompts con éxito. He aquí algunas pautas:
Sé claro y directo sobre lo que quieres que haga la herramienta de IA generativa.
Proporcione un ejemplo del tipo de resultado que busca, utilizando un tema muy similar. Por ejemplo, si quieres obtener una breve descripción de la historia de cada uno de los equipos de la NBA, proporciona un ejemplo del resultado de uno de los equipos y pide a la herramienta que lo utilice como plantilla.
Basado en la experiencia de varios autores, mis opiniones, perspectivas y recomendaciones se expresarán a continuación (o en otros lugares de esta plataforma, respecto a las características en 2026 o antes, y el futuro de esta cuestión):
Defina su público objetivo, incluyendo cualquier criterio que tenga sentido para su propósito (edad, sexo, situación económica, creencias, etc.). Las herramientas adaptarán sus resultados en consecuencia.
Pruebe algo y vea si funciona. Si no, modifíquelo y vuelva a intentarlo. Puedes volver a introducir toda la pregunta modificada o encadenar preguntas, como se explica en el punto siguiente.
Cuando obtenga un resultado que no satisfaga sus necesidades, modifique la instrucción añadiendo una instrucción complementaria en una instrucción posterior. Por ejemplo, si recibe una respuesta que es parcialmente correcta, proporcione alguna instrucción correctiva como: “Gracias por tu respuesta, pero en lugar de centrarte en el protagonista masculino de la obra, céntrate en el protagonista femenino”. Encadenar las preguntas de esta forma suele ser más fácil de refinar el resultado que volver a escribir toda la pregunta con modificaciones.
Describa el formato que desea para el resultado. ¿Quiere párrafos? ¿Listas con viñetas? ¿Una tabla de dos o tres columnas? Cuanto más específico sea, mejor.
Indique el contexto para que la herramienta “actúe como si”. Por ejemplo, puedes empezar tu pregunta con “ChatGPT, eres un vendedor B2B experimentado que entiende profundamente el SEO técnico”.
Ampliando el punto 7, la idea general es proporcionar a la herramienta de IA generativa tanto contexto como sea posible. Esto puede incluir de quién viene la respuesta (como en el punto 7), quién es el público al que va dirigida (con tantos detalles como puedas proporcionar), el estilo de redacción deseado, si quieres una respuesta amplia o de alcance limitado, y más. Este tipo de preguntas se denominan superpistas.
Retos de la IA Generativa
A medida que la inteligencia artificial sigue desplegándose a gran escala en las búsquedas y en nuestras infraestructuras de datos globales, su rápida adopción y su significativo impacto en la sociedad están generando preguntas urgentes sobre la fiabilidad, los retos y los riesgos de la IA y los datos en los que se basa.
Las conversaciones sobre la IA en el ámbito del derecho, la política, el diseño, las normas profesionales y otras áreas de la gobernanza tecnológica están cambiando rápidamente hacia el concepto de diseño tecnológico responsable y se centran en la necesidad de tener en cuenta valores, principios y ética en el despliegue de la IA. Un informe de 2020 publicado por el Berkman Klein Center for Internet & Society de la Universidad de Harvard describe ocho “temas” clave extraídos de un análisis de destacados documentos sobre principios de la IA:
Privacidad
Responsabilidad
Seguridad y protección
Transparencia y explicabilidad
Equidad y no discriminación
Control humano de la tecnología
Responsabilidad profesional
Promoción de los valores humanos
Aunque un tratamiento exhaustivo de los retos de la IA en el contexto de la búsqueda y el descubrimiento de información en general queda fuera del alcance de este libro, es necesario reconocer que estas cuestiones existen, y que será necesario abordarlas, en el contexto de la búsqueda y las diversas formas en que los usuarios buscan y obtienen información. Aún está por ver cómo (y con qué eficacia) Google y otros abordarán exactamente estos numerosos retos, y habrá que sortear problemas éticos, legales, normativos, comerciales y sociales.
Como explicamos en “Soluciones generativas de IA”, Google ha dejado claro que es consciente de estos problemas y que está tomando medidas para abordarlos en SGE, como dar prioridad a la seguridad y la calidad en sus respuestas, utilizar revisores humanos, evitar proporcionar respuestas generadas para consultas que indiquen que el usuario se encuentra en una situación vulnerable y evitar incluir contenido explícito, odioso o violento en sus respuestas.
Como también comentamos en esa sección, ChatGPT, Bing Chat y Google Bard son propensos a cometer errores (denominados “alucinaciones” en el sector de la IA). Como ya se ha mencionado, CNET descubrió que más de la mitad de los artículos largos escritos con IA que publicaba contenían alucinaciones de este tipo, mientras que la investigación de Eric Enge confirmó que las alucinaciones (así como las omisiones de información importante) se producían con frecuencia incluso en respuestas cortas.
En la actualidad, los errores y omisiones representan un área crítica de riesgo con respecto al uso de IA generativa para la producción de contenidos, hasta tal punto que los autores desaconsejan encarecidamente el uso de IA generativa para crear el contenido de su sitio web a menos que un experto en la materia revise y compruebe los resultados y corrija las inexactitudes y omisiones identificadas. No querrá que su marca se vea perjudicada por la publicación de contenidos mal redactados, inexactos, incompletos o copiados.
Otras áreas de riesgo para su organización al utilizar IA pueden ser, entre otras:
Sesgo
Las fuentes de datos utilizadas por las herramientas de IA generativa pueden tener un sesgo claro, y esto se reflejará en el contenido creado por las herramientas. Es posible que no desee que su contenido presente un sesgo injusto, ya que esto podría no reflejarse bien en su marca.
Derechos de autor
La IA generativa toma el contenido que encuentra en otros sitios web y lo utiliza para crear sus propias respuestas a tus preguntas. Básicamente, está aprovechando el trabajo de otros, e incluso con la atribución adecuada, en algunos casos puede sobrepasar los límites del “uso justo”. Esta cuestión puede ser objeto de demandas en el futuro, tal vez por parte de importantes organizaciones de noticias. Es mejor no meterse en medio.
Cuestiones de responsabilidad
Como hemos detallado en este capítulo, las soluciones de IA generativa son inherentemente propensas a errores, imprecisiones y sesgos. En este momento, es plausible que existan riesgos cuando la gente sigue los consejos de un sistema basado en IA y al hacerlo resulta perjudicada (o perjudica a otros). Estas implicaciones de responsabilidad no son triviales. Entre las áreas temáticas en las que esto podría ocurrir se encuentran la salud y la información financiera, pero cualquier área temática en la que exista un potencial de daño está en juego.
Esta lista no hace más que arañar la superficie de las áreas potenciales de riesgo y responsabilidad al tratar con IA en su organización. Para diseñar e implantar tecnologías de IA responsables, es necesario llevar a cabo la investigación adecuada en función de la plataforma específica de su organización, el modelo de negocio, el acceso y uso de los datos, el sector vertical, la región geográfica, la base de usuarios y un sinfín de otros factores. Lo que es un factor de riesgo para una organización puede no serlo para otra, y algunos sectores verticales, como el de la tecnología médica, tienen requisitos de cumplimiento normativo más estrictos que otros. Si está utilizando grandes conjuntos de datos e implementando IA en sus ofertas tecnológicas, sería beneficioso para su organización consultar con expertos y asesores relevantes para abordar las cuestiones específicas de sus implementaciones.
📬Si este tipo de historias es justo lo que buscas, y quieres recibir actualizaciones y mucho contenido que no creemos encuentres en otro lugar, suscríbete a este substack. Es gratis, y puedes cancelar tu suscripción cuando quieras: Qué piensas de este contenido? Estamos muy interesados en conocer tu opinión sobre este texto, para mejorar nuestras publicaciones. Por favor, comparte tus sugerencias en los comentarios. Revisaremos cada uno, y los tendremos en cuenta para ofrecer una mejor experiencia.Conclusión
Una pregunta común en nuestra industria en estos días es: “¿La IA generativa significará el fin del SEO?” Empezaremos abordando esta cuestión de la forma más sencilla posible: no, la IA generativa no supondrá el fin del SEO.
Los motores de búsqueda, incluidos los que aprovechan la IA generativa, necesitan a terceros para crear y publicar contenidos en la web. Además, necesitan que quienes publican contenidos les permitan rastrearlos. Sin este contenido a disposición de los motores de búsqueda (incluidas sus herramientas de IA generativa), los motores no tendrán nada que mostrar a sus usuarios.
En un plano más operativo, sigue habiendo muchas dudas sobre cómo integrarán los motores de búsqueda la IA generativa en sus servicios. Podemos ver lo que Bing y Google ofrecen ahora, pero es probable que las cosas evolucionen rápidamente en los próximos años. Por ejemplo, es posible que veamos cambios en el diseño de la experiencia del usuario y en la implementación de nuevas técnicas de apoyo a las herramientas, como los nuevos tipos de Schema.org.
Además, los problemas de los que hablamos en “Retos de la IA generativa” se convertirán en una preocupación mayor si los motores de búsqueda aprovechan el contenido de otros sin compartir algún beneficio (como el tráfico) con los sitios editores. Por tanto, hacer esto les interesa, y así se refleja en la forma en que Bing y Google están aplicando la IA generativa en las búsquedas. Todos estos factores implican una necesidad de SEO.
En EE.UU. también se plantea la cuestión de la Sección 230 del Título 47 del Código de los Estados Unidos, que otorga inmunidad a los editores en línea de contenidos de terceros por los daños derivados de ese material de terceros. Una cuestión importante es la siguiente: cuando un motor de búsqueda genera contenidos “nuevos” (es decir, originales) en forma de respuestas como resultado de su IA generativa patentada y sus procesos basados en índices (a partir de contenidos de sitios web de terceros), ¿mantiene el motor de búsqueda la inmunidad de la Sección 230?
Otra cuestión importante es cómo evolucionarán el diseño, el despliegue y la gestión de las herramientas de IA generativa para abordar las preocupaciones válidas sobre errores y omisiones. Corregir los problemas de precisión en los resultados de estas herramientas no es una tarea fácil, ya que estos defectos son a menudo inherentes a los modelos que están diseñados para incorporar datos raspados de la web. La identificación de errores y omisiones será una tarea continua y, hasta ahora, es una tarea humana: las máquinas abandonadas a su suerte son incapaces de comprobar los hechos por sí mismas. Y en este contexto, no estamos hablando de cientos, miles o millones de problemas que haya que “parchear”, sino de miles de millones de problemas (o más). Y hablando en términos más generales, consideremos el problema inminente y muy real de lo que ocurre a medida que los modelos de IA se entrenan cada vez más en datos sintéticos (generados por la IA), como se examina en el informe de 2023 “The Curse of Recursion: Training on Generated Data Makes Models Forget”.
Considere también la proclamación de Sam Altman de que “la era de los modelos gigantes de IA ya ha terminado” y que “los futuros avances en inteligencia artificial requerirán nuevas ideas”. ¿Cuándo surgirán estas nuevas ideas y cómo afectarán a los sistemas, plataformas y procesos a los que estamos acostumbrados hoy en día? A estas alturas, esperamos que las nuevas ideas surjan con rapidez, pero lo que no podemos predecir es su impacto. Tampoco podemos predecir cómo afectará al despliegue de los sistemas basados en IA y al acceso a los mismos el creciente examen normativo de diversas cuestiones relacionadas con la IA. Lo que sí sabemos es que, a estas alturas, hay muchas maneras de utilizar la IA generativa de forma constructiva para ayudar a crecer a su organización, y cada vez hay más recursos disponibles para minimizar el riesgo de dar el salto a la IA.
Revisor de hechos: Horwey
Recursos
[rtbs name=”informes-jurídicos-y-sectoriales”][rtbs name=”quieres-escribir-tu-libro”]Notas y Referencias
Véase También
▷ Esperamos que haya sido de utilidad. Si conoces a alguien que pueda estar interesado en este tema, por favor comparte con él/ella este contenido. Es la mejor forma de ayudar al Proyecto Lawi.
Efectivamente. Google: Ahora, para evaluar mejor nuestros resultados, E-A-T está ganando una E: experiencia.
Cómo le ayudará un especialista en marketing digital: Pocos días después del lanzamiento de SGE, aún no se sabe con certeza cómo cambiará el panorama de las búsquedas. Advertimos de los que sugieren cambios radicales y rápidos. Este tipo de profesional se mantiene al día diariamente con la documentación de Google, los resultados de los laboratorios y los análisis de expertos de confianza en marketing de búsqueda.
En las próximas semanas, programarán algunos conversaciones en profundidad con todos los clientes para revisar el enfoque estratégico, los presupuestos de búsqueda y los flujos de trabajo de contenidos. Este cambio en los resultados de búsqueda es la principal prioridad estratégica de aquí en adelante.
Todavía hay oportunidades para ganar en la búsqueda – y estan encantados de ser su socio en cada paso del camino.
Es el momento de replantearse su estrategia de búsqueda. Es el momento de empezar a experimentar y aprender sobre una experiencia de búsqueda totalmente nueva.
Qué significa esto y cómo podemos ayudarle:
Debate en directo: Estaremos encantados de compartir esta sesión informativa en un taller en directo con todos los miembros de su organización, ya sean ejecutivos o equipos de marketing. Estamos a su disposición para todas sus preguntas e inquietudes en las próximas semanas.
Actualizaciones periódicas: Recopilamos información y análisis del sector para eliminar el ruido y asegurarnos de que sabe qué cambios puede esperar y cómo afectarán a sus métricas de marketing.
Datos y análisis: Estamos aquí para respaldar las corazonadas con datos. Desde GA4 a Search Console, herramientas SEO, Google Trends, su CRM y otros: le ayudamos a cribar los números y a crear cuadros de mando e historias respaldadas por datos que tengan sentido.
Diversificación:
Anuncios de Google y Bing: Desde hace años, los expertos en marketing digital ofrecen a sus clientes una gestión complementaria de los anuncios en buscadores. Ahora, se lo ofrecen a todas las startups de SaaS: a los clientes existentes, a los antiguos y a los nuevos. Si está buscando una auditoría de Search Ads, una actualización de su estrategia o un servicio completo de creación, gestión y elaboración de informes de sus campañas, reserve una llamada aquí o envíe un correo electrónico a viola@flow-seo.com.
Bing orgánico: Ya estamos monitorizando el rendimiento de Bing para todos nuestros clientes a través de Bing Webmaster Tools. En los últimos seis meses, nuestros clientes han experimentado un aumento medio del tráfico orgánico de Bing del 20,3%. El aumento es pronunciado, pero las cifras absolutas siguen siendo bajas: Nuestros clientes ven cómo una media del 3,2% de las sesiones totales proceden de Bing. Estamos aquí para supervisar los cambios y aumentar su visibilidad.
Vídeo SEO: La vista previa de SGE y los nuevos resultados de búsqueda incluyen mucho contenido de vídeo. Google también ha añadido la indexación de vídeo a Search Console en agosto de 2022. Un especialista es capaz de auditar su sitio web, canal de Youtube y Wistia, optimizarlos y sacar el máximo partido a su contenido de vídeo existente.
Optimización de clics para imágenes y miniaturas de vídeo: Vamos a aprender de los mejores – los creadores en Youtube, Tiktok e Instagram para asegurar que sus activos de medios están recibiendo clics de búsqueda.
SEO de entidad: Asegurémonos de que sus expertos en la materia son reconocidos en Google. Estamos aquí para asesorarle sobre artículos bylined, perfiles de autor y el marcado schema asociado.
Alineación en todas las propiedades de la marca, incluidas las redes sociales: El lanzamiento de Perspectives hace necesario que Google reconozca y conecte su marca en todas las propiedades web.