Skip to content

Aprendizaje Profundo y Automático, Futuro del SEO

Aprendizaje Profundo y Automático, Futuro del SEO

Imagina un mundo en el que ni siquiera los poderosos ingenieros de Google supieran qué hay en su algoritmo. Puede que vayamos en esa dirección. En el Whiteboard Friday de hoy, Rand explora y explica los conceptos de aprendizaje profundo y automático, y nos da las claves de cómo afectarán a nuestro trabajo como SEOs.
Transcripción:agencia seo bacelona
Hola, fans de Moz y bienvenidos a otra edición de Whiteboard Friday. Esta semana vamos a explorar el futuro de Google y ver qué puede ocurrir conforme Google avance en el aprendizaje profundo y automático. Sé que estas expresiones suenan extrañas, pero no son tan difíciles de entender. de hecho, son lo bastante simples como para que muchas empresas tecnológicas como Moz hagan algo de aprendizaje automático. No hacemos nada de aprendizaje profundo y mucho de redes neuronales. Puede que vayamos en esa dirección.
Encontré un artículo de enero absolutamente fascinante y que merece la pena leer, y he querido extraer lo esencial para este Whiteboard Friday porque creo que es táctica y estratégicamente importante para los SEOs entenderlo y poder explicar a nuestros jefes, nuestros equipos, nuestros clientes cómo va a funcionar el SEO en el futuro.
El artículo se llama “La búsqueda en Google será tu siguiente cerebro”. Es de Steve Levy. Está en Medium. Os animo a leerlo. Es una lectura bastante larga pero fascinante si te interesan las búsquedas. Empieza con un perfil de Geoff Hinton, que era profesor en Canadá y trabajó en redes neuronales durante mucho tiempo  y luego se fue a Google y ahora es un importante ingeniero allí. Como dice el artículo, cito: Está bien versado en la difícil tarea de organizar varias capas de neuronas artificiales para que el sistema entero, el sistema de neuronas, pueda ser instruido o instruirse a sí mismo para identificar la coherencia entre entradas aleatorias.
Esto suena complejo pero básicamente quiere decir que intentamos que las máquinas nos den resultados propios en vez de tener que decirles qué entradas considerar y cómo procesarlas para dar un resultado. Esto es esencialmente aprendizaje automático. Google ha usado esto para, por ejemplo, discernir, dadas unas cuantas fotos, cuál es un paisaje, cuál es un exterior y cuál es una persona. ¿Alguna vez os ha pasado eso que da tanto miedo de subir una foto a Facebook o Google+ y que os diga este es tu amigo tal? Y te quedas como: Dios, en esta foto se le ve fatal. Casi no se le ve la cara y lleva gafas y él casi nunca lleva. ¿Cómo puede ser que Google+ o Facebook sepan que es esa persona?
Esto es lo que usan, estas redes neuronales, este aprendizaje automático profundo las procesa. Os daré un ejemplo sencillo. Aquí en Moz aplicamos el aprendizaje automático de forma simplista para la autoridad de página y dominio. Tomamos todas las entradas: número de enlaces, número de dominios que enlazan, todas las métricas de Moz a nivel de página, a nivel de subdominio, a nivel de dominio raíz, todas esas métricas, y las combinamos y decimos: Ey máquina, queremos que nos crees el algoritmo con mayor correlación con el que utiliza Google para posicionar páginas y aquí van un puñado de páginas que Google ha posicionado. Creo que usamos un grupo de 10.000 y lo hacemos para cuatro o seis meses, lo introducimos de nuevo en el sistema y el sistema saca ese algoritmo que dice: Ahí va. Esto os dará las métricas más correlacionadas con cómo Google posiciona las páginas. Así es como obtenemos la autoridad de página y de dominio.
Guay, muy útil para poder decir: Ok, esta página se considera más importante que esta otra por Google, y esta mucho más importante. Muy guay. Pero no es un sistema muy avanzado. El sistema más avanzado sería tener esas redes neuronales dispuestas en capas. Así tendrías un grupo de redes, y esas redes neuronales, por cierto, están diseñadas como réplica de los nódulos cerebrales, que en mi opinión es un poco escalofriante, pero no os preocupéis. El artículo habla de que hay una comisión de científicos que se aseguran de que no ocurra Terminator 2 o Terminator 1. Parece que nadie va a impedir que ocurra Terminator 4. Esa es la próxima que va a salir.
Una capa de la red neuronal identificará las características. Otra capa de la red neuronal podría clasificar los tipos de características entrantes. Imaginaos esto para resultados de búsqueda. Entran resultados de búsqueda  y Google mira las características de todas los sitios y páginas, tu sitio y tus páginas, para considerarlos y decir: ¿Qué elementos puedo extraer de ahí?
Bien, está la información sobre enlaces y hay cosas que pasan en la página. Hay interacciones de usuario y todo ese tipo de cosas. Luego vamos  a clasificar tipos de páginas, tipos de búsquedas y luego vamos a extraer las características o métricas que predicen el resultado deseado, que el usuario va  a obtener un resultado de búsqueda que realmente le guste. Tenemos un algoritmo que puede producirlos y luego las redes neuronales están diseñadas -en esto es en lo que ha trabajado Geoff Hinton- para aprender a ser mejores. Así que no es como el PA y el DA, nuestro experto en información Matt Peters y su equipo mirándolo y diciendo: Creo que podríamos mejorar esto haciendo aquello.
Es estar recostado y los chicos de Google diciendo: Vale, máquina, tú aprende. Ellos lo descifran. Es escalofriante, ¿verdad?
En el sistema original necesitabas esa gente, esos individuos que pusieran las entradas y dijeran: Esto es lo que tienes que considerar, sistema, y las características que queremos que extraigas de ello.
Luego el aprendizaje no supervisado, que es como el siguiente paso, el sistema lo resuelve. Y esto nos lleva a cosas interesantes. Imagina el algoritmo de Google, alrededor de 2005. Había básicamente un puñado de cosas. A lo mejor teníamos el anchor text, el PageRank y alguna medida de autoridad a nivel de dominio. A lo mejor hay gente metiendo nuevas cosas como: Ey, algoritmo, tengamos en cuenta la ubicación del usuario. Ey, algoritmo, tengamos en cuenta información de usuario y su uso. Están metiendo nuevas cosas en el cubo que el algoritmo debe considerar, y luego lo están midiendo, viendo si mejora.
Pero llegamos al algoritmo hoy y, caramba, hay un montón de cosas ahí que funcionan por aprendizaje automático, eso si no están ya con el aprendizaje profundo. Así que hay derivaciones de todas estas métricas. Hay aglomeraciones. Se extraen piezas como: Ey, solo queremos mirar y medir los anchor text en este tipo de resultados cuando vemos que el anchor text encaja con la búsqueda que hizo otra gente que buscó esto antes. ¿Qué significa esto? Pero para eso está diseñado el algoritmo. El sistema de aprendizaje automático descubre cosas que los humanos nunca verían, métricas que nunca crearíamos de las entradas que pueden ver.
Luego, con el tiempo, la idea es que las entradas no sean dadas por humanos. La máquina hará esas cosas sola. Es extraño. Esto quiere decir que si le preguntaras a un ingeniero de Google en un mundo en el que el aprendizaje profundo domine el algoritmo de posicionamiento, si le preguntaras a la gente que lo diseñó: Ey, ¿importa conseguir más enlaces?, podrían decirte: Bueno, quizá. Pero no lo sabrían, porque no saben qué hay en el algoritmo. Solo la máquina lo sabe y la máquina no lo puede explicar. Podrías tomar una instantánea y mirarla, pero a. está evolucionando constantemente, y b. muchas de esas métricas serán extrañas aglomeraciones y derivaciones de un montón de métricas despedazadas y mezcladas y solo consideradas cuando se cumplan ciertos criterios. ¡Vaya!
Qué significa esto para los SEOs. Es decir, de qué tenemos que preocuparnos en este sistema y esta evolución hacia el aprendizaje profundo. Por cierto, esto es lo que Jeff Dean dice, que es un tipo muy importante en Google, es el tipo que todo el mundo reconoce como el científico de computación más importante del mundo, y él dice: Ey, queremos poner esto en las búsquedas. Aún no está, pero queremos tomar estos modelos, estas cosas que Hinton ha construido y ponerlas en las búsquedas. Esto para los SEOs en el futuro significará factores de entrada mucho más diversos, factores de posicionamiento. No tendremos factores de posicionamiento tal y como los entendemos hoy. No será: Bueno, tienen más anchor texts por eso posicionan mejor. Podría ser algo que miráramos y dijéramos: Ey, tienen este anchor text. Esto puede estar correlacionado con lo que la máquina, el sistema, considera útil y por eso es algo por lo que aún me he de preocupar.
Pero tendremos que considerar esas cosas con mucha más seriedad. Tendremos que examinarlas de nuevo y decidir y determinar si lo que creíamos factores de posicionamiento aún lo son cuando llegue el sistema de redes neuronales. También supondrá algo que creo que muchos, muchos SEOs han predicho y han trabajado, que es más éxito para los sitios que satisfagan a los visitantes. Si la salida son búsquedas exitosas, y eso es lo que busca el sistema, y para eso trata de correlacionar todas las métricas, si produces algo que suponga más búsquedas exitosas para los usuarios de Google cuando lleguen a tu sitio, y que tú estés arriba significa usuarios satisfechos, ¿sabes qué? El algoritmo te encontrará. Eso está bien. Significa mucha menos información de Google de cómo posiciona los resultados.
Así que hoy puede que oigas a alguien de Google: Bueno, la velocidad de página es un factor muy pequeño. En el futuro podrían decir: Bueno, la velocidad de página es como todos los demás factores de posicionamiento. Totalmente desconocido para nosotros. Porque la máquina podría decir: Bien, vale, la velocidad de página como métrica en sí misma, que un ingeniero de Google podría mirar, es muy pequeña. Pero las derivaciones de las cosas conectadas a la velocidad de página podrían ser una entrada muy importante. A lo mejor la velocidad de página, eso en concreto, está muy conectado con la satisfacción del usuario y el éxito de los resultados de búsqueda. Cosas extrañas en las que nunca habríamos pensado podrían estar conectadas conforme el sistema de aprendizaje automático construya todas esas correlaciones, y eso significa muchas más entradas en el algoritmo, cosas que nunca consideraríamos hoy, cosas que nos parecerían ilógicas como: ¿Cuál es tu servidor? Bueno, esto parece ridículo. ¿Por qué iba a Google a clasificarte por eso?
Si los humanos están introduciendo factores en los algoritmos, nunca lo harían. Pero a una red neuronal no le importa. No le importa. Es una broma. No le importa qué entradas obtiene. Solo le preocupan las búsquedas exitosas, y si resulta que Ubuntu no está correlacionado con las búsquedas exitosas, pues mala suerte.
Este mundo aún no ha llegado, pero ya hay algunos elementos. Google ha dicho que Panda y Penguin están basados en sistemas de aprendizaje automático como este. Creo, teniendo en cuenta en qué trabajan Jeff Dean y Geoff Hinton en Google, que parece que esto va a introducirse en las búsquedas y, por lo tanto, es algo que tendremos que tener en cuenta como profesionales del marketing en buscadores.
Bueno chicos, espero que volváis la semana que viene para otra edición de Whiteboard Friday. Cuidaos.

 

http://mentedigital.es/

Leave a Reply

Your email address will not be published. Required fields are marked *