robots.txt

TL; DR: Robots.txt es un archivo utilizado por los sitios web para comunicarse con los rastreadores web y otros robots web, indicando qué partes del sitio no deben procesarse ni escanearse. Ayuda a controlar el acceso de estos bots a áreas específicas de un sitio web.
Compartir

Robots.txt es un archivo de texto que pertenece a un grupo de protocolos web denominado Protocolo de Exclusión de Robots o REP. Este archivo ordena a los robots de los motores de búsqueda, como Googlebots, qué páginas rastrear e indexar. Robot.txt ayuda a los sitios web a evitar ser bombardeados por demasiadas solicitudes. Desempeña un papel muy importante en tener una buena puntuación de SEO.

Actualizado febrero 17, 2024
Axel Grubba es el fundador de Findstack, una plataforma de comparación de software B2B, con experiencia en consultoría de gestión y capital de riesgo donde invirtió en software. Recientemente, Axel ha desarrollado una pasión por la codificación y disfruta viajar cuando no está construyendo y mejorando Findstack.