Robots.txt es un archivo de texto que pertenece a un grupo de protocolos web denominado Protocolo de Exclusión de Robots o REP. Este archivo ordena a los robots de los motores de búsqueda, como Googlebots, qué páginas rastrear e indexar. Robot.txt ayuda a los sitios web a evitar ser bombardeados por demasiadas solicitudes. Desempeña un papel muy importante en tener una buena puntuación de SEO.