robots.txt
Agregue o genere un archivo robots.txt
que cumpla con el Estándar de Exclusión de Robots en el directorio raíz de app
para indicar a los rastreadores de motores de búsqueda qué URLs pueden acceder en su sitio.
robots.txt
estático
User-Agent: *
Allow: /
Disallow: /private/
Sitemap: https://acme.com/sitemap.xml
Generar un archivo Robots
Agregue un archivo robots.js
o robots.ts
que retorne un objeto Robots
.
import { MetadataRoute } from 'next'
export default function robots(): MetadataRoute.Robots {
return {
rules: {
userAgent: '*',
allow: '/',
disallow: '/private/',
},
sitemap: 'https://acme.com/sitemap.xml',
}
}
export default function robots() {
return {
rules: {
userAgent: '*',
allow: '/',
disallow: '/private/',
},
sitemap: 'https://acme.com/sitemap.xml',
}
}
Salida:
User-Agent: *
Allow: /
Disallow: /private/
Sitemap: https://acme.com/sitemap.xml
Objeto Robots
type Robots = {
rules:
| {
userAgent?: string | string[]
allow?: string | string[]
disallow?: string | string[]
crawlDelay?: number
}
| Array<{
userAgent: string | string[]
allow?: string | string[]
disallow?: string | string[]
crawlDelay?: number
}>
sitemap?: string | string[]
host?: string
}
Historial de versiones
Versión | Cambios |
---|---|
v13.3.0 | robots introducido. |