[Py-ES] Problema de configuración en el servidor de la PyConES: robots.txt y páginas inexistentes
Juan Luis Cano
juanlu001 at gmail.com
Tue Apr 9 15:44:22 CEST 2013
On 04/09/2013 02:53 AM, Jesus Cea wrote:
> -----BEGIN PGP SIGNED MESSAGE-----
> Hash: SHA1
>
> On 09/04/13 01:22, Juan Luis Cano wrote:
>> On 04/08/2013 08:32 PM, Yamila Moreno Suárez wrote:
>>> Gracias Jesús por estar al tanto.
>> He abierto una incidencia en Github, tengo pendiente todavía lo de
>> las métricas pero tal vez esto sea más importante. ¿Cuál debe ser
>> el contenido del robots.txt?
> Idealmente, debería dar un error "404" de fichero inexistente.
>
> Si eso no es posible, toca "suicidar" a alguien por manazas :-) y
> meter un fichero vacío (cero bytes). Esta segunda opción no es una
> solución, es un "apaño" chapucero. Pedir a un servidor una URL
> inexistente no debe hacer que el servidor falle, debe dar el error
> documentado de página existente. Dar un error de servidor tiene
> consecuencias imprevisibles, como abortar crawlers, etc.
Esto me suena a que algo anda mal en nuestra app de Django más que en la
plataforma (aunque posiblemente me equivoque). No tengo conocimientos
para solucionar esto; puedo poner un robots.txt vacío pero seguimos
teniendo el problema de los errores 500 que deberían ser 404.
More information about the general
mailing list