[Py-ES] Problema de configuración en el servidor de la PyConES: robots.txt y páginas inexistentes

Juan Luis Cano juanlu001 at gmail.com
Tue Apr 9 15:44:22 CEST 2013


On 04/09/2013 02:53 AM, Jesus Cea wrote:
> -----BEGIN PGP SIGNED MESSAGE-----
> Hash: SHA1
>
> On 09/04/13 01:22, Juan Luis Cano wrote:
>> On 04/08/2013 08:32 PM, Yamila Moreno Suárez wrote:
>>> Gracias Jesús por estar al tanto.
>> He abierto una incidencia en Github, tengo pendiente todavía lo de
>> las métricas pero tal vez esto sea más importante. ¿Cuál debe ser
>> el contenido del robots.txt?
> Idealmente, debería dar un error "404" de fichero inexistente.
>
> Si eso no es posible, toca "suicidar" a alguien por manazas :-) y
> meter un fichero vacío (cero bytes). Esta segunda opción no es una
> solución, es un "apaño" chapucero. Pedir a un servidor una URL
> inexistente no debe hacer que el servidor falle, debe dar el error
> documentado de página existente. Dar un error de servidor tiene
> consecuencias imprevisibles, como abortar crawlers, etc.

Esto me suena a que algo anda mal en nuestra app de Django más que en la 
plataforma (aunque posiblemente me equivoque). No tengo conocimientos 
para solucionar esto; puedo poner un robots.txt vacío pero seguimos 
teniendo el problema de los errores 500 que deberían ser 404.


More information about the general mailing list