Jó esetben nem okoz gondot egy sitemap.xml generálás, a legtöbb CMS-hez van plugin, és a neten is találunk példakódokat, eszközöket. Nincs is ezzel gond. Viszont tegnap a következő szituáció adódott.
Van egy .net alapú site, külföldi hosting szolgáltató, és nincs írási jog a webszerverre – vagy csak nagyon körülményes módon -, ennek következtében a legenerált sitemap.xml-t nem tudjuk kiírni. A következő megoldások jöttek elő:
A kérdés itt az, hogy ha van pl. a kismalac.hu domainem, de a hozzá tartozó sitemap-et egy másik domainről szedi, ahhoz mit szól? Tehát így adom meg robots.txt-ben:
Sitemap: http://www.nagymalac.hu/sitemap.xml
Egy nagy site esetén a generálás azonban sok idő lehet, a crawler pedig nem tudom mennyit vár. Valaki tudja, hogy mekkora timeout-okkal dolgozhatnak? :)
Hát így állok most. Kevés lelkes olvasómnak esetleg van valami ötlete vagy meglátása?
Köszi!