Buon giorno,
spero questa sia la sezione corretta.. in caso chiedo scusa..
Il ho un installazione di drupal multi site ossia ho configurato e funziona una config di questo tipo
http://www.sito.it
http://blog.sito.it
[/codefilter_code]
ora nel server la config è cosi
../sites/sito.it
../sites/blog.sito.it
../sites/all/modules/
../sites/all/theme/
../sites/all/libraries/
quello che vorrei è poter installare il modulo xml sitemap per poter gestire entrambi i siti, ossia un sitemap.xml dedicato al singolo sito web.
come per il sitemap mi piacerebbe poter avere anche un robots.txt dedicato al singolo sito.
Qualcuno di voi mi può spiegare come fare questo
Grazie mille in anticipo
Ale
come per il sitemap mi piacerebbe poter avere anche un robots.txt dedicato al singolo sito.
risolto installando il modulo: robotstxt
Migliorare se stessi è il principale obbiettivo della nostra vita
il robots esiste già per la sitemap creane una per ogni sito con xmlsitemap.
http://www.chromeos.eu
come faccio a dire a xmlsitemap di creare un file per ogni uno dei miei subsite?
per ogni sito vado in modules, attivo la sitemap e tutti i vari moduli sitemap e poi la configuro singolarmente sito per sito.. giusto?
e poi nel robots per singolo sito gli indico il percorso, giusto?
Migliorare se stessi è il principale obbiettivo della nostra vita
Drupal ha già i suoi robots, basta che modifichi quel file (che è nella root) e gli indichi le eventuali path
http://www.chromeos.eu