Archivio

Archivio per la categoria ‘Html/Css’

WordPress 2.5.1

28 aprile 2008 Nessun commento

Rilascio, come previsto, dopo circa un mese di una versione di correzione dei vari bugfix riscontrati e patch di sicurezza dopo il lungo lavoro per il ramo 2.5!

Solita procedura di aggiornamento e solito link per il download di WordPress!

smileys

WordPress: get_links deprecated (anche wp_get_links)

17 maggio 2007 3 commenti

Effettuato l’aggiornamento di WordPress da 2.1.3 a 2.2 convinto che tutto sarebbe a buon fine, e così è stato… o almeno quasi!

Il tema da me utilizzato prevede al fondo della pagina l’inserimento del mio blogroll diviso in due colonne (rispettivamente una categoria ciascuno).

Il codice che permetteva questo è sempre stato get_links(arguments), e precisamente questo:

', '

','', FALSE, 'name', FALSE, 1,
-1, 1); ?>

ma ahimé, utilizzando questo vecchio comando get_links si creava uno strano spazio tra una voce e l’altra, rendendo di fatto l’output penoso!

Dopo aver smadonnato un po’ in tutte le lingue alla ricerca di informazioni in merito su problema analogo, ho scoperto che get_links così come wp_get_links sono considerati deprecated ovvero vecchi, e sarebbe opportuno utilizzare al loro posto un nuovo comando: wp_list_bookmarks(arguments).

Armato di buona pazienza mi son letto la documentazione sul sito di WordPress fino a scoprire di dover usare (nel mio caso) questa sintassi:

category_name=0&title_li=&before=

  • &after=
  • &
    show_images=1&show_description=0&orderby=name'); ?>


    Rimando per maggiori informazioni sull’utilizzo di wp_list_bookmarks alla documentazione ufficiale.

    Categorie:HowTo, Html/Css, Wordpress Tag:

    Sitemap per migliorare la posizione nei motori di ricerca!

    15 maggio 2007 5 commenti

    Forse non tutti i webmaster sono a conoscenza che le sitemap (in formato XML, ROR o TXT) sono un potentissimo strumento che permette di incrementare la presenza del proprio sito nei motori di ricerca. Proprio grazie alle sitemap i crawler dei motori trovano più facilmente le pagine del sito e le indicizzano in maniera più corretta.

    Uno strumento web che facilita la creazione di sitemap è sicuramente XML-Sitemaps.com che con un semplice click consente di creare la propria sitemap.

    Le tipologie di mappe disponibili sono XML (per Google), Text (per Yahoo), ROR (per altri motori di ricerca) e HTML (da integrare all’interno del sito per facilitare la navigazione agli utenti).

    Tuttavia conviene, utilizzando WordPress, far riferimento ad un plugin molto interessante che rigenera automaticamente la propria sitemap ogni qual volta viene modificato o inserito un nuovo articolo all’interno del blog! Questo plugin si chiama Google Sitemaps.

    L’output potete vederlo qui (dopo aver applicato un foglio di stile): sitemap.xml!

    Il sito ora verrà visitato più frequentemente dai motori di ricerca e quindi acquisterà maggiore popolarità!

    Categorie:HowTo, Html/Css, Varie, Wordpress Tag:

    Robots.txt e i bot non curiosano più!

    15 maggio 2007 4 commenti

    Hai appena creato un nuovo sito? Non ti dimenticare di inserire il tuo robots.txt nella tua root directory.

    Cos’è il file robots.txt?
    (Riporto testualmente da Wikipedia)

    Il file robots.txt contiene delle regole utilizzate dai crawler (detti anche spider) per applicare restrizioni di analisi sulle pagine di un sito internet.
    I web crawler sono dei software automatici programmati per effettuare ricerche ed indicizzazioni periodiche. Nella prima fase di analisi di un sito web controllano l’esistenza del file robots.txt per applicare eventuali restrizioni richieste dal webmaster del sito.


    I campi disponibili sono due:

    1. User-Agent, il valore di questo campo contiene il nome del robot che si deve attenere alle restrizioni. Con il carattere ‘*’ la regola viene applicata a qualsiasi robot;
    2. Disallow, il valore di questo campo contiene le pagine del sito che devono essere escluse dai robot durante l’indicizzazione. Si può indicare un URL specifico o una serie di URL appartenenti ad un pattern.


    QUI è possibile vedere un’esempio di un file robots.txt

    Un esempio di scrittura può essere questo:
    User-agent: Googlebot-Image
    Disallow: /

    in cui diciamo al bot “Googlebot-Image”, che scandaglia il web in cerca di immagini, di non visitare l’intera root del nostro sito… e di passare ad altro!

    Oppure ancora:
    User-agent: * # Applica a tutti i bot
    Disallow: /private_directory/ # Blocca /private_directory/
    Request-rate: 1/5 # Visita al massimo una pagina ogni 5 secondi
    Visit-time: 0700-0845 # Vista soo tra 7:00 AM e 8:45 AM UT (GMT)


    Una volto scritto il file robots.txt, basta salvarlo nella root directory del sito e i bot impareranno a non curiosare più nel nostro sito!

    Ed ora non resta che verificare di aver scritto correttamente il “codice” del nostro robots.txt utilizzando il validatore web.

    Categorie:HowTo, Html/Css, Varie Tag:

    CSSedit: fogli di stile in pochi click!

    15 maggio 2007 Nessun commento

    Su suggerimento di Dade` ho provato anche io questo bellissimo e comodissimo software chiamato CSSedit.

    Si caratterizza innanziatutto per una graphica pulita e decisamente intuitiva, ma soprattutto per la capacità di dar modo a chi non ha una conoscenza approfondita del CSS di modificare in tutti i particolari un foglio di stile.

    Si inserisce l’url del sito che si vuole modificare e ci si ritrova immeditamente davanti al CSS scritto… dopodiché si può intervenire con semplicità disarmante su tutte quello creato e quindi continuare il foglio di stile con sempici click! È un software che semplifica notevolmente il lavoro del webmaster perché ogni modifica è in mostrata in tempo reale nella schermata di anteprima (utile soprattutto quando si lavora sui margin e sul posizionamente dei vari contenitori “div” )!

    Qui una schermata del programma in azione…

    google_analytics
    [Clicca sull'immagine per ingrandire]


    Categorie:Curiosità, Html/Css, Software Tag: