I Social Network si danno al mash-up

Se sei un utilizzatore di social network (SN), non ti sarà passata inosservata la tendenza di questi siti a ricorrere alla tecnica del “mash-up” per arricchire di contenuti (sempre freschi) le proprie piattaforme.

Il termine mash-up indica un’applicazione o un sito web che integra al proprio interno contenuti provenienti da più sorgenti. Si tratta di una delle caratteristiche che contraddistinguono i siti del web 2.0 da quelli più “tradizionali”.

Un esempio emblematico di questa tendenza è il network professionale LinkedIn che, qualche settimana fa, ha lanciato un nuovo servizio che va sotto il nome di “Applications”. Questa funzionalità dà agli utenti la possibilità di integrare all’interno del proprio profilo informazioni provenienti da una serie di piattaforme esterne. Si possono in tal modo inserire ed aggiornare automaticamente: i post del proprio blog gestito con WordPress, presentazioni condivise online con Google Presentation o SlideShare, informazioni sui propri viaggi gestite con My Travel, i post dei propri blog preferiti tramite Blog Link, ed altro ancora.

Le ragioni che hanno spinto LinkedIn verso questo passo sono condensate in questa frase pubblicata sul sito:

LinkedIn Applications enable you to enrich your profile, share and collaborate with your network, and get the key insights that help you be more effective.

In sostanza, con LinkedIn Applications il SN professionale intende raggiungere tre obiettivi:

  • rendere i profili degli utenti sempre più ricchi e completi;
  • favorire la collaborazione e la condivisione di informazioni con il proprio network;
  • (conseguenza dei primi due punti), consentire un utilizzo della piattaforma sempre più efficiente.

Quello che LinkedIn non cita è forse il motivo principale che li ha spinti verso questa evoluzione: legare sempre di più i propri utenti alla piattaforma. Come qualsaisi altro sito web, infatti, anche i SN si pongono l’obiettivo di evitare che l’utente abbandoni il sito per navigare verso altri lidi in cerca di servizi diversi. Non è un caso che molti altri social network stiano seguendo la tendenza del mash-up. Tra i nomi principali possiamo citare Tumblr, FriendFeed, Twitter … Se sei un social network-dipendente sai di cosa parlo :)

Perchè fare un sito accessibile

Prendo spunto dalla recente notizia che annuncia per fine anno il rilascio ufficiale delle Web Content Accessibility Guidelines (WCAG) 2.0 per trattare brevemente il tema dell’accessibilità dei siti web.

Partiamo dalla definizione di accessibilità. L’ISO la definisce genericamente come:

l’usabilità di un prodotto, servizio, ambiente o strumento, per persone col più ampio raggio di capacità.

Applicando il concetto al web, possiamo affermare che un sito è accessibile quando i suoi contenuti sono accessibili da chiunque, indipendentemente dalla presenza di handicap:

  • fisici (es. cecità, manomazioni agli arti superiori)
  • informatici (es. l’utilizzo di un browser datato)
  • cognitivi (es. accesso da parte di bambini o persone anziane).

Perchè fare siti accessibili?

  1. motivazioni etiche: non a caso al primo posto. Prima di qualsaisi altra motivazione tecnica o di business, dovremmo impegnarci a fare siti accessibili spinti dalla voglia di non isolare ulteriormente chi si trova ad affrontare quotidianamente altri tipi di barriere.
  2. ampliamento utenti potenziali (customer base): sommando le tre categorie di soggetti elencate sopra (persone affette da handicap fisici, con computer obsoleti, anziani e bambini) otteniamo una fetta di potenziali utenti non trascurabile. Fare un sito non accessibile da queste persone sarebbe un grave errore dal punto di vista della strategia commerciale.
  3. miglior posizionamento sui motori di ricerca: gli spider dei motori di ricerca si comportano come gli utenti non vedenti. Creare un sito accessibile da non vedenti equivale quindi a favorirne l’indicizzazione da parte dei motori.
  4. facilità di gestione del sito nel tempo: la separazione tra contenuti e loro presentazione grafica, imposta dalle regole sull’accessibilità, porta benefici immediati anche nella gestione nel tempo dei siti. Tale separazione consente, infatti, di rivedere completamente il layout grafico del sito senza impattare in alcun modo sui contenuti.
  5. miglioramento dell’immagine aziendale: molti paragonano lo sviluppo di un sito accessibile al fare beneficenza. In entrambi i casi l’immagine dell’azienda ne esce rafforzata.

Come fare siti accessibili?
Fortunatamente esistono delle linee guida ufficiali che ci spiegano come creare un sito pienamente accessibile. Ecco un breve riassunto di come queste regole si sono evolute nel tempo:

  • 1998: Section 508 of the Rehabilitation Act Amendments. Emanata negli Stati Uniti, la “Section 508″ è stata la prima norma della storia a trattare il tema dell’accessibilità dei dati. Obbligava la pubblica amministrazione a rendere i propri documenti in qualsiasi forma (anche elettronica) pienamente accessibili da chiunque.
  • 1999: Web Content Accessibility Guidelines 1.0 (WCAG). Emanate dalla Web Accessibility Initiative (WAI), un gruppo di lavoro creato ad hoc in seno al W3C.
  • 2000: primo draft delle WCAG 2.0
  • 2004: L. 4/2004 (legge Stanca). In Italia viene emanata la cosiddetta Legge Stanca che obbliga la pubblica amministrazione a rendere pienamente accessibili tutti i propri siti. Molti considerano questa legge un fallimento dal momento che, ad oggi, meno di 50 siti della PA italiana soddisfano i requisiti dettati dalla legge.
  • fine 2008: previsto il rilascio ufficiale delle WCAG 2.0. Come accennavo all’inizio dell’articolo, per fine 2008 è previsto il rilascio della versione definitiva delle WCAG 2.0.

Non abbiamo quindi più scuse: le motivazioni per creare siti accessibili ci sono, le regole anche. Ora tocca a noi.

Sviluppo delle aree rurali: tecnologia, ma non solo

Oggi consentimi un post in parte out of topic. Si tratta di un articolo che ho scritto per un quotidiano locale di Piacenza che tratta delle politiche di sviluppo delle aree rurali e di montagna, tipicamente affette da digital divide.


Recentemente si è tenuto a Rivalta (Piacenza) un convegno nel quale si è discusso di soluzioni innovative che possano attrarre imprese e famiglie nelle aree rurali o, quantomeno, arrestarne l’”esodo” verso i centri cittadini. In quell’occasione sono state presentate le storie di due realtà molto diverse tra loro che, grazie all’utilizzo delle nuove tecnologie, sono riuscite nell’intento di rivitalizzare i territori rurali. 

Il primo caso di successo è quello di Nuenen, una cittadina di 25.000 abitanti – un quarto dei quali over 65 – situata nel sud dell’Olanda in una zona rurale non particolarmente ricca. Oggi, al termine di un progetto partito nel 2003, Nuenen è la città più cablata al mondo: ogni edificio – case, scuole, chiese, ospedali ecc. – è connesso ad Internet ad alta velocità tramite fibra ottica.

Il secondo caso illustrato durante il convegno è stato quello di Bardi, realtà dell’appennino parmense a rischio spopolamento.

Con un alto tasso di emigrazione ed un rapporto nati-morti di 1 a 8, infatti, il comune rischiava di scomparire entro una trentina d’anni. Nel 2001 Andrea Pontremoli, bardigiano d’origine ed ex presidente e amministratore delegato di IBM Italia, ha dato vita, insieme ad altri compaesani, ad un progetto che ha portato ad invertire il trend di decrescita della popolazione. Il punto di partenza è stata la realizzazione di una rete wireless che consentisse di portare Internet veloce dove nessuna ADSL sarebbe mai arrivata e di offrire una serie di servizi.

Confrontando queste due realtà, apparentemente molto diverse tra loro, emergono a mio parere almeno due importanti elementi in comune:

  1. la tecnologia come strumento: in entrambi i casi la tecnologia – le reti di comunicazione in primo luogo – non è stata posta come il fine dei progetti, ma come un mezzo da sfruttare per erogare servizi innovativi, destinati a migliorare la qualità della vita dei cittadini, o per fornire in modo più efficiente servizi già esistenti. A Nuenen la nuova rete viene utilizzata per offrire servizi di base come il telefono, la TV e l’accesso veloce ad Internet, così come per erogare servizi di telesoccorso sanitario o per trasmettere in diretta su Internet i matrimoni. A Bardi, per fare solo due esempi, la rete wireless cittadina consente alle aziende locali di comunicare ad alta velocità con il resto del mondo – evitando in tal modo la loro migrazione verso altri territori – ed ai bambini di seguire le lezioni scolastiche in videoconferenza senza doversi spostare quotidianamente nelle scuole dei comuni limitrofi.
  2. l’importanza di fare squadra: i due progetti hanno in comune l’adozione di un modello cooperativo che ha visto il coinvolgimento del settore pubblico, delle aziende locali e dei singoli cittadini. La rete di Nuenen è stata realizzata con un finanziamento congiunto del Governo olandese e dei singoli cittadini che hanno costituito una cooperativa ad hoc. Il contributo finanziario richiesto per entrare a far parte della cooperativa non è stato percepito dai cittadini come un semplice costo, ma come un investimento che accresce il valore della propria abitazione e, più in generale, del territorio nel quale si vive. Similmente, molti dei progetti di Bardi sono stati realizzati con il contributo dell’Unione Europea sotto la spinta di alcune imprese locali.

Guardando a molti comuni della collina piacentina (e non solo) non possono sfuggire le evidenti similitudini con i due casi descritti. Le problematiche sono comuni: invecchiamento della popolazione residente e progressivo spopolamento. La ricetta per il loro superamento è quella che abbiamo descritto. In primo luogo è necessario individuare i servizi esistenti la cui qualità può essere migliorata tramite l’utilizzo della tecnologia, così come i nuovi servizi che la tecnologia consente di offrire. Definiti i servizi sui quali si intende puntare – scelta fondamentalmente politica – bisogna individuare le tecnologie necessarie ad implementarli, ruolo che richiede il coinvolgimento del mondo universitario e delle aziende. Il passo successivo consiste nella stesura ed attuazione di un progetto di sviluppo e innovazione che coinvolga tutti gli attori locali. Questo ruolo non può che essere svolto dalle amministrazioni locali, cui spetta il compito di coinvolgere gli attori necessari, stimolarli, coordinarli e verificare l’attuazione del progetto.

Se la ricetta descritta funziona nella remota Nuenen e nella vicinissima Bardi, perché non dovrebbe funzionare anche nei nostri territori?

L’era del semantic marketing

Nel precedente articolo ho parlato del rapporto tra Web semantico e SEO. Parto da qui per cercare di capire quale potrebbe essere l’influenza del Web semantico sul web marketing.

Come dicevo nel mio ultimo articolo, il Web semantico prevede che ogni risorsa contenuta in una pagina Web sia descritta seguendo una serie di standard al fine di illustrarne il significato (da qui il termine “semantico”) ad uso e consumo dei software.

Una delle conseguenze che il Web semantico porta con sè è il riuso dei contenuti in contesti diversi. Se, infatti, i contenuti di un sito sono descritti in modo che qualsiasi applicazione li possa interpretare, la stessa applicazione potrà riutilizzarli in contesti diversi. Si vengono così a creare i cosiddetti mash-up, cioè siti web di tipo ibrido che includono informazioni, dati, contenuti di vario genere provenienti da più fonti tramite API, feed RSS o Atom, widget pre-confezionati ecc.

Chi si occupa, si intende o è semplicemente appassionato di web marketing avrà già capito la miniera d’oro che si cela dietro a questa innovazione: il concetto del riuso dei contenuti può diventare un’affilatissima arma di marketing. Se, infatti, i contenuti di un sito web sono di qualità e ben descritti semanticamente, verranno ripresi e ripubblicati automaticamente da altri siti. Tutto ciò si tradurrà in un aumento di visibilità dei contenuti e, di conseguenza, del brand aziendale, della sua attività, dei suoi prodotti/servizi ecc. Non è in fondo questo uno degli obiettivi primari del marketing e della comunicazione in generale?

Come detto, affinchè questo circolo virtuoso si innesti è necessario che i contenuti siano:

  • di qualità: nessuna novità, sappiamo bene come, già oggi, qualsiasi politica di promozione accorta non possa esimersi dal curare la qualità dei contenuti pubblicati sul Web;
  • descritti semanticamente in modo ineccepibile per favorire la ri-pubblicazione da parte del maggior numero di applicazioni possibile: possiamo quindi immaginare un futuro non troppo lontano nel quale gli specialisti del Web semantico e dei suoi standard entreranno a far parte stabilmente dei team di marketing e comunicazione.

Se vogliamo, possiamo vedere questa attività di ottimizzazione del lato semantico, non visibile, del sito come l’evoluzione degli sforzi che sono oggi orientati al link building. Ciò che oggi facciamo per accrescere il numero di link in ingresso verso il nostro sito, domani verrà orientato (anche) a favorire il riuso dei nostri contenuti da parte di altri siti. Teoricamente, ma forse sono troppo ottimista :) , dovremmo guadagnarci in semplicità: l’attività di ottimizzazione semantica richiederà forse un maggiore sforzo iniziale ma, se ben condotta, dovrebbe portare i suoi frutti in modo (quasi) automatico nel medio-lungo periodo.

Come per tutte le innovazioni, ci troveremo probabilmente a dover combattere anche le distorsioni del meccanismo che abbiamo descritto. Immagino che sarà necessaria qualche forma di monitoraggio su come i contenuti del nostro sito vengono ripubblicati sulla Rete per evitare utilizzi scorretti o dannosi per l’immagine aziendale. Sarà probabilmente un compito assegnato ai cosiddetti “reputation manager”, cioè di coloro che già oggi si occupano di analizzare i giudizi e le opinioni che circolano sulla Rete a proposito di una persona o di un’azienda.

Conclusioni

La diffusione su larga scala del Web semantico ci costringerà a porre un’attenzione sempre maggiore agli aspetti del nostro sito non visibili dall’utente finale. Paradossalmente potremmo finire per fare esattamente il contrario di quello che oggi raccomandano i motori di ricerca. I motori, infatti, ci dicono di sviluppare siti per gli utenti finali, senza preoccuparci troppo di ottimizzarli per gli spider, condannando in tal modo i SEO “estremisti”. Di contro, noi potremmo essere portati sempre più a considerare come gli agenti, gli spider e le applicazioni web interpretano i contenuti del nostro sito per favorirne la circolazione.
Andrà veramente così?

SEO e Web semantico

Semantic WebE’ indubbio che il passaggio al Web semantico, detto anche Web 3.0, debba essere considerata la più grande innovazione attualmente in atto nel mondo del Web. Si tratta di una rivoluzione di fronte alla quale anche il mondo SEO non può rimanere indifferente. Che conseguenze avrà quindi il Web semantico sul nostro modo di fare SEO?

Come probabilmente saprai, il Web semantico, spesso definito come “il Web dei dati”, è un “nuovo” Web nel quale ad ogni risorsa (pagine web, immagini, filmati, ecc.) vengono associati dei metadati che la descrivono. Questo set di metadati viene utilizzato per favorire la ricerca delle risorse e la loro integrazione. Nel prossimo futuro, quindi, le nostre pagine Web conterranno dati sempre più strutturati secondo schemi standard, noti appunto come “semantic web standard”.

Tornando alla domanda iniziale, quali effetti possiamo ipotizzare sul SEO? Una prima risposta ce la fornisce questo articolo apparso sul blog di Yahoo! Search qualche mese fa, nel quale si annuncia che Yahoo! è ora in grado di riconoscere ed utilizzare le informazioni semantiche contenute in una pagina Web. Nell’articolo si afferma che, almeno inizialmente, tali informazioni avranno effetto solo nella presentazione dei risultati e non nel posizionamento all’interno delle SERP.  In sostanza, le informazioni semantiche estratte verranno utilizzate per ottimizzare le snippet, cioè quelle poche righe di testo che i motori mostrano per ogni risultato.

E’ facile immaginare le motivazioni che hanno portato Yahoo! a non tenere conto, almeno per ora, delle informazioni semantiche nella determinazione del ranking dei siti:

  1. rischio di premiare la forma a scapito dei contenuti: specialmente in questa fase di transizione, nella quale il numero di siti semantizzati è molto limitato, dare molto peso a questi fattori significherebbe premiare maggiormente la forma (descrizione semantica dei dati) piuttosto che i contenuti di una pagina (i dati, appunto)
  2. rischio di distorsioni di tipo SEO: se sei un SEO professionista ammettilo, stavi già pensando “bene, domani rendo il mio sito semantico così guadagno qualche posizione nelle SERP” :)

Non dobbiamo, però, commettere l’errore di sottovalutare il peso dell’annuncio di Yahoo!. Chi si occupa di SEO conosce l’importanza di avere snippet realmente ottimizzate. Si tratta infatti, assieme al titolo della pagina, di un fattore che influenza pesantemente la decisione di cliccare o meno su una risultato all’interno di una SERP. Una snippet ben fatta può quindi portare ad un incremento del traffico in ingresso e, probabilmente, ad un aumento del numero di inboud links. Fattori, questi ultimi due, che indirettamente faranno guandagnare posizioni nelle SERP.

Alla luce di queste considerazioni, se hai intenzione di rendere semantico il tuo sito, probabilmente otterrai già oggi qualche beneficio anche in prospettiva SEO.

Per assistere a vere rivoluzioni nel mondo SEO dobbiamo aspettare ancora qualche mese, quando il numero di siti che fanno uso di standard del Web semantico sarà aumentato. Quando questo accadrà, anche la competizione tra specialisti SEO si sposterà su un altro livello e chi avrà competenze in ambito semantico partirà sicuramente avvantaggiato. Non a caso c’è già chi parla di Semantic Web Optimization (SWO).

Chiudo registrando il silenzio (almeno stando alle mie fonti) di Google su questo tema. Cosa dobbiamo aspettarci da BigG? :)

Internet: croce o delizia?

Internet complexity

La domanda che mi/ti faccio oggi è: Internet, con i suoi innumerevoli servizi, ci facilita la vita o finisce per complicarcela?

Dopo tante riflessioni sono giunto a questa conclusione: la risposta  va differenziata per due macro-categorie di utenti, i cosiddetti early adopters e il general audience.

Gli early adopters sono coloro che, per lavoro o semplicemente per passione, si prestano a sperimentare per primi i nuovi servizi che vengono rilasciati attraverso Internet. Sono coloro che hanno provato Facebook, MySpace, Flickr, YouTube quando ancora quasi nessuno li conosceva. Nell’ambiente del marketing, questi soggetti sono definiti anche “missionari” poichè, attivando il circuito del passaparola, contribuiscono in maniera determinante a diffondere l’utilizzo di una nuova applicazione.

Per questa categoria (alla quale sono fiero di appartenere :)  penso che Internet diventi spesso “croce”. Il fatto di essere tra i primi a sperimentare un nuovo servizio, infatti, se da un lato risulta molto stimolante, dall’altro ti espone al rischio di utilizzare un’applicazione non completamente stabile che quindi non fa perfettamente il proprio dovere. Non solo, spesso gli early adopters si trovano a svolgere l’ingrato compito di paragonare applicazioni che offrono lo stesso servizio e, spesso inconsapevolmente, decretare il successo di una piuttosto che l’altra. Come? Semplicemente scegliendo l’applicazione che preferiscono e, per essa, svolgendo la propria “missione” di diffusione.

Gli early adopter sono, quindi, spesso vittime dell’eccesso di complessità che governa le fasi di gestazione di un nuovo servizio.

Il general audience include tutti coloro che si avvicinano ad un servizio solo nella sua fase di maturità, quando esiste già una community di base che lo utilizza e quando i media tradizionali iniziano a parlarne.  Per questa categoria di utenti Internet risulta essere più delizia che non croce. Queste persone, infatti, possono usufruire di un servizio perfettamente rodato e non hanno l’imbarazzo di scegliere tra “marchi” diversi che offrono servizi simili. Potremmo affermare che queste persone prendono tutto il “buono” di Internet, lasciando il “lavoro sporco” agli early adopters :)

 

A questo punto due precisazioni sono d’obbligo:

  • non intendo disprezzare l’utente comune ed esaltare l’addetto ai lavori. Penso, anzi, che entrambe le figure siano essenziali per il buon funzionamento di Internet ed il successo delle applicazioni che ne sfruttano le enormi potenzialità;
  • è ovvio che la suddivisione del popolo di Internet in due categorie sia una schematizzazione. Molti di noi, probabilmente, si collocano a cavallo delle due categorie agendo a volte come missionari ed altre come follower.

E tu, da che parte stai? Early adopter o general audience? Croce o delizia?

Happy Birthday WWW

 Tim Berners-LeeTim Berners-Lee

 

Pochi giorni fa si è festeggiato il XV anniversario dall’apertura al pubblico del WWW (World Wide Web) da parte del Cern di Ginevra. Per l’occasione Tim Berners-Lee, l’inventore del Web, ha concesso un’intervista alla BBC nella quale, secondo me, sono condensate le ragioni del grande successo che ha avuto il web in questi 15 anni. 

 

  1. gratuità: se dovessi pagare una tariffa per ogni pagina che leggi o ad ogni clic che fai, pensi che accederesti al Web con la stessa frequenza con cui lo fai oggi? E’ fuor di dubbio che il fatto di essere gratis ha contribuito all’enorme diffusione di Internet e del Web in particolare (oggi si parla di 165 milioni di siti nel mondo). La controprova di questa affermazione è il destino che ha avuto Gopher, una tecnologia concorrente a quella del Cern, sviluppata dalla University of Minnesota e utilizzabile a quel tempo solo a pagamento. Come, non conosci Gopher? Come volevasi dimostrare :)
  2. enorme potenziale: Berners-Lee definisce il Web un “tremendous tool” a sottolineare la sua enorme potenza. E come tutte le “armi” potenti, possono avere un effetto devastante nel bene (pensa a come il Web ha cambiato la tua vita negli ultimi anni) o nel male (pedo-pornografia su Internet, video di bullismo su YouTube e tutto quanto la stampa tradizionale non manca di sottolineare). E non dobbiamo dimenticare che quanto abbiamo visto finora è solo una minima parte del reale potenziale del WWW che, come afferma Berners-Lee, “is still in its infancy”.
  3. universalità: il Web è una tecnologia a disposizione di tutti, senza alcuna distinzione. Certo, rimangono problematiche da risolvere come l’accesso a banda larga, limitato oggi solo ad una porzione della popolazione mondiale, o i problemi di accessibilità sofferti dai disabili (non vedenti in primo luogo). L’universalità del Web diventa così il motore di tutte le sue applicazioni “sociali” determinando il successo dei cosiddetti Social Network.

Ok, chiuso l’amarcord, rimettiamoci a pensare a cosa ci riserverà il Web domani :)

La principale fonte di traffico di un blog

Nel mio vagabondare quotidiano nella Rete e tra i miei feed RSS, mi sono imbattuto in questo interessante grafico che riporta l’indicazione della principale fonte di traffico di un blog:

Biggest source of traffic to your blog

Premetto che si tratta di un sondaggio che, essendo fatto solo tra gli utenti (comunque numerosi) di ProBlogger, non ha alcun valore statistico. Nonostante questo, secondo me emergono almeno due indicazioni importanti:

  1. non mi stupisce la prevalenza di Google su tutte le altre fonti. Mi sarei aspettato però una vittoria meno schiacciante (addirittura 46 a 1) sugli altri motori di ricerca. Trattandosi di un pubblico prevalentemente statunitense, pensavo che i vari Yahoo!, MSN & C. potessero fare meglio;
  2. interessante il 15% fatto registrare dai Social Networks (i vari MySpace, Facebook, LinkedIn ecc.). Si tratta di un dato che conferma come questi siti possano essere efficacemente utilizzati, direttamente o indirettamente, come strumento di promozione di un prodotto/servizio come ha dimostrato l’ottimo Petro nel suo articolo Web marketing su Facebook, un esempio brillante.

Le statistiche d’accesso al mio, seppur giovanissimo, blog confermano la tendenza espressa nel grafico. Anche nel mio caso la principale fonte di traffico è rappresentata dai motori di ricerca e Google in particolare. 

Se sei curatore di un blog mi piacerebbe conoscere la tua opinione. Da dove provengono i tuoi visitatori?

Recensioni: DaDaBIK

Oggi voglio parlarti di un software che ha viagra cheap cambiato la mia vita (professionale, si intende). Il suo nome è “DaDaBIK”.

DaDaBIK è un’applicazione open-source, sviluppata in PHP, che permette di creare facilmente un front-end personalizzabile per database, consentendo le tipiche operazioni di amministrazione del DB (ricerca, inserimento, modifica e cancellazione di record).

Perchè ha cambiato la mia vita professionale? Rispondo a mia volta con una domanda: quante volte ti è capitato di dover scrivere lo stesso codice, con piccole variazioni, per le consuete operazioni di amministrazione di un DB? Se sei uno sviluppatore professionista probabilmente hai risposto … centinaia!

Ecco perchè ritengo DaDaBIK un’applicazione della quale oggi non posso più fare a meno. Consente di svolgere le operazioni elencate velocemente, senza tuttavia che la qualità del risultato finale ne risenta. Anzi, agli sviluppatori meno esperti consentirà di implementare funzionalità che probabilmente da soli non sarebbero stati in grado di realizzare.

Pregi

  • è free
  • è facile e veloce da installare
  • è fortemente personalizzabile, ma allo stesso tempo non richiede particolari competenze per la  configurazione
  • supporta i più diffusi DBMS (MySQL, PostgreSQL, Oracle e MS SQL Server)
  • è disponibile in varie lingue
  • è un progetto open-source “vivo”, regolarmente aggiornato e con una buona comunità di utenti disposti a fornire supporto.

Difetti

Faccio veramente fatica ad individuarne. L’unico aspetto che mi sembra migliorabile è quello relativo alla grafica. E’ vero che l’interfaccia di DaDaBIK è pienamente personalizzabile; per i meno esperti di web design e CSS, però, sarebbe utile avere a disposizione alcuni template pre-confezionati tra i quali scegliere.

Conclusioni

Utilizzo DaDaBIK ormai da alcuni anni e la mia esperienza è pienamente positiva. Provalo e, se vuoi, scrivi qui le tue impressioni di utilizzo.

Google lancia “Insights for Search”

Google ha da poco lanciato Insights for Search, un nuovo prodotto pensato soprattutto per chi gestisce campagne AdWords.

Insights for Search appare come un’evoluzione di Google Trends: come per quest’ultimo, basta inserire una keyword per ottenere il relativo andamento del volume di ricerca nel tempo. Il valore aggiunto di Google Insights sta nella possibilità di paragonare andamenti per volumi di ricerca tra diverse parole chiave, categorie, aree geografiche o intervalli temporali.

Si tratta a mio parere di uno strumento essenziale per chi progetta campagne AdWords. Il tool, consentendo di capire il comportamento di ricerca per determinate parole chiave o categorie, aiuta a scegliere tra parole chiave che sono tra loro sinonimi o comunque molto simili. Ad es., meglio impostare una campagna su “antifurto auto” o su “allarme auto”?

Sebbene sia stato pensato per gli utenti AdWords, lo strumento può essere altrettanto utile per le attività SEO quando è necessario scegliere per quali keywords effettuare l’ottimizzazione.