Web 2.0: è ancora roba di Google!
Giusto ieri parlavo con un collega dell’MBA delle nuove aziende nate con la prospettiva del web2.0, delle opportunità di business e dei (potenziali) rischi per Google etc.
Dato che siamo lontani (io firenze, lui milano) ho creato allora un documento su Writely (word processor online e … free) con l’obiettivo di condividere con questo collega info, riflessioni e link sul tema.
Notizia di ieri: Google ha acquistato Writely… ma non avevano detto che loro volevano occuparsi solo di search? :)
Nessun post simile.
10 marzo 2006 @ 10:19
sì, sì… e avevano anche detto di non voler lanciare una loro suite simil-office, nè un loro sistema operativo, quindi… dai che manca poco :-)
10 marzo 2006 @ 11:11
In realtà Google si occupa già di molto di più che della ricerca. (AdWords, AdSense, Blogger, video.google.com, e molti altri servizi) e d’altro canto tutto è “ricerca”: ti offro un servizio online di word processing così trovi più facilmente i tuoi documenti.:-)
10 marzo 2006 @ 12:14
tutto è ricerca e… there is nothing but search, come disse anni e anni fa Sergey :)
11 marzo 2006 @ 00:05
tutto è ricerca un ca***.La ricerca sta a zero. e tutte le nuove iniziative non migliorano le ‘prestazioni’ di ricerca di Google. A questa stregua anche la Desktop Search e keyhole sono ricerca. Invece non è così. Cmq ho l’idea che gli fa comodo avere un motore fermo a 7 anni fa…
11 marzo 2006 @ 19:13
di sicuro se lo possono permettere, fino a che gli altri non riescono a fare di meglio…
11 marzo 2006 @ 20:37
se lo possono permettere di sicuro; ma mi sembra più un atteggiamento all’italiana piuttosto che all’americana. Purtroppo vedo che gli altri o dichiarano addirittura di rinunciare oppure dichiarano di superare mostrando ancora di più le loro defaillances. Peccato per Google potrebbe davvero fare piazza pulita di qualsiasi concorrente; ricordo infatti che mentre in Italia siamo tutti g-addicted, in usa e in altri stati Google non superà la metà dei penetrazione fidelizzata del se market. Il fatto è anche che così facendo (non passando, nemmeno con una famosa beta…al semantico)Google obbliga gli altri a concorrerlo sullo stesso piano (quello lessicale, della numerosità delle pagine e dei siti indicizzati)che - nononstante il fatto sia finita l’epoca delle dichiarazioni miliardarie - è senza dubbio più quantitativo che qualitativo; chi avrebbe il coraggio di fare un motore semantico (basta usare LSI, niente di stravagante)quando il leader non lo fa? Con il rischio di perdere quella quota tanto faticosamente ottenuta e finire addirittura sotto la soglia di underdog…
11 marzo 2006 @ 21:04
comunque, pare che Google migliorerà :-)
11 marzo 2006 @ 21:25
però non sono molto d’accordo quando dici: chi farà un motore semantico se non lo fa il leader?
Se avessero ragionato così, Larry&Sergey non avrebbero fatto un motore che guarda ai link fra i siti invece che alle keyword e alle altre meta come era ad esempio Altavista. Oppure sì, magari hai ragione, e non lo faranno nè Yahoo nè MSN nè Ask. Ma tutto sommato non importa, basta che lo faccia qualcuno che non ha una posizione da difendere e che non ha niente da perdere.
12 marzo 2006 @ 13:53
Beh a proposito delle Key e delle Meta devo dire una cosa; a suo tempo anch’io - come tutti - usavo Altavista; il fatto che le meta in generale fossero ormai diventate negative piuttosto che positive per ‘aiutare’ i motori di ricerca a capire di che cosa trattava un sito era sotto gli occhi di tutti e - sebbene penso che pochi avessero pensato all’idea di usare le matrici inverse dei backlink per giudicare la ‘bontà’ di un sito - certamente era fortissima l’esigenza di un miglioramento (per lo meno da parte mia e dei miei co-surfer); l’adult spam imperversava e su keyword popolari era quasi impossibile trovare risultati veramente attinenti (anche se su certe Serp i risultati erano eccellenti). Ora invece sembra che ci siamo adagiati su questo status quo che non è per nulla soddisfacente; in primis. perché i fattori off-page nascono come variabile indipendente e ’sana’ che dovrebbe dare un ‘voto obiettivo’ ai siti linkati; in secondo luogo, perché i fattori on-page sono stati molto tralasciati e quindi un sito che ha link forti ma che non tratta dell’argomento ‘linkato’ (per esempio con i nomi dei link) viene posizionato meglio di un sito molto più attinenete ma meno linkato; la ‘rivoluzione’ di Google è stata tale fino a che non era conosciuta. Poco dopo la distribuzione di tutti i paper (tosto ritirati prima di ricevere ingenti finanziamenti), tutti i wm sapevano come fare per ‘foolare’ Google; il pagerank e il backilinking ha portato gli autori di siti a diventare ‘link builder’ preoccupandosi più delle PR piuttosto che di realizzare dei siti di qualità; l’adagio: no Google no party (che imperversa nel sottobosco webmisterico) è infatti sintomo di un modo di fare web profondamente sbagliato; come se un ristoratore, invece di pensare a offrire un buon servizio, pensi solo a posizionarsi su una via molto trafficata; Google non ha cambiato solo il modo di cercae (con stringhe ‘lessicali’ sempre più lunghe)ma anche quello di fare i siti, di fare accordi etc. quante partnership non funzionano solo perché non vengono offerti dei backlink e il linkbuilding sembra essere diventata l’operazione strategica più importante che possa essere fatta per portare al successo un sito web; la creatività ne soffre moltissimo e lo sapete molto bene. tornando al discorso delle meta: ovviamente il pre-google non mostrava una bella situazione, ma è anche vero che ser guardiamo ora le descrizioni dei siti indicizzati da Google, possiamo tranquillamente affermare che non aiutano in nessun modo a capire di che cosa tratta un sito; anche senza pretendere subito una semanticità nella ricerca di Goolge, i ragazzi di M view potrebbero fare in modo che le meta non influenzassero il ranking, ma per lo meno che fossero esposte agli occhi dei searchers (ex post fase di indicizzazione e ranking) Che ne dite?
23 marzo 2006 @ 23:15
Giuseppe, a proposito di 2.0: avete certificato Imli? :-)