A few thoughts on how the whole Web 2.0 hype thing might interfere with search engines.
I recently looked a bit into programming AJAX functionality in PHP for a closed project for the Red Cross. I manly used it to implement an “edit-in-place” functionality, which might be know from sites like Flickr and others. In another project, which I will announce here shortly, I used JavaScript and AJAX in JSP/J2EE.
After looking into all the new possibilites that come up with AJAX I came to think a bit about how Searchengines index pages and how the semantic web might be influenced by those new technologies. If people use AJAX more and more (which I hope they do) to create less web-like user interfaces which update information dynamically, searchengines won’t be able to get a view of all the information available on a specific website.
The possible solution I came up with might be something like a mashup between robots.txt and webservices. If a web aplication could offer a webservice for search robots that spits out XML rendered content of the information available on the page (behind the scenes in the database) the searchengine could easily index it and map it’s context, available in the XML structure, to the content. Another advantage would be that the sites could determine exactly which information should be found by searchengines and which should only remain on their site.
One offspring of this concept would be that services like the UDDI could be build up, that will be searched by the search robots, thus making it very easy to promote websites in a very descriptive manner. (Remind me to start such a directory website, when the concept kicks off. So I can charge customers for being listed and make loads of money 🙂 )
hi flo 😉
ich hab die zeit gefunden mal deinen blogeintrag zu lesen und muss sagen die idee is genial – was ich dir aber auch schon gesagt habe als wir die diskussion gef?hrt haben.
das mit den webservices – is wie immer ne gute idee und geh?rt einfach mehr gepushed nur glaub ich nicht das man als privater ein UDDI aufziehen wird k?nnen sondern es eher in der form ablaufen wird:
man erstelle ein webservice nach standardisierten vorgaben f?r seine website und registriert diese bei den suchmaschinen welche eine UDDI anbieten.
noch sch?ner w?re es sogar wenn webhoster einem f?r jede domain dieses webservice anbieten – damit auch 0815 user die m?glichkeit haben indiziert zu werden.
as easy as possible 😉
weiters glaube ich auch das sogenannte meta suchmaschinen in zeiten von ajax mehr und mehr forciert werden – das w?rde nat?rlich hei?en das meta tagging einfacher und flexibler sein m?sste und vielleicht nicht vom user vorgenommen werden sollte sondern on demand von der site selbst bzw. vom server erstellt werden sollte.
hier schwirren einige ideen in meinen kopf herum die wir mal gerne bei nem bier besprechen k?nnten – vielleicht hat auch jemand anderes interesse daran 😉
f?rs erste wars das mal – der rest wird mal nieder geschrieben bzw. ein brainbookmark gesetzt 😉