* Webdesign Quimper
***Web2007 est un bureau indépendant situé à Genève et a l'habitude de travailler pour des entreprises PARTOUT en France et en Europe
Webdesign Quimper
Article:
Durant les années 2000 les conceptions de blog, de wiki (en 2001, lancement de la Wikipédia en anglais) et de réseautage social (Myspace en 2003, Facebook en 2004) sont devenus planétaires. Le contenu généré par les utilisateurs se répand (Wikipédia, YouTube en 2005, Twitter en 2006). La technologie Ajax (1998, théorisée en 2005) commence à être largement utilisée pour créer des applications complètes qui tiennent dans une seule page web (Google Maps en 2004). l'expression Web 2.0, largement vulgarisée au milieu des années 2000, désigne cette transition dans le flux de l'information et la manière d'utiliser le web. La réussite de l'expression Web 2.0 a conduit de nombreuses personnes à appeler Web 2.5, 3.0, 4.0, etc. leur vision du Web de l'avenir. En 2007 le W3C retrouve la technologie HTML5 avec pour ambition de le normaliser en 2014. Dès l'année 2012, la majorité des moteurs de rendu HTML permettent d'exploiter ce standard et en 2013, la majorité des Système de gestion de contenu utilisent une base HTML5. HTML5 apporte la possibilité d'utiliser des vidéos et de l'audio dans les pages sans dépendre d'un format propriétaire, avec les normes MPEG-4, WebM et OggVorbis, d'utiliser d'avantage de graphiques vectoriels avec l'utilisation de la norme SVG, de faire de la visioconférence avec webRTC25. Le développement de WebGL permet désormais d'utiliser des objets en trois dimensions dans les applications web avec une grande interopérabilité. Le format JSON a git dans l'échange des données, en relations avec des bases ou des systèmes de fichiers, amplifiant de ce fait les possibilités de référencement, et d'automatisation des taches entre les applications d'Internet. l'expression Web 3.0 trouve sa place en futurologie à court terme pour désigner l'internet qui suit le Web 2.0 et constitue l'étape à venir du développement du World Wide Web. Chacun utilise son contenu réel pour définir sa propre vision du futur d'internet. Si on s'en tient à une étude de la société Incapsula procédée en mars 2013, il faut signaler que 50% du trafic web était généré par des bots, c'est-à-dire des machines automatisées. Une mise à jour récente de cette étude (décembre 2013)26 révèle que ces mêmes machines représentent aujourd'hui près de 61% du trafic avec notamment une hausse du trafic des moteurs de recherche en hausse de 55%. Les opérations de hacking représentent environ 4.5% du trafic alors que les humains prennent environ 38.5%. Autrement dit à peine plus du tiers du trafic est généré par les activités humaines. La cause réside probablement dans l'explosion du marketing qui représente à lui seul la moitié du trafic (bots et humains confondus).