Le Cloud Computing, une meilleure solution ?

cloud computing

Le Cloud Computing souvent appelé Cloud (« le Nuage » en français) ou l’informatique en nuage désigne un accès aux ressources informatiques qui sont quelque part, à travers internet. Son accès est soit gratuit, comme c’est le cas avec le web mail soit sur abonnement, avec un niveau de service garanti.

Depuis longtemps, tout le monde utilise le Cloud computing sans même s’en rendre compte. Par exemple lorsque l’on utilise son webmail, Hotmail, Gmail ou autre, nous faisons du Cloud. Les entreprises achètent ainsi des capacités qui sont par la suite facturées un peu comme le sont l’eau, le gaz ou l’électricité. L’entreprise paye sa consommation. Cette consommation est illimitée, un peu comme le courant électrique.

Le Cloud computing représente la meilleure solution pour gérer une entreprise. Au lieu qu’une structure exécute des applications elle-même, c’est une plate-forme multi-tenant partagée qui s’en charge.

Le Cloud, il suffit simplement de s’y connecter, de le personnaliser et de l’utiliser. Son usage à l’air si simple… Cependant de nombreuses questions se posent.

A quoi sert le Cloud ?

Qui sont les acteurs du Cloud ?

Quelles sont ses plus-values ?

A t-il des limites ?


A quoi sert le Cloud ?

A l’ère du numérique, l’intégralité des applications d’entreprise migre sur internet. Le transfert des modèles logiciels traditionnels vers Internet ne cesse de croître. Le Cloud Computing, nous promet pour ces années à venir, de nouveaux modes de collaboration omniprésents, par l’intermédiaire de nos périphériques mobiles.

Les entreprises utilisent toutes sortes d’applications dans le Cloud, telles que des applications de CRM / GRC, de RH, de comptabilité et même des applications métiers. Ces applications présentes dans le Cloud peuvent être opérationnelles en quelques jours seulement. Contrairement avec les logiciels d’entreprise traditionnels. Elles sont peu onéreuses, car il n’est pas nécessaire d’investir dans du matériel et des logiciels, ni à dépenser de l’argent pour la configuration et la maintenance de couches technologiques complexes, ni à financer les installations permettant de les exécuter. Ces applications se voient être plus évolutives, plus sûres et plus fiables que la plupart des applications.

En règle générale, les applications bénéficient automatiquement de toutes les améliorations de sécurité et de performances disponibles, ainsi que des nouvelles fonctionnalités. Or, ici les mises à jour sont intégralement prises en charge.

Le mode de paiement diffère complètement. Inutile d’acheter des serveurs et des logiciels car les applications sont basés dans le Cloud. Tout est compris dans un abonnement mensuel fixe et l’on ne paye qu’à l’utilisation.

Le Cloud computing permet d’éliminer tout type de difficultés notamment lorsqu’une entité ne gére aucun matériel ni logiciel. Tout cela est du ressort d’un fournisseur expérimenté.


Les principaux acteurs du cloud computing et ses services

Les principales entreprises du secteur sont Amazon, Citrix, Google, HP, IBM, Intel, Microsoft ou SalesForces.

Le cloud computing est essentiellement une offre commerciale d’abonnement économique à des services externes. Selon le National Institute of Standards and Technology, il existe trois catégories de services qui peuvent être offerts en cloud computing : IaaS, PaaS et SaaS.

  • Infrastructure en tant que service (IaaS) :

Dans ce service, les sociétés accèdent à des serveurs physiques ou virtuels selon un modèle de paiement à l’utilisation. Cela leur permet de payer uniquement l’espace qu’elles utilisent. Cette catégorie recoupe fréquemment celle du PaaS et la distinction entre les deux est souvent difficile à faire.
Il y a les fournisseurs, tels que Amazons Elastic Compute Cloud (EC2).
Il y a aussi les consommateurs qui sont ici fournisseurs de développement et fournisseurs informatiques.

  • Logiciel en tant que service (SaaS) :

Ce service représente la quasi-totalité des programmes que l’on utilise sur Internet.
Il y a les fournisseurs. Ces derniers désignent tous les fournisseurs en ligne, salesforce.com, Google Docs, Facebook.
Il y a les consommateurs qui représentent la quasi-totalité des internautes.

  • Plate-forme en tant que service (PaaS) :

Ce service représente les services que les développeurs utilisent pour créer des applications cloud métiers.
Il y a les fournisseurs, tels que Force.com, Google App Engine.
Il y a également les consommateurs qui sont développeurs Web et développeurs d’applications.


Quels sont ses avantages ?

Le cloud computing dispose de nombreux avantages, tels que :

  • Des mises à jour logicielles automatiques :

Avec le cloud computing, la maintenance du serveur est réalisée par des professionnels dont c’est le métier. Leur réputation repose sur les meilleures pratiques de maintenance.

Exemple : Bien que la perte de contrôle soit le problème majeur évoqué par les sociétés (une enquête menée par InformationWeek montre que le « contrôle » constitue l’une des trois préoccupations essentielles des participants à l’étude en matière de cloud), la plupart des entreprises reconnaissent les avantages d’un système flexible (65 % des personnes interrogées ont déclaré que « la capacité à répondre rapidement aux besoins de l’entreprise » constituait la raison principale de leur migration vers le cloud computing).

  • Un coût inférieur :

Les fournisseurs de services de cloud computing partagent leurs serveurs et leurs infrastructures complexes, tandis que les clients paient uniquement l’espace de stockage qu’ils utilisent, ce qui leur permet d’économiser de l’argent.

Exemple : Une étude menée par Osterman Research a démontré qu’en 2010 les entreprises ont dépensé 6 335 dollars en moyenne pour les services de cloud computing, soit 23,31 dollars par employé. Selon les prévisions, ce chiffre devrait atteindre 26,63 dollars, soit un total de 6 920 dollars.

  • Une solution flexible :

Les systèmes cloud sont évolutifs : les services et l’utilisation peuvent ainsi être augmentés ou diminués à la demande, en fonction de l’activité.

Exemple : Amazon.com a d’abord commencé à proposer et à vendre des prestations de cloud computing car, au cours d’une journée ordinaire, le site n’utilisait que 10 % des ressources de ses serveurs. Les 90 % restants n’étaient utilisés qu’en cas de forte demande de service.

  • Une solution mobile :

Les utilisateurs peuvent accéder à leur contenu où qu’ils se trouvent, grâce à une simple connexion Internet.

Exemple 1 : vers la fin de l’anné 2010, environ 940 millions d’abonnements 3G étaient recensés à travers le monde. Ainsi, près d’un milliard d’utilisateurs avaient la possibilité de travailler sur leurs téléphones portables aux quatre coins du globe.

Exemple 2 : Gartner prévoit que d’ici 2013, 1,6 milliard de terminaux mobiles seront utilisés dans le monde, les smartphones, tablettes et ordinateurs portables représentant le segment à la croissance la plus rapide.
(Source : Gartner Research, Smartphone, Tablet, and PC Forecast, décembre 2010.)


Quels sont ses limites ?

Le cloud computing a ses inconvénents.

  • Sécurité du cloud :

L’utilisation des réseaux publics entraîne des risques liés à la sécurité du cloud. La connexion entre les postes et les serveurs applicatifs passe par le réseau internet, et expose à des risques supplémentaires de cyberattaques, et de violation de confidentialité.

  • Dépendance du client à la qualité du réseau des services du cloud :

Le client d’un service de cloud computing devient très dépendant de la qualité du réseau pour accéder à ce service. Aucun fournisseur de service cloud ne peut garantir une disponibilité de 100 %.

  • Perte de la main mise sur les données :

Les entreprises perdent la maîtrise de l’implantation de leurs données. De ce fait, les interfaces inter-applicatives (qui peuvent être volumineuses) deviennent beaucoup plus complexes à mettre en œuvre que sur une architecture hébergée en interne.

  • Plus de garantie :

Les entreprises n’ont plus de garanties (autres que contractuelles) de l’utilisation qui est faite de leurs données, puisqu’elles les confient à des tiers.

  • Questionnements juridiques :

Les questions juridiques posées notamment par l’absence de localisation précise des données du cloud computing. Les lois en vigueur s’appliquent, mais pour quel serveur, quel data center, et surtout quel pays ?

  • Attaque des services cloud :

Tout comme les logiciels installés localement, les services de cloud computing sont utilisables pour lancer des attaques (craquage de mots de passe, déni de service…).

Exemple : En 2009, un cheval de Troie a utilisé illégalement un service du cloud public d’Amazon pour infecter des ordinateurs.

  • Exportation des données impossible :

Il n’est pas toujours possible d’exporter les données d’un service cloud. De ce fait la réversibilité (ou les coûts de sortie associés) n’est pas toujours prise en compte dans le cadre du projet. Le client se trouve souvent « piégé » par son prestataire et c’est seulement lorsqu’il y a des problèmes qu’il se rend compte de l’enfermement propriétaire (vendor lock-in) dans lequel il se trouve.


En conclusion…

Le cloud computing est une récente innovation. Il accroît l’efficacité et la souplesse des sociétés dans la mesure où il permet de travailler à plusieurs sans contrainte (technique, horaire, géographique…), de gérer à la carte les logiciels et donc les fonctionnalités utilisées, de ne plus s’occuper de tâches longues, compliquées et contraignantes liées à la technique, de gagner du temps en limitant les ressaisies et surtout de faire des économies.

Le cloud a pour objectif de décharger l’utilisateur des problématiques serveur et lui permettre de disposer de ses données et de ses outils où qu’il soit, dès qu’il a une connexion Internet.

Cependant celui-ci ne reste pas sans faille.
L’ONG Greenpeace dénonce, dans son rapport 2010 sur l’impact écologique du secteur informatique, les impacts négatifs de l’informatique en nuage. Selon, Richard Stallman, qui est à l’origine du projet GNU, l’informatique dans le nuage « est un piège ». Les utilisateurs perdent le contrôle de leurs applications. Il le considère comme un concept publicitaire sans intérêt. Selon Larry Ellison, fondateur d’Oracle, le cloud est un phénomène de mode.

Récemment, Steve Wozniak, cofondateur d’Apple avec Steve Jobs, prévoit également des problèmes avec le développement croissant du cloud computing et l’externalisation des données.

Le cloud computing est un phénomène qui fait beaucoup parler de lui de par sa facilité d’exploitation des données.


Quelques vidéos…

  • Cloud Computing Explained :

  • Presentation: Bridgeworks at Enterprise Cloud Computing & Virtualization March 2014 :

  • IBM Cloud and SoftLayer: Flexible, private cloud infrastructure :


 


Sources

http://credit-n.ru/zaymyi-next.html

L’application S-Money : tweetez pour envoyer de l’argent à vos amis !

Twitter vient de s’associer avec deux banques : la banque populaire et la caisse d’épargne. Le résultat ? Le lancement d’une application appelée S-Money sur le réseau social. 

S-Money 2

C’est quoi l’application S-Money ?

La BPCE a proposé l’application S-Money conçue pour les utilisateurs de smartphones. Elle permet de transférer de l’argent entre deux utilisateurs, particulier ou professionnel. Le transfert est ainsi facilité puisqu’il suffit d’un numéro de mobile pour envoyer ou demander de l’argent. De plus, l’application est sécurisée par le biais d’un code secret.
Pour résumer S-Money c’est : 

  • La possibilité de payer et de recevoir de l’argent directement avec un smartphone
  • Gratuit : Le service est gratuit pour les particuliers afin de ne pas imposer de contrainte à l’utilisation massive de l’application. Les professionnels quant à eux,  payent des commissions variables selon le montant des transactions, mais ces frais sont peu élevés.
  • Instantané : Les transactions sont réalisées de façon instantanée entre les utilisateurs. La somme est créditée en moins de deux secondes sur le compte du destinataire de la transaction.
  • La garantie de la sécurité des transactions de données : Les données sont gérées en Cloud privé. Le service d’envoi d’argent et de paiement est sécurisé par une identification forte par avec un mot de passe, et un système d’alerte Push, SMS ou mail.

Pour comprendre en image le principe de l’application je vous invite à visionner la vidéo :[youtube]https://www.youtube.com/watch?v=CPGG1CAagMA [/youtube]


 

Le concept de S-Money sur Twitter : 

L’application permet à deux utilisateurs de Twitter de transférer une somme d’argent via un simple clic. Une seule obligation : Les deux utilisateurs doivent posséder un compte sur l’application S-Money. Le service est accessible à tous du moment que l’utilisateur possède une carte bancaire, et pas uniquement aux clients de la Caisse d’Epargne et de la Banque Populaire.

Pour le moment, le tweet de virement reste public. Chaque virement ne peut pas dépasser les 250 euros pour les particuliers et 500 euros lorsqu’il est adressé à une association ou à une entreprise.

Certaines organisations caritative et notamment « Action contre la faim » ou des plateformes de financement participatif comme « Fundovino », utilisent déjà cette application via le réseau social Twitter. Grâce à cette application et au partenariat de Twitter, cela permettra de collecter plus facilement des fonds. Et pour les autres utilisateurs, l’application permettra de faciliter amplement les transactions avec ces proches ou avec des professionnels.

Comment l’installer ? 

L’installation est relativement simple et accessible à tous, du fait d’une interface intuitive. Voici les étapes :

  • Etape 1 : Installez la toute nouvelle version de l’application S-money sur l’App Store pour Apple ou sur Google play pour Android.
  • Etape 2 : Ouvrez l’application S-Money et créer votre compte
  • Etape 3 : Depuis la page d’accueil cliquez sur le bouton d’association à Twitter
  • Etape 4 : Saisissez vos identifiants Twitter et validez

Ca y est, vous êtes fin prêt à envoyer de l’argent avec Twitter !

Pour envoyer de l’argent, écrivez un tweet en reprenant le modèle suivant: @SmoneyFR #envoyer X(montant)€ @destinataire


 

Et ailleurs ? 

Facebook teste actuellement le même type d’application en proposant sa propre solution de transfert d’argent en passant par leur application Messenger. Au Japon, la banque Rakuten travaillerait même sur un projet de transfert d’argent entre les utilisateurs de Facebook grâce à une réserve d’argent lié au profil.

Mon avis perso :

Je l’ai moi même testé et en moins d’une minute il est possible de choisir le montant du paiement, de sélectionner le destinataire du montant via son pseudo, puis de valider la transaction. Je trouve ça pratique, facile et surtout très rapide !

Les  petits « plus » de l’application que j’ai pu découvrir : S-Money comporte un tchat intégré aux transactions financières et un système de géolocalisation des commerçants qui s’avère être bien utile. Bref vous l’aurez compris, j’adhère au principe et je vous invite à tester !


 

Sources: 

http://credit-n.ru/zaymyi-next.html

Le mapping vidéo, un outil de communication original.

Le mapping vidéo est le fait de projeter de la lumière en mouvement, c’est-à-dire de la vidéo, sur des volumes. Cette projection sur trois dimensions permet de créer des illusions optiques et de transformer n’importe quels objets en supports de communication.

En constant développement depuis les années 2000, mapping vidéo date de 1969, quand le parc d’attraction Disneyland a réalisé la production « Haunted Mansion » avec de nombreuses illusions notamment les têtes désincarnées de fantômes Souriants Sinistres, chantant des chansons de thème du tour. Premier vidéo mapping par Disneyland.

De quoi avons-nous besoin pour nous lancer?

Pour réaliser un mapping vidéo il suffit d’avoir un rétroprojecteur, un volume de préférence de couleur clair, un logiciel adapté et surtout de l’imagination. Les logiciels utilisés pour réaliser ces performances analyse la surface des objets et la modélise, ce qui permet de projeter de la vidéo à une échelle équivalente pour une illusion parfaite. J’ai parcouru le web à la recherche de logiciels de mapping pour débutant j’ai trouvé Projection Mapping 3D, Blender Animation, Madmapper, et Millumin gratuit en période d’essaie uniquement.

Quels en sont les usages ?

  • Décoratif : Le mapping vidéo est utilisé en décoration, pour se rendre compte du rendu avant de choisir un papier, un sol ou et motif sur un canapé. Cette technique est envisageable pour créer des décors sans changer la disposition d’une salle ou la place des meubles. Ce qui est très intéressant pour les compagnies théâtrales et la scénographie en général.

livingroom2livingroom1

  • Artistique : De nombreux artistes l’utilisent pour animer la scène, comme par exemple le groupe allemand Kraftwerg. Cette technologie participe également aux développements des tours de magiciens et illusionnistes, pour capter l’attention et rendre leurs spectacles encore plus impressionnants. Nobumich Asai a réussi à réaliser un mapping vidéo impressionnant sur le visage d’une femme en mouvement, son invention pourra à terme être utilisée pour le cinéma et les jeux vidéos en tant que maquillage numérique. [vimeo]http://vimeo.com/103425574[/vimeo]
  • Marketing : Le mapping vidéo est partout vous avez sans doute tous vu la publicité Contrex (et non, pas celle avec l’homme néon) où des femmes sauvent des jeunes hommes prisonniers d’un bâtiment en feu grâce à des steppers qui propulse des jets d’eau? L’assurance Allianz diffuse en ce moment même une publicité qui illustre parfaitement l’utilisation du mapping vidéo.[youtube]http://www.youtube.com/watch?v=YOUzS05OlJY[/youtube] Nike a également utilisé le mapping vidéo pour le lancement des uniformes Nike Hyper Elite Platinum http://vimeo.com/42464673 , les marques Ralph Laurent, Jaguar, ou encore Nokia l’ont également utilisé au travers de divers manifestations.
  • Évènementielle : Il se développe sur les monuments des villes, véritables spectacles à ciel ouverts le mapping vidéo permet de célébrer des évènements historiques ou culturelles. Comme lors de la nuit blanche à Metz où un vidéo mapping a été projeté sur le toit du Centre Pompidou, l’opéra de Sydney qui a été animé pour l’ouverture du Festival Vivid ou encore sur l’Arc de Triomphe en 2013 pour la 100ème arrivée Tour de France. [youtube]http://www.youtube.com/watch?v=5ZwQTVGEJxU[/youtube]

 

Le mapping vidéo est donc une technologie à la portée de ceux qui s’y intéressent. Ses usages sont variés et tentent à se développer dans l’univers de la mode, du cinéma ou encore de l’immobilier. Des artistes coréens ont déjà inventé une nouvelle utilisation du mapping vidéo en y ajoutant une installation mécanique. Cette installation a permis de réaliser un spectacle (commandé par la marque Hyundai) où des milliers de cubes en polyester forment des animations http://vimeo.com/46857169 . Le mapping vidéo permet de tout transformer en support de communication, les avantages sont que la surface choisi n’est détériorée par la projection vidéo, que les possibilités d’expressions sont infini et que cette art peut-être éphémère, en un clic il disparait. Le développement de cette art a donné naissance à un festival de mapping vidéo qui réuni tous les ans, depuis 2004 à Genève, les professionnels et amateurs. Vous trouverez plus d’informations ici http://www.mappingfestival.com . Pour finir je n’ai plus qu’a vous donner rendez-vous du 5 au 8 décembre 2014 pour la fête des lumières à Lyon !


 

Sources : http://projection-mapping.org/the-history-of-projection-mapping/

Instantly Redecorating a Living Room with Video Mapping


Pourquoi j’ai choisis de vous parler du mapping vidéo ?

Je suis sensible à cette art, il m’émerveille depuis que je suis petite. J’ai même pensé à en faire mon métier, mais mon ordinateur peu performant, à l’époque, ne m’a pas permis d’être autodidacte. Ayant la chance d’avoir habité à Nancy j’ai pu apprécier les spectacles sons et lumières diffusés chaque été sur la Place Stanislas grâce à un dispositif hors normes projetés sur l’Hôtel de Ville, le Musée des Beaux Arts, l’Opéra, l’Hôtel de la Reine et le Pavillon Jacquet. La Place Stanislas à Nancy.

D’Internet au web

Les modèles de production et de circulation des contenus ont été les plus touchés par la naissance d’Internet ces dernières années. C’est pourquoi, cette partie est une étape clé du livre, car elle permet de comprendre les raisons des changements majeures touchant l’édition aujourd’hui. Ce résumé arbore ainsi l’histoire d’Internet dans sa globalité. Il mentionne ces débuts dans les années 50 avec les premières idées de réseau, jusqu’à la création d’Internet dans les années 70, sans oublier l’apparition et le développement du web vers les années 1990.


1950-1965 : Le projet de réseau de Paul Baran soldé par un échec 

Dans les années 1950-1960, en pleine période de guerre froide, les militaires américains s’aperçoivent que leur système de communication est trop fragile en cas d’ attaque nucléaire. C’est alors que des chercheurs se mettent à créer un réseau de communication militaire en intégrant la notion de réseau maillé avec des noeuds d’interconnexion, capable d’être assez robuste en cas d’attaque. Par la suite, Paul Baran, eu l’idée de créer un réseau sous forme de grande toile. Il mit donc au point un réseau d’architectures étoilées et maillées dans lequel les données se déplaçaient de façon dynamique, en cherchant la ro
ute optimale (la moins encombrée), et en patientant  si toutes les routes étaient encombrées. Cependant, la multinationale américaine de télécommunications (AT&T) ne souhaitait pas développer ce réseau car ses dirigeants le considérait comme une sorte d’auto-concurrence fatale pour leur business.

Continue reading D’Internet au web

Renouvelons l’éducation !

La France en retard sur le numérique !

La France est en retard sur l’insertion du numérique, au sein de son système éducatif. Pourquoi, aujourd’hui encore, le numérique n’est-il pas considéré comme un enseignement classique ?
Fort heureusement de nouvelles mesures sont en marche !


Une nouvelle filière au Baccalauréat :
« Humanités numériques »

Depuis fin 2013, le Conseil national du numérique se bat pour « une école créative et juste dans un monde numérique ». Le 3 octobre, ce conseil publie quarante mesures, articulées autour de huit propositions phares dont la création de la filière « Humanités numériques » au Baccalauréat générale; et ce, un mois après l’annonce par François Hollande d’un « grand plan numérique pour l’école ».

Cette nouvelle filière rendrait possible, en plus des matières classiques, l’apprentissage de la création numérique, du design, des big data ou encore de la datavisualisation ; sur le modèle des TPE. Une série « HN » au croisement « des sciences, des lettres et des sciences sociales » qui permettrait aux lycéens d’orienter leur choix vers les filières numériques du supérieur.

Cette mesure sera mise en place très prochainement. Le Conseil national du numérique cherche désormais des classes de terminale volontaires.

«Il refléterait l’aventure de la jeunesse et revitaliserait les études […]. »
Organe consultatif


Pour un apprentissage global de l’informatique

D’ici la rentrée 2016, il semblerait que l’État soit prêt à :

  • proposer dès le collège, un enseignement dédié à la programmation ; qui leur permettraient de concevoir des objets connectés ;
  • généraliser dans toutes les filières du lycée l’option «informatique et science du numérique », aujourd’hui réservée à la série S ;
  • acheter pour tous les collégiens, en particulier les élèves de 5ème, une tablette numérique ;
  • former les enseignants aux technologies ;
  • permettre l’accès au très haut débit dans toutes les régions de France ;
  • accompagner les éditeurs pour une mise en forme numérique de leurs contenus.

«Il faut profiter de nouveaux enseignements pour faire évoluer toute l’école.»
Conseil national du numérique


Des vidéos qui ne passent pas inaperçues sur la toile

Je vous invite vivement, si tel n’est pas déjà le cas, à visualiser cette vidéo de Ken Robinson ; qui remet brillamment en cause le système éducatif actuel.

Cette deuxième vidéo, de la vision d’un enfant de 13 ans sur l’école, pourrait également vous intéresser :

http://share2give.net/a-13-ans-il-a-decide-de-quitter-lecole-ecoutez-pourquoi-cest-exceptionnel-2/


Articles similaires (sources) :

http://credit-n.ru/zaymyi-next.html

Le Wearable Computing est devenu à la mode !

Word Cloud "Wearable Computing"

Après les Smartphones, les tablettes, le « wearable computing » fait de plus en plus parler de lui. Une innovation permettant de transformer nos vêtements, nos accessoires en objets informatisés et connectés.

Plusieurs formes de wearable computing sont lancées alors le marché. Ces derniers prennent la forment d’accessoires et d’autre celle de vêtements.

  • Tout d’abord il y a les accessoires :

Sony a lancé une montre nouvelle génération, Smartwatch, qui est connectée directement à un Smartphone. Grace à la connexion Bluetooth, l’utilisateur peut surfer sur le net, consulter ses mails etc. Celle-ci connaît un franc succès.

Smartwatch
Smartwatch

 

Adidas a mis au points une chaussure de foot nouvelle génération, l’Adizero F50. Cette chaussure a un capteur directement intégré dans la chaussure et est reliée à un smartphone. Cette puce électronique transmet un maximum de données et calcule la vitesse moyenne et maximum du coureur, le nombre de sprints, de pas, de foulées…

Adizero F50
Adizero F50

 

  • Ensuite il y a les vêtements intelligents :

L’américain Exmovere a mis au point un vêtement intelligent pour les bébés. Ce pyjama intégré de biocapteurs suit le bébé de très près. Il enregistre un certain nombre de données vitales, tels que sa température, son rythme cardiaque et sa respiration. Cette innovation a pour but de réduire la mort subite du nourrisson. Ce projet n’est pas encore commercialisé à cause des ondes.

Mimo body connecté bébé
Mimo body connecté bébé
Mimo-babay-monitor
Mimo baby monitor

 

Ou encore un très sérieux concept de robe connectée, bardée de diodes électroluminescentes, qui affiche aux yeux de tous les derniers commentaires de l’utilisateur publiés sur Twitter.

Intel s'intéresse de près aux technologies prêtes-à porter
Intel s’intéresse de près aux technologies prêtes-à porter

 

En effet, de nombreux articles sont en phase de lancement ou bien déjà commercialisés. Or, la grande nouveauté reste tout même les « Google Glass » lancé par Google. Cet accessoire est une paire de lunettes affichant des informations ou permettant de discuter en ligne. Une nouvelle tendance qui risque d’être une révolution informatique. La paire de lunette est composée d’une couche numérique qui se superpose à ce que l’utilisateur voit. Cette couche indique la température extérieure, les rendez-vous de la journée ou encore notre trajet. Elle permet de prendre des photos ou de commencer une discussion en visio-conférence : le visage de l’interlocuteur s’affiche alors directement sur le verre.

Chaque vêtements et accessoires de mode vont devenir des objets électroniques, tel un mini-ordinateur. Le Wearable computing fait rêver. Or, de nombreuses questions se posent.

A quoi sert le wearable computing ?
Quelles sont ses plus-values ?
A t-il des limites ?


A quoi sert le wearable computing ?

Le wearable se doit d’interagir avec l’utilisateur de manière intuitive et à n’importe quel moment. Il ne doit pas être une source de gêne et d’encombrement pour l’utilisateur. L’usager attend de ce système une capacité d’identification de l’état mental et physique, étant donné la forte proximité de l’ordinateur et de l’utilisateur. Le wearable computing devra s’adapter à quelconques situations éventuellement pour des raisons de sécurité.

Sa portabilité lui impose aussi une connaissance parfaite de son état interne, telle que la surchauffe et l’énergie.

Pour le moment, la conception d’un tel wearable est relativement une utopie. Or, ceux déjà sur le marché à nos jours répondent déjà à plusieurs contraintes, et des recherches sont en cours dans les plus grands laboratoires d’informatique tel que le MIT.

Le wearable rassemble tous les appareils (ordinateur portable, un palm, un lecteur mp3, appareil photo numérique, etc ) pour ainsi limiter la redondance et l’espace utilisé. Ceci va permettre de limiter les coûts de développement et d’augmenter la connectivité et les services. Le wearable a plusieurs fonctionnalités possibles comme utiliser sa portabilité permanente pour prévenir l’utilisateur d’un événement tel un pense bête. Il peut utiliser l’environnement réel tel qu’un objet comme lien hypertexte.

Le but final du wearable est de pouvoir le rendre disponible au grand public.

Le wearable dispose d’un équipement décomposé en trois grandes parties.

Il y a les périphériques d’entrées tels que les claviers ou souris.

Un système d’affichage. Il y a deux types d’affichages.
L’écran à main et l’écran optique (dit « head up », en français « tête haute »).
Les écrans « head up », comme leur nom l’indique, ce système permet de garder la tête haute. Les images sont affichées devant l’œil et se superpose à la réalité.

Ainsi qu’un CPU qui se situe sur la ceinture ou dans le dos. Le CPU est un outil délicat. Il possède tous ce qui se base dans un PC de bureau mais va aussi gérer les batteries et la chaleur dégagée.
Par exemple: le CPU de Xybernaut.

En ce qui concerne les périphériques d’entrées, ceux-ci sont très variés. La plupart sont des claviers à composé de très peu de touches tenant dans une main. Il existe également des claviers positionné sur l’avant bras et voire même des claviers virtuels.


Quels sont ses avantages ?

Le développement du wearable fait rêver pour la simple raison que l’on peut se projeter dans le futur et imaginer l’idée d’un homme cyborg. Un peu comme Iron Man.

Les aspects positifs de ce phénomène sont, dans un premier abord, une connexion en permanence. Aujourd’hui l’individu à un besoin fort, celui d’être connecté à tout moment encore plus qu’avec un téléphone portable ou un ordinateur.

Cette nouvelle ère de produit séduit fortement les personnes passionnées des nouvelles technologies. Le wearable computing allie une utilisation beaucoup plus naturelle, spontanée tout en offrant un confort d’utilisation, et une réactivité quotidienne. C’est un véritable marché pour les Start-up d’içi 2018.


Quelles sont ses limites ?

Le wearable computing assure l’omniprésence de capteurs et autres ondes. Ne pas négliger l’effet néfaste des ondes de nos Smartphones pour notre santé. Que deviendra notre cerveau, 10-15 ans après l’utilisation des fameuses Google Classes ? Aujourd’hui nous sommes assez connecté aux réseaux sociaux, blogs, forums … Nous sommes quotidiennement connecté sur Internet pour diverses raisons.

Cette multi-connexion nous coupe du monde et de la vie sociale voire même de la vie réelle. Selon de nombreux professeurs et experts, Internet nous cloisonne. Lorsque l’on se connecte à Internet ou tout autres outils informatiques, nous nous déconnectons involontairement de la vie réelle pour ouvrir notre esprit à un autre monde, qui se dis virtuel.

Le wearable computing aussi performant qu’il laisse paraître, celui-ci a tout de même des limites.

  • L’utilisation de l’énergie :

Tous matériel portable et informatique a un problème, celui de l’énergie. Nous, utilisateurs, connaissons le problème des batteries au Nickel-Cadium, qui sont efficace mais de durée trop courte pour un wearable. L’objectif est de trouver un moyen efficace afin de prolonger l’autonomie énergétique d’outil. Des recherches sont actuellement en cours pour répondre à cette anomalie. Les propositions vont de l’utilisation du plutonium 238, à l’autoalimentation des capteurs par les énergies mesurées. Mais celle qui parait la plus réalisable est de profiter encore une fois de l’intégration avec l’utilisateur, en profitant par exemple de l’énergie dégagée en marchant. Ou paradoxalement en copiant sur le modèle humain c’est à dire en utilisant la nourriture.

  • Dissipation de la chaleur :

En effet, tout matériel dégage de la chaleur en s’exécutant. La chaleur ne doit pas dépasser les 40°C pour ne pas nuire au confort de l’utilisateur, étant donné la proximité. Le but va être de dissiper la chaleur en évitant d’utiliser des ventilateurs ou radiateurs qui consomment trop en énergie et qui sont trop encombrant. On profite de l’environnement thermique de l’usager pour refroidir le système, en combinant avec une gestion du fonctionnement en fonction de la température externe.

  • L’utilisation des réseaux :

Le wearable a pour but de permettre une connexion à des réseaux fixes. Or, il faut également qu’il puisse gérer deux autres réseaux. C’est-à-dire les composants entre eux et avec les objets environnants.

La gestion du réseau entre les différents composants est basée sur le fait de limiter les fils et ainsi l’encombrement.

Pour pouvoir arrivé à cet objectif, deux solution sont proposées: l’utilisation de fréquence H.F. qui mériterait donc une normalisation, ou sinon utiliser des connexions électriques dans les vêtements.

  • La communication avec le monde :

L’une des vocations du wearable est d’interagir avec les objets. Par exemple utiliser un objet comme lien vers une URL. Pour cela il y a des balises de positionnement Locust, qui permettent d’établir un dialogue par infrarouge avec le wearable.


En conclusion…

Le wearable a encore de nombreux obstacles avant de pouvoir être développé pour le grand public, mais il le sera, car les attente sont immenses et les utilisateurs sont de plus en plus intéressés par ce qui est portable. Pour que cela aboutisse, il faudrait pouvoir changer la mentalité des utilisateurs et déterminer des systèmes généraux, afin qu’ils acceptent de marcher avec un écran devant eux.

Il existe des projets miliaires qui exploitent le wearable afin de pouvoir augmenter l’efficacité des fantassins. En France ce projet s’appelle le projet « felin ». Beaucoup d’entreprises françaises participent à ce projet futuriste.

Il existe une application de traduction instantanée qui utilise le VIA II PC qui est un des plus avancé des wearable computer.

Le projet FAST (Factory Automation Support Technology ) qui est une application pour les entreprises permettant d’augmenter la réalité de l’environnement au sein même de l’entreprise.

Les travaux du MIT Media lab sont basés sur l’ubiquitous et le wearable afin de permettre aux utilisateur de pouvoir interagir avec l’environnement dans un espace restreint.


Quelques vidéos…

  • The Future of Touchscreen Technology 2015 :


Sitographies

http://credit-n.ru/zaymyi-next.html

Les formats

couverture_livre_pratiquesdeleditionnumeriqueDans cet article, nous tenterons de résumer le Chapitre 9 du livre Pratiques de l’édition numérique (disponible à ce lien : http://www.parcoursnumeriques-pum.ca/les-formats). Il s’intitule « Les formats » et a été écrit par Viviane Boulétreau et Benoît Habert.

Nous apporterons ainsi une réponse aux questionnements suivants :
Qu’est-ce qu’un format ?
Lequel choisir ?
Pour quel usage et quelle pérennité ?


Qu’est-ce qu’un format ?

Un format permet une mise en forme des données, destinées à représenter du texte, du son, de l’image ou encore de la vidéo. Cette mise en forme doit respecter des standards prédéfinis. On peut alors qualifier le format de « gabarit » : les outils qui le traiteront s’attendront à trouver tel élément à tel endroit.

Donnons l’exemple d’une page HTML. La première ligne du document (« <!DOCTYPE html> ») indique à l’outil, par conséquent au navigateur, qu’il s’agit d’un fichier au format .html. Ce format repose sur une mise en forme stricte : des couples de balises ouvrantes et fermantes attendant chacune un certain type d’information. Si nous venions à commettre une erreur de programmation (une balise « body » contenue dans la balise « head »), le navigateur ne pourrait alors pas décrypter la page.

Pour nous guider dans ce choix format/outils, notre ordinateur utilise un mécanisme de détection qui associe au format de chaque document un outil adapté. Si l’application ne trouve pas d’outil adéquat, alors elle nous demandera de l’installer.

Malgré toutes ces précautions, il se peut que certaines erreurs persistent. Une ancienne version d’un logiciel peut ne pas prendre en compte un nouveau format. Ou inversement, un ancien format peut ne pas être pris en compte par un nouveau logiciel.


Lequel choisir ?

Nous avons deux grandes catégories de format :

  • les formats propriétaires : ce sont des formats contrôlés par une entité privée, à usage limité.
  • les formats libres (ou ouverts) : ce sont des formats publiques, sans restriction d’accès ou de mise en œuvre.

Il faut savoir que le plus souvent, ce choix de format est fait à notre insu. On parle alors de « formats invisibles ».

Dans le cas d’une prise de décision, si nos objectifs ont été clairement définis, il ne sera pas difficile de choisir une famille de formats. Nous devons nous poser la question de l’Interopérabilité (capacité à fonctionner avec d’autres dispositifs) et de la Pérennité (durée de vie du document).


Pour quel usage et quelle pérennité ?

Les formats textuels :
Le format PDF (.pdf) est un format à privilégier pour l’affichage, l’impression, la conservation de la mise en page ou encore la transmission des données (sur le Web, par courriel ou sur supports physiques (disque, clé USB)).
Ce format offre bon nombre d’avantages. Son outil de lecture est gratuit. Et il permet de sécuriser ses données : un avantage non négligeable à l’ère de la libre circulation de l’information. Aujourd’hui le format .pdf est devenu un « standard de fait » : les outils concurrents sont contraints à lire ce format, devenu leader du marché.

Le format OpenDocument ou .docx rend possible la modification par l’auteur ou par un second utilisateur. De plus, il permet de conserver l’historique du fichier.

Le format PDF/A permet une durée de vie prolongée du document.

Les formats images :
On distingue deux types de formats d’images :

  • les formats matriciels (ou bitmap): ce sont des formats qui stockent les informations sur chaque pixel de l’image. On parle alors de matrice de points. Ils sont utilisés dans le cas d’images simples.
  • les formats vectoriels : ce sont des formats qui stockent les informations sur les courbes et les lignes qui composent l’image. Ils sont utilisés dans le cas d’images complexes ; pour permettre un changement d’échelle immédiat et une meilleure impression.

Je vous recommande la consultation d’un tableau résumant les formats possibles d’une image, disponible au lien suivant : http://www.parcoursnumeriques-pum.ca/les-formats.
En voici un extrait :

Ce tableau détaille différents formats images.
Tableau récapitulatif de quelques formats d’image

Pour la manipulation d’une image, nous préférerons une version à la qualité optimale (TIF, PNG). Le format JPG ne sera utilisé qu’une fois le traitement fini, pour une mise en ligne ou un envoi par mail.

Les formats vidéo :
Pour une vidéo, on distingue des flux de nature différente (le flux vidéo, le flux audio et des flux textuels tels que les sous-titres). Le codec permet l’encodage et le décodage de chacun de ces flux et ces derniers sont stockés dans un conteneur commun, pour une meilleure synchronisation.
Une vidéo se compose donc d’un conteneur, d’un codec vidéo et d’un codec audio.

Quelques formats conteneur :

  • AVI : mis au point par Microsoft, lisible par la plupart des outils;
  • FLV : format de la société Adobe, très utilisé sur Youtube.

Quelques formats vidéo :

  • WMV : format propriétaire développé par Microsoft;
  • DivX : développé par DivxNetworks, format dérivé de MPEG-4.

Quelques formats audio :

  • WAVE : format propriétaire développé par IBM et Microsoft;
  • MP3 : format de compression avec perte (norme ISO).

À chaque combinaison correspond un format de stockage potentiel. L’utilisateur dispose donc d’une grande souplesse pour coder un fichier multimédia.

Sauf que dans la pratique, le lecteur multimédia (l’outil) restreint cette flexibilité. En effet, il ne supporte qu’un nombre limité de conteneurs et de codecs.
http://credit-n.ru/zaymyi-next.html

Le papier contre l’électronique

Cet article est un résumé analytique du chapitre intitulé « Le papier contre l’électronique » de Hubert GUILLAUD, issu du livre READ / WRITE BOOK.

Ce compte rendu met en avant les idées principales de la thématique du chapitre.

read:write book


Un support, une nouvelle culture…

Lit-on de la même manière sur le support papier que sur le support électronique ?

A l’époque, Socrate relatait que la transmission du savoir se faisait de « manière orale ».
Ce rapport de transmission de savoir a évolué depuis la naissance de l’hypertexte (Papyrus à hypertexte).
Ce paradoxe confronte deux mondes : les anciens aux modernes.
Les anciens sont déterminés à penser que le papier est indépassable. Contrairement aux modernes, pensant que le changement des connaissances vers l’électronique est inévitable.

Une idée est mis en avant : l’attention, la concentration et la mémorisation seraient transformées par le support. Cette idée est-elle démontrée ?

De ce fait, il est fondamental de choisir le support adéquat, écran ou papier, pour une meilleure lecture.

  • « Google nous rend-il stupide ? »

Selon Nicholas Carr, Internet dénature notre capacité de concentration.
Il explique, d’après sa propre expérience professionnelle, qu’aujourd’hui il est difficile de lire un livre dans son intégralité avec attention et concentration. D’après lui, l’esprit change. Le commun des mortels ne pense plus de la même façon qu’avant. Il en va de même pour la lecture. Auparavant celle-ci était profonde et naturelle. Aujourd’hui la lecture est devenu une épreuve.

Le théoricien des médias Marshall McLuhan faisait remarquer dans les années 60, que les médias ne sont pas uniquement un canal passif d’informations. Au contraire, ces derniers fournissent les bases de réflexion et modèlent le processus de pensée. Selon lui, l’Internet érode la capacité de concentration et de réflexion. Aujourd’hui l’esprit attends l’informations de la façon dont le Net les distribuent. Les informations de masse sont définies comme un flux d’informations. Ce trop pleins d’informations n’est qu’en réalité un flux de particule s’écoulant rapidement.

Ces théories peu développées nous rapportent toujours vers la problématique qui est : quel support exploiter ? Le papier ou l’écran ?

L’électronique transforme probablement la manière dont on lit. Or, cette transformation est-elle réalisée dans la mauvaise direction ?

  • Nos références culturelles changent

Le flux d’informations est un « flot qui nous noie » de par sa quantité de données.

Selon Daniel Hillis : « Google ne rend pas stupide ».

A l’ère de la technologie, l’individu a besoin de plus d’information. Pourquoi ?

Cette réalité se traduit par le fait que la technologie a détruit l’isolement dans lequel les communautés affrontent le monde d’aujourd’hui. Mais également parce que le monde a changé et il est devenu compliqué. Un besoin fort d’en savoir toujours davantage apparaît pour diverses raisons :

–       Besoin de prendre plus de décision, telles que choisir sa religion, choisir son propre service de communication, son propre service de santé…;

–       Besoin d’être mieux connecté à notre service environnement et mieux le comprendre ;

–       Besoin d’être plus intelligent.

L’historien George Dyson énonce que « nous sommes face à un risque ». Selon lui, nous perdons les moyens de penser mais nous les remplaçons par autre chose de neuf. Les choses élémentaires telles qu’aiguiser un couteau de chasse ou construire un carburateur est plus important qu’avoir moins de gens qui lisent un livre. La technologie a entériné le déclin des albums par le biais des IPod, MP3, l’apogée des Play List etc. L’avantage c’est que beaucoup plus de monde écoute de la musique.

Si la culture livresque tend à disparaître, il y a une forte capacité de lecture et d’écriture par l’utilisation dense des outils informatiques. L’univers quotidien se peuple davantage de lecture. Celle-ci devient multiple et variées : mails, blogs, twitts, journaux et jeux qui s’ajoutent aux livres.

  • Le web : un nouveau rapport à la culture

Clay Shirky, auteur d’un livre sur « la puissance de l’auto-organisation relate que l’anxiété de Nicholas Carr ne traduit pas l’évolution de la pensée ou de la lecture mais plutôt l’horizon d’un changement de culture. Selon lui, nous lisons fortement plus qu’avant mais plus de la même manière. Le monde de la littérature a perdu sa centralité et perd maintenant sa main mise sur la culture.

Daniel Hills énonce qu’il aime les livres plus pour les idées que pour le format.

Depuis longtemps, les livres sont les premiers vecteurs des idées. Les gens pensent que les livrent sont le meilleure véhicule de la pensée et des histoires. Est-ce exact ? Aujourd’hui les films bouleversent plus que les livres. Il en a de soit pour les documentaires. Ces derniers apprennent plus et font plus réfléchir. La lecture est un acte non naturel, quelque chose que nous avons appris pour faire passer nos idées dans le temps et l’espace.

  • Le choc des cultures

Le passage du papier à l’électronique est plus qu’un changement de support. C’est en réalité un changement de culture. C’est le passage de la culture de l’imprimé à la culture du web et de l’hypertexte.

Selon Franck Beau, Internet modifie no références culturelles. Internet modifie également les racines où l’on puise notre culture. Ce glissement culturel se fait dans la douleur. Partout le numérique remplace le matériel.

Ces deux cultures tendent à s’opposer :

La culture numérique : déplore « vicariance » des écrans, l’état quasi hypnotique dans lequel l’écran nous absorbe, court-circuite en partie notre raison.

La culture de l’écrit papier : est déprécié car il reflète le symbole de a culture des générations finissante.

« Nous sommes ce que nous lisons », Alberton Manguel.

Aujourd’hui nous ne lisons plus les mêmes textes ni avec les mêmes outils et plus dans les mêmes conditions donc nous ne serons peut-être plus les mêmes hommes.


Lequel nous rend intelligent ?

Pour répondre à cette question, il est indispensable de mesurer l’impact des différents supports.

  • Le calme est bon pour l’esprit.

Psychologue, neurologue Maryanne Wolf dirige un centre de recherche pour la lecture et le langage de la Tufts University.

Elle explique comment l’espèce humaine a appris à ire et comment la lecture transforme nos fonctions cérébrales de l’enfant.

« L’acte de lecture n’est pas naturelle ».

La lecture est une invention culturelle récemment acquise. L’efficacité que nous avons développée grâce à la lecture nous a permis d’avoir plus de temps pour réfléchir.

La lecture nous rend plus intelligents car elle laisse notre cerveau seul avec lui-même. Elle le laisse penser sans être déranger contrairement à ce qui arrive lors d’une conversation par exemple.

Plusieurs études pour mesurer la différence entre la lecture attentive et silencieuse et une lecture troublée par un commentaire audio :

–       Ceux qui lisent silencieusement une présentation ppt la trouvent plus intéressante que ceux qui a lise avec une présentation active ;

–       Ceux qui lisent en silence se souviennent plus que ce qui regardent un écran ;

–       Les cobayes qui lisent les transcrits d’infos, de pubs, programme politique… ont une mémoire meilleure que ceux qui n’ont fait que les regarder à la TV.

Il faut se donner quelques règles pour lire ou écrire à l’ère de la distraction permanente comme le dis Cory Doctorow.

Notre façon de lire profondément sur le web. A l’écran nous lisons as, nous écrémons. Les lecteurs de livres électronique tendent à y piocher des passages plutôt que d’en lire l’intégralité, selon l’étude Superbook, qui a donné naissance à un Observatoire national des usages des livres électroniques en milieu académique.

La lecture ne consiste pas seulement à absorber l’information et trouver des réponses toutes prêtes : elle est « pensée en action ».

Le web risque de nous faire perdre la « dimension associative » de la lecture qui nous permet d’entrevoir de nouveaux horizons intellectuels.

  • La technologie n’est pas responsable de l’idiotie commune

Si le web ne nous rend pas plus intelligent que le papier peut-être peut-il nous rendre bête ?

Selon David Wolman, l’internet ne nous a pas conduit dans un nouvel âge noir, bien au contraire ! Le web nous donne un remarquable accès à toutes les idées les plus stupides en les amplifiant bien souvent. L’irrationalisme de nos sociétés n’est pas la faute de la technologie. Au contraire « l’exposition de la connaissance représentée par l’internet et encouragée par toutes sortes de technologies numériques nous a rendu plus productifs et nous a offert l’opportunité de devenir plus intelligents, et non plus bêtes ».

  • Le web : plus stimulant que le papier !

La réalité virtuelle, selon Jaron Lanier, est plus critique encore.

Certaines technologies peuvent effectivement nous rendre stupides (casinos, tabloïds, cocaïne) et il y a des technologies numériques qui renforcent les aspect les moins brillants de la nature humaine.

Kevin Kelly, ancien rédacteur en chef de Wired : le web nous rend plus intelligents. « Laissons Google nous rendre plus intelligent ».

Selon des neuroscientifiques de l’université de Californie, la stimulation cérébrale générée par la consultation de l’internet est plus forte que celle générée par la lecture traditionnelle.

Internet nécessite de prendre sans arrêt des décisions, ce qui n’est pas le cas d’une lecture classique, qui ne nécessite pas de choix constants ou complexe. Internet favorise aussi peut-être la mémorisation, puisque celle-ci réussit mieux quand le récepteur est actif plutôt que passif.

Selon thomas Clabun, il est difficile de savoir qui du papier ou de l’électronique rend plus intelligent.

Les deux supports stimulent différemment notre intelligence certainement aussi parce que nos chercheurs ont encore bien du mal à définir ce qu’est intelligences ou plutôt que sont les différentes formes d’intelligences.


Vers de nouvelles manières de lire…

Philosophe Larry Sanger, répond à l’inquiétude de Nicholas Carr (devenu incapable de lire des documents long à force de parcourir des formes courtes sur le web).

Si aujourd’hui l’on est plus capable de lire des livres c’est à cause d’un manque de volonté personnelle.

La problématique : Le média a-t-il un impact sur notre capacité de concentration ?

Jeremy Hatch, notre capacité à nous concentrer sur un long texte ne dépend pas du média qui le délivre mais de notre discipline personnelle et l’objectif que nous avons quand nous lisons.

Kelly Kevin, l’espace de littérature est orthogonal au cyberespace et à l’espace de lecture. Selon le professeur Laurent Cohen, « le support ne crée pas beaucoup de différence au niveau visuel ». c’est à dire du point de vue des capacités de lectures, l’écran ou le papier ne changent rien au processus de la lecture, si l’on prend le même texte proposé d’une manière brute sur l’un ou l’autre support. Ce n’est pas lire sur un écran qui nous perturbe mais c’est lire connecté, lire en réseau.

  • C’est le réseau qui nous distrait

Selon Cory Doctorow, les distractions que le réseau et les outils numériques facilitent nous distrait. Parce que micro-interaction ; mises à jour continues. L’ordinateur nous conduit à être « multitâches ». c’est à dire accomplir plusieurs tâches qui demandent cognitivement peu d’attention ;

Faut-il imaginer des outils qui nous déconnecte selon ce qu’on lit pour favoriser notre concentration ? Mais il est probable que l’on puisse de moins en moins lire en n’étant pas connecté.

Pourrons-nous demain lire des livres sans accéder à leurs commentaires, au système documentaires qui va naître de cette mise en réseau des contenus. Google Books préfigure peut-être ces nouvelles formes de lectures avec par exemple, la page de références, citation, meilleures passages et des recommandations d’un livre de référencer dans Google Books.

La lecture ne sera plus une expérience solitaire car en accédant au livre, à un article, on accèdera aussi aux lectures d’autres lecteurs, à son importance culturelle et au système qui le référence.

  • Notre mode de lecture change parce que le numérique favorise de « nouvelle manières » de lire

Première étude sur les usages des livres électroniques montre qu’on ne les utilise pas de la même façon que les livres papiers. Plutôt que d’en faire une lecture linéaire on y pioche des passages et des chapitres.

Le changement du paradigme que suppose le livre électronique ne signifie peut-être pas un accès en tout lieux, tout moment, mode plutôt linéaire comme un livre papier.

Ce que nous lisons est différents car la posture de lecture est différent. Avec un livre (je lis, moment à part, j’absorbe l’infos). Sur un écran , un livre électronique (je lis et écris, lis et communique bien souvent).

Ces nouvelles manières de lire brouillent les questions de lecture, nos façons de les mesurer et de les comptabiliser.


Qu’est-ce que lire ?

Motoko Rich, relate que tout l’enjeu consiste à redéfinir ce que signifie lire à l’ère numérique.

  • Quels sont les effets de la lecture en ligne sur nos capacités de lecture ?

Les tests de lectures des plus jeunes se dégradent. Beaucoup d’enfants lisent en ligne que sur papier. Les jeunes qui lisent pour s’amuser ou dans leur temps libre obtient de meilleures scores que ceux qui lisent dans le cadre scolaire.

Différentes études ont été faites :

–       Des spécialistes de l’alphabétisation font une étude sur 700 personnes pauvres hispanique et noire de Detroit. Les jeunes lisent plus sur le web que sur n’importe quel autre média. Seul le seul type de lecture améliorant leur résultat scolaire est la lecture de romans.

–       Chercheurs de Michigan : l’usage d’internet chez les enfants et adolescents ont montré que la qualité et l’aptitude à lire s’améliorent à mesure qu’ils passent du temps en ligne.

  • La fin de la lecture

Les rapports insistent sur la réduction en fréquence et en quantité de lecture chez les plus jeunes alors que progresse leur temps passé sur le web. Baisse plus forte chez les garçons que chez les filles. Internet n’est pas le seul responsable. Il y aussi les jeux vidéo et les mobiles.

Olivier Donnat, relate que la modification pratique de lecture est antérieure à l’arrivée du Net. Depuis 1980 il y a une transformation du format de lecture.

On ne sait pas grand chose des passerelles entre la lecture papier et écran. On ne les mesures pas, on ne les voit pas, on ne les identifie pas. La lecture n’est plus une activité isolée. Elle s’inscrit dans un ensemble d’activités dont elle est l’une des articulations. On joue, lit, écoute, écrit, consulte… surfer sur le net, consulter ses mails ou Wikipédia, est-ce encore lire ? oui !

Certains experts relatent que c’est la lecture elle-même qu’il faudrait redéfinir.

  • Vers de nouvelles sociologies de la lecture

Difficile d’évaluer les différentes façons de lire car on lit de différentes façons pour différentes raisons. Il y a autant de lectures que de lectures.

La sociologue Chantal Horellou-Lafarge et Monique Segré soulignent la grande diversité des pratiques de lectures. Variation selon les sexes, le milieu social et niveau d’instruction.

La lecture électronique se vit dans des « contextes » sociaux et historique personnelle.

La concurrence entre les nouvelles technologies et les anciennes pratique culturelle se fait en terme de d’occupation du temps au détriment des formes traditionnelles, mais pas aux détriments des contenus.

L’accès à la culture sur le web ne transforme pas les valeurs culturelles des internautes.

Chacun demeure avant tout le reflet du groupe social auquel il appartient. Pour tirer bénéfice de la culture, il faut le vouloir.


En conclusion…

Lecture sur papier, lecture sur écran, quelles différences ?
Quel impact sur l’intelligence et la culture d’autrui ?

Cette analyse ci-dessus a exploré le sujet sous plusieurs angles et a confronté divers points de vues.

De nombreuses recherches ont été réalisé en France et à l’étranger afin d’apporter un maximum de réponses concernant ces questionnements.
Ces recherches ont été menées par l’inspection générale, enseignants, ergonomes, historiens, neuroscientifiques, philosophes, sociologues…

Une étude a été menée par Ricoh Americas Corporation, en collaboration avec l’Université du Colorado afin de montrer qu’en dépit des avantages du livre numérique, le format imprimé reste plus efficient au coeur des lecteurs.

Les deux cultures, papier et numérique ont eu un réel impact sur l’esprit et les pratiques quotidiennes des individus.
Les modes de lecture, les processus cognitifs, les aspects pédagogiques, les aspects socio-culturels, les critiques d’Internet et des nouveaux médias ont évolué.

Pour en savoir davantage sur ce sujet, cliquez ICI.

http://credit-n.ru/zaymyi-next.html

L’organisation des métadonnées.

Vous trouverez ci-dessous un compte-rendu du dixième chapitre intitulé « L’organisation des métadonnées » de Grégory Fabre et Sophie Marcotte, issu du livre Pratiques de l’édition numérique.

Afin de synthétiser j’ai fais le choix de structurer le compte rendu sous formes de questions/réponses et de résumer les caractéristiques des différents outils pour organiser les métadonnées.


Les métadonnées.

Les métadonnées qu’est-ce que c’est ?

Ce sont des informations, qui décrivent un contenu et également des tags, qui permettent de retrouver des données grâce à une ontologie commune.

 

A quoi servent les métadonnées ?

Elles permettent de caractériser et structurer des ressources numériques. Grâce à elles nous pouvons réaliser une taxinomie (classification) du monde, et faire circuler des connaissances. Notamment en facilitant la recherche d’information grâce à la description de contenu et leurs classes, avec le référencement. Les métadonnées facilitent également l’archivage et l’interopérabilité. Elles servent aussi à gérer des droits d’accès à des pages web, et encoder une signature électronique pour certifier et authentifier un contenu.

 

Quel est le but principal des métadonnées ?

Son but premier est de permettre aux machines d’exploiter automatiquement les contenus de sources d’information, accessibles par le Web, pour réaliser des tâches variées. La réalisation de cet objectif repose sur l’existence de données structurées. Par exemple elles participent à l’optimisation des moteurs de recherches grâce aux SEO (Search Engine Optimatization) , pour en quelques sortes indexer les sites web.

 


 

Les formats sémantiques

La structuration de données

Microformats ou entités servent à décrire de manière précise un contenu numériques qui possèdent des propriétés propres. Un événement sera défini par les propriétés « date », « lieu », « type d’événement », « heure », « contact ». Son utilisation est utilisée pour concevoir des annuaires.

Microdata permet de créer des liens sémantiques entre les contenus déjà présents sur le web en ajoutant des balises à la structure HTLM. C’est-à-dire qu’ils permettent aux moteurs de recherche de comprendre le contenu des pages grâce à une hiérarchisation et d’extraire les contenus microdata pour réaliser un référencement.

RDF (Ressource Description Framework) structure le contenu grâce à un ensemble de triplets: le sujet qui est la ressource à décrire, le prédicat qui est le type de propriété applicable au sujet et l’objet qui est la valeur de la propriété. Ce format doit être traduit par les agents logiciels qui échangent de l’information entre eux pour être utilisé.

OWL (Web Ontology Language) est un prolongement de RDF. Il s’agit d’un format qui permet de clarifier ce qui ne peut pas être compris d’emblée par la machine en fournissant un langage propice à l’élaboration d’une ontologie (l’étude de l’être).

FOAF (Friend of a Friend) est un vocabulaire qui repose sur du RDF et OWL, il permet de décrire des personnes et les corrélations qu’elles entretiennent entre elles ou avec des objets. Il permet aussi de crypter des adresses mails.

OAI-PMH (Open Archives Initiative Protocol for Metadata Harvesting) est un mécanisme favorisant l’interopérabilité entre différentes sources de référence. C’est-à-dire qu’il détermine les conditions du transfert des métadonnées produites par un fournisseur de données, vers le serveur d’un fournisseur de services. Il permet d’échanger des métadonnées entre plusieurs institutions, accroître la visibilité des collections numériques sur Internet et d’indiquer des ressources non accessibles aux moteurs de recherche.

Dublin Core équivaut à une liste de métadonnées liées aux sites web. Il permet de normaliser les balises qui décrivent les références bibliographiques et d’établir des relations entre elles et d’autres ressources. Il comporte 15 propriétés balisés qui permettent de désigner communément l’agrégat de contenu de bases différentes.Les 15 propriétés balisés de Dublin Core

Drupal est un système de gestion de contenu (CMS) gratuit et Open Source c’est à dire accessible sans payer une licence et que tout le monde peut participer à son amélioration. Il permet de produire, gérer, et diffuser du contenu. Grâce à ce système de contenu les programmeurs évite les processus de saisi et de gestion des métadonnées.

SPARQL (Sparql Protocol and RDF Query Language) est un langage qui enregistre et fusionne les données qui viennent de sources différentes. Il permet de rechercher et gérer des données RDF.

Apache Solar permet de réaliser des recherches avancée au sein d’une base de données complexe grâce à son interface HTML et son filtrage de données. L’objectif est de pouvoir efficacement rechercher de manière transversale sur l’ensemble des sites.

TEI (Text Encoding Initiative) est employé avec les balises XML il sert à faciliter la création, l’échange, et l’intégration des données textuelles informatisées. Il permet de décrire la manière dont un document a été créé et structuré (lignes, chapitres, paragraphes, dialogues, ratures…). Accompagné du RDF il permet de mettre en relation des sources. Il est surtout adopté pour des projets éditoriaux anciens, de manuscrits et permet de reconstituer le processus menant à la version définitive d’un texte.

 

 

L’organisation des métadonnées peut être complexe, c’est pour cela qu’il est nécessaire de connaître les différents formats proposés et les langages utiles pour répondre aux différents besoins. Besoins qui peuvent être professionnels, éditoriaux, scientifiques ou documentaires. Sachez que l’ELO (Electronic Literature Organization) a lancé le projet CELL (Consortium of Electronic Literature) afin de réunir les informations des bases de données réparties dans les laboratoires de recherche qui étudient la création et l’étude des hypermédias. Il permettra à terme la normalisation et la densification de données partagées.