L'Oculus Rift et la réalité virtuelle

On en a entendu parlé récemment, Facebook aurait racheté « l’Oculus Rift » un appareil de réalité virtuelle pour 2 milliards de dollars. A quoi sert-il ? Peut-il apporter des opportunités dans le futur ?

OculusRift1

L’Oculus Rift en quelques mots

L’Oculus Rift est un masque de réalité virtuelle en cours de développement et conçu par une filiale de Facebook, « Oculus VR ». Le projet a été lancé en 2012 grâce au succès du financement via la plateforme Kickstarter.

L’Oculus Rift recouvre les yeux de l’utilisateur et est attaché au visage par une sangle à l’arrière du crâne. On trouve plusieurs capteurs permettant de détecter les mouvements de tête de l’utilisateur, permettant ainsi d’adapter en temps réel l’image projetée sur l’écran, afin de produire l’illusion d’une immersion réelle. Le prix de cet appareil devrait s’élever à environ 220 € (Hors Taxe) et resterait ainsi assez abordable sur le marché.

Les finalités de ce rachat

Le rachat d’Oculus VR ne ferait pas obstacle au but premier de la société qui est de rendre plus immersif le marché du jeu vidéo et ainsi de le faire évoluer au mieux. Mais cette fusion permettra encore d’aller plus loin. En effet, ce masque de réalité virtuelle permettrait également d’accéder à différents types de services et offrirait dans un futur proche, la possibilité de réaliser des expériences sociales qui rassembleront les gens d’une nouvelle manière.

Mark Zuckerberg, le créateur du réseau social Facebook, demeure assez enthousiaste et nous le fait partager :

Le mobile est la plateforme d’aujourd’hui, et dès à présent nous nous préparons pour celles de demain. Oculus VR a la chance d’avoir conçu la plateforme la plus sociale jamais créée et a définitivement changé notre manière de travailler, de jouer et de communiquer.

Des opportunités pour demain 

L’Oculus Rift s’avère être encore pour le moment un peu encombrant pour l’emmener en voyage d’affaires. Mais il est possible que demain l’on s’immerge dans une réunion à distance. Il suffirait ainsi que celle-si soit filmée par deux caméras pour obtenir un effet 3D, ce qui faciliterait considérablement le télétravail. Et pourquoi pas, assister d’ici quelques années à un tchat vidéo de groupes dans une salle de réunion virtuelle ou sur une plage paradisiaque ?

Je vous invite à visionner cette vidéo sur l’Oculus Rift  :

[youtube]https://www.youtube.com/watch?v=-5LQrYFmUAU[/youtube]

Sources :

http://credit-n.ru/zaymyi-next.html

Le livre numérique, bon ou mauvais ? Qui l'utilise le plus de nos jours ?

À l’ère du numérique, de plus en plus de français décident de remplacer la traditionnelle bibliothèque par des livres électroniques. Quelles sont les avantages et les inconvénients de ce nouvel outil ? Qui sont les utilisateurs principaux ? Quels appareils utilisent-ils pour lire des livres numériques ? 

Ebook

Avantages :

Le premier avantage qui ressort dans l’usage du livre numérique est bien évidemment l’économie de papier. L‘ebook étant un support électronique, il dispose aussi de fonctions supplémentaires que ne possède pas un livre papier. On trouve ainsi la possibilité de rédiger des commentaires et d’ajouter des marque-pages. Le livre numérique possède aussi une fonction « recherche » permettant une navigation plus simple et plus rapide. Les ebooks sont également interactifs, puisqu’il est possible d’avoir des liens vers plusieurs sources de données avec notamment des liens vers des services de traduction ou tout simplement des vidéos supplémentaires. Des liens hypertextes peuvent aussi être insérés et un zoom sur l’écran est également à la disposition de l’usager. Ces options lui confèrent ainsi un caractère ludique et amusant pour l’utilisateur.

Par ailleurs, les livres numériques sont disponibles à tout moment et ne dépendent d’aucun délai de livraison, hormis un petit délai de téléchargement dans certains cas ! Ils sont aussi moins chers que les livres imprimés et peuvent être lu n’importe où, sur tous les différents appareils de lecture. Ils peuvent aussi regrouper beaucoup d’œuvres littéraires dans un espace beaucoup plus réduit que celui d’une bibliothèque traditionnelle.

Les livres numériques permettent également une ouverture sociale sur le monde pour les personnes handicapés. En effet, le numérique est également un moyen d’ouvrir le monde du livre aux personnes dotés de divers handicaps. Certaines fonctionnalités, comme la possibilité d’augmenter la taille des polices, facilitent la lecture des personnes mal-voyantes. De plus, la mise en place de caractères spécifiques visant à accentuer certains sons ou syllabes sont des fonctionnalités qui pourraient s’avérer importantes pour faciliter des handicapés. Par ailleurs, l’utilisation de l’audio en support du texte ou l’ajout de diverses vidéos sont également très utiles et permettraient de concevoir des ouvrages adaptés aux handicapés.

Inconvénients :

Lorsqu’on parle d’ebooks on pense tout de suite au prix. Oui, les ebooks restent chers si on en veut un qui tienne la route ! Il faut compter environ 90 euros pour en détenir un bon. Par ailleurs, l’autre inconvénient majeur de ce type d’outil, est qu’il n’est pas toujours possible de feuilleter un livre électronique payant avant de l’acheter, ce qui peut décourager un certain nombre de client potentiels.

Un autre soucis majeur réside dans le fait que les livres numériques demandent de posséder un minimum de connaissances en informatique, ce qui peut repousser les plus anciens d’entre nous. De plus, il y a le risque qui s’offre à toutes les nouvelles technologies de nos jours : le problème de la batterie. Avec le livre numérique nous sommes donc « limités » point de vue temps de lecture. Nous ne sommes pas non plus à l’abris d’un risque de panne « technique ». Qu’advient-il alors ?…

Les livres numériques sont constitués pour beaucoup, de livres gratuits tombés dans le domaine public. De pus, la plupart des livres dit « récents » sont payants et ceux-là sont évidemment les plus demandés. C’est donc de cette manière que le piratage se développe de plus en plus dans ce milieu, comme il s’est largement imposé dans le domaine cinématographique et musicale ces dernières années… Les auteurs ont ainsi de plus en plus de mal à faire respecter leur droit d’auteur et ont par déduction, plus de difficultés à vivre de la publication de leurs ouvrages.

Pour finir, le livre numérique anéantit l’image symbolique que l’on a du livre papier. En effet, le livre papier demeure ce qu’on appelle un objet culturel, qu’on définit comme étant un ensemble de pages imprimées. Sa définition pourrait donc bien se voir évoluer. Cette évolution est un grand bouleversement, puisqu’il s’agit de passer d’un support physique, donc localisable, à un support numérique qui démultiplie les lieux de consultation : tablette, smartphone, ordinateur, etc.. et qui possède ainsi un caractère « dématériel ».


Quels sont les utilisateurs ? Quels appareils utilisent-il vraiment pour lire des livres numériques  ?

ebook2

Selon une étude Ifop menée, à l’heure actuelle, plus d’un Français sur dix est un lecteur de livres numériques. Son profil est plutôt masculin, jeune, de catégorie socioprofessionnelle élevée et citadin. Ainsi, selon cette même étude, 37% qui lisent volontiers des livres numériques le font à partir de leur tablette, 33% à partir d’un ordinateur portable ou d’un mini-PC, 24% à partir d’une liseuse, 26% depuis un smartphone et 17% avec un ordinateur fixe.


Mon avis perso : 

Je pense que le livre numérique révolutionne le monde de l’édition mais qu’il n’est pas encore  complètement ancré dans notre société. On le voit d’ailleurs bien dans l’éducation nationale avec l’article de Maud, où il a encore un peu de  mal à se frayer un chemin. Par ailleurs, étant moi même utilisatrice d’ebooks, je pense aussi à un autre inconvénient majeur : Nous n’avons plus le « touché » que certaines personnes apprécient particulièrement auprès du livre papier, on peut même ajouter l’odeur de l’encre et du papier qui n’est plus présente avec le livre numérique. Ainsi, pour ma part, cet outil va de pair avec le développement du numérique dans notre société, mais il est parfois bon de ne pas oublier nos bons vieux livres d’antan ! Et vous, qu’en pensez-vous ?


Sources : 

http://bibliobs.nouvelobs.com/salon-du-livre-2014/20140320.OBS0581/jusqu-ou-ira-le-livre-numerique.html

http://www.itespresso.fr/e-book-francais-serieux-penchant-gratuit-piratage-80526.html

http://www.strategies.fr/actualites/medias/246316W/plus-d-un-francais-sur-dix-lit-des-livres-numeriques.html

http://www.contenus-en-ligne.com/quest-ce-quun-ebook
http://credit-n.ru/zaymyi-next.html

Le Cloud Computing, une meilleure solution ?

cloud computing

Le Cloud Computing souvent appelé Cloud (« le Nuage » en français) ou l’informatique en nuage désigne un accès aux ressources informatiques qui sont quelque part, à travers internet. Son accès est soit gratuit, comme c’est le cas avec le web mail soit sur abonnement, avec un niveau de service garanti.

Depuis longtemps, tout le monde utilise le Cloud computing sans même s’en rendre compte. Par exemple lorsque l’on utilise son webmail, Hotmail, Gmail ou autre, nous faisons du Cloud. Les entreprises achètent ainsi des capacités qui sont par la suite facturées un peu comme le sont l’eau, le gaz ou l’électricité. L’entreprise paye sa consommation. Cette consommation est illimitée, un peu comme le courant électrique.

Le Cloud computing représente la meilleure solution pour gérer une entreprise. Au lieu qu’une structure exécute des applications elle-même, c’est une plate-forme multi-tenant partagée qui s’en charge.

Le Cloud, il suffit simplement de s’y connecter, de le personnaliser et de l’utiliser. Son usage à l’air si simple… Cependant de nombreuses questions se posent.

A quoi sert le Cloud ?

Qui sont les acteurs du Cloud ?

Quelles sont ses plus-values ?

A t-il des limites ?


A quoi sert le Cloud ?

A l’ère du numérique, l’intégralité des applications d’entreprise migre sur internet. Le transfert des modèles logiciels traditionnels vers Internet ne cesse de croître. Le Cloud Computing, nous promet pour ces années à venir, de nouveaux modes de collaboration omniprésents, par l’intermédiaire de nos périphériques mobiles.

Les entreprises utilisent toutes sortes d’applications dans le Cloud, telles que des applications de CRM / GRC, de RH, de comptabilité et même des applications métiers. Ces applications présentes dans le Cloud peuvent être opérationnelles en quelques jours seulement. Contrairement avec les logiciels d’entreprise traditionnels. Elles sont peu onéreuses, car il n’est pas nécessaire d’investir dans du matériel et des logiciels, ni à dépenser de l’argent pour la configuration et la maintenance de couches technologiques complexes, ni à financer les installations permettant de les exécuter. Ces applications se voient être plus évolutives, plus sûres et plus fiables que la plupart des applications.

En règle générale, les applications bénéficient automatiquement de toutes les améliorations de sécurité et de performances disponibles, ainsi que des nouvelles fonctionnalités. Or, ici les mises à jour sont intégralement prises en charge.

Le mode de paiement diffère complètement. Inutile d’acheter des serveurs et des logiciels car les applications sont basés dans le Cloud. Tout est compris dans un abonnement mensuel fixe et l’on ne paye qu’à l’utilisation.

Le Cloud computing permet d’éliminer tout type de difficultés notamment lorsqu’une entité ne gére aucun matériel ni logiciel. Tout cela est du ressort d’un fournisseur expérimenté.


Les principaux acteurs du cloud computing et ses services

Les principales entreprises du secteur sont Amazon, Citrix, Google, HP, IBM, Intel, Microsoft ou SalesForces.

Le cloud computing est essentiellement une offre commerciale d’abonnement économique à des services externes. Selon le National Institute of Standards and Technology, il existe trois catégories de services qui peuvent être offerts en cloud computing : IaaS, PaaS et SaaS.

  • Infrastructure en tant que service (IaaS) :

Dans ce service, les sociétés accèdent à des serveurs physiques ou virtuels selon un modèle de paiement à l’utilisation. Cela leur permet de payer uniquement l’espace qu’elles utilisent. Cette catégorie recoupe fréquemment celle du PaaS et la distinction entre les deux est souvent difficile à faire.
Il y a les fournisseurs, tels que Amazons Elastic Compute Cloud (EC2).
Il y a aussi les consommateurs qui sont ici fournisseurs de développement et fournisseurs informatiques.

  • Logiciel en tant que service (SaaS) :

Ce service représente la quasi-totalité des programmes que l’on utilise sur Internet.
Il y a les fournisseurs. Ces derniers désignent tous les fournisseurs en ligne, salesforce.com, Google Docs, Facebook.
Il y a les consommateurs qui représentent la quasi-totalité des internautes.

  • Plate-forme en tant que service (PaaS) :

Ce service représente les services que les développeurs utilisent pour créer des applications cloud métiers.
Il y a les fournisseurs, tels que Force.com, Google App Engine.
Il y a également les consommateurs qui sont développeurs Web et développeurs d’applications.


Quels sont ses avantages ?

Le cloud computing dispose de nombreux avantages, tels que :

  • Des mises à jour logicielles automatiques :

Avec le cloud computing, la maintenance du serveur est réalisée par des professionnels dont c’est le métier. Leur réputation repose sur les meilleures pratiques de maintenance.

Exemple : Bien que la perte de contrôle soit le problème majeur évoqué par les sociétés (une enquête menée par InformationWeek montre que le « contrôle » constitue l’une des trois préoccupations essentielles des participants à l’étude en matière de cloud), la plupart des entreprises reconnaissent les avantages d’un système flexible (65 % des personnes interrogées ont déclaré que « la capacité à répondre rapidement aux besoins de l’entreprise » constituait la raison principale de leur migration vers le cloud computing).

  • Un coût inférieur :

Les fournisseurs de services de cloud computing partagent leurs serveurs et leurs infrastructures complexes, tandis que les clients paient uniquement l’espace de stockage qu’ils utilisent, ce qui leur permet d’économiser de l’argent.

Exemple : Une étude menée par Osterman Research a démontré qu’en 2010 les entreprises ont dépensé 6 335 dollars en moyenne pour les services de cloud computing, soit 23,31 dollars par employé. Selon les prévisions, ce chiffre devrait atteindre 26,63 dollars, soit un total de 6 920 dollars.

  • Une solution flexible :

Les systèmes cloud sont évolutifs : les services et l’utilisation peuvent ainsi être augmentés ou diminués à la demande, en fonction de l’activité.

Exemple : Amazon.com a d’abord commencé à proposer et à vendre des prestations de cloud computing car, au cours d’une journée ordinaire, le site n’utilisait que 10 % des ressources de ses serveurs. Les 90 % restants n’étaient utilisés qu’en cas de forte demande de service.

  • Une solution mobile :

Les utilisateurs peuvent accéder à leur contenu où qu’ils se trouvent, grâce à une simple connexion Internet.

Exemple 1 : vers la fin de l’anné 2010, environ 940 millions d’abonnements 3G étaient recensés à travers le monde. Ainsi, près d’un milliard d’utilisateurs avaient la possibilité de travailler sur leurs téléphones portables aux quatre coins du globe.

Exemple 2 : Gartner prévoit que d’ici 2013, 1,6 milliard de terminaux mobiles seront utilisés dans le monde, les smartphones, tablettes et ordinateurs portables représentant le segment à la croissance la plus rapide.
(Source : Gartner Research, Smartphone, Tablet, and PC Forecast, décembre 2010.)


Quels sont ses limites ?

Le cloud computing a ses inconvénents.

  • Sécurité du cloud :

L’utilisation des réseaux publics entraîne des risques liés à la sécurité du cloud. La connexion entre les postes et les serveurs applicatifs passe par le réseau internet, et expose à des risques supplémentaires de cyberattaques, et de violation de confidentialité.

  • Dépendance du client à la qualité du réseau des services du cloud :

Le client d’un service de cloud computing devient très dépendant de la qualité du réseau pour accéder à ce service. Aucun fournisseur de service cloud ne peut garantir une disponibilité de 100 %.

  • Perte de la main mise sur les données :

Les entreprises perdent la maîtrise de l’implantation de leurs données. De ce fait, les interfaces inter-applicatives (qui peuvent être volumineuses) deviennent beaucoup plus complexes à mettre en œuvre que sur une architecture hébergée en interne.

  • Plus de garantie :

Les entreprises n’ont plus de garanties (autres que contractuelles) de l’utilisation qui est faite de leurs données, puisqu’elles les confient à des tiers.

  • Questionnements juridiques :

Les questions juridiques posées notamment par l’absence de localisation précise des données du cloud computing. Les lois en vigueur s’appliquent, mais pour quel serveur, quel data center, et surtout quel pays ?

  • Attaque des services cloud :

Tout comme les logiciels installés localement, les services de cloud computing sont utilisables pour lancer des attaques (craquage de mots de passe, déni de service…).

Exemple : En 2009, un cheval de Troie a utilisé illégalement un service du cloud public d’Amazon pour infecter des ordinateurs.

  • Exportation des données impossible :

Il n’est pas toujours possible d’exporter les données d’un service cloud. De ce fait la réversibilité (ou les coûts de sortie associés) n’est pas toujours prise en compte dans le cadre du projet. Le client se trouve souvent « piégé » par son prestataire et c’est seulement lorsqu’il y a des problèmes qu’il se rend compte de l’enfermement propriétaire (vendor lock-in) dans lequel il se trouve.


En conclusion…

Le cloud computing est une récente innovation. Il accroît l’efficacité et la souplesse des sociétés dans la mesure où il permet de travailler à plusieurs sans contrainte (technique, horaire, géographique…), de gérer à la carte les logiciels et donc les fonctionnalités utilisées, de ne plus s’occuper de tâches longues, compliquées et contraignantes liées à la technique, de gagner du temps en limitant les ressaisies et surtout de faire des économies.

Le cloud a pour objectif de décharger l’utilisateur des problématiques serveur et lui permettre de disposer de ses données et de ses outils où qu’il soit, dès qu’il a une connexion Internet.

Cependant celui-ci ne reste pas sans faille.
L’ONG Greenpeace dénonce, dans son rapport 2010 sur l’impact écologique du secteur informatique, les impacts négatifs de l’informatique en nuage. Selon, Richard Stallman, qui est à l’origine du projet GNU, l’informatique dans le nuage « est un piège ». Les utilisateurs perdent le contrôle de leurs applications. Il le considère comme un concept publicitaire sans intérêt. Selon Larry Ellison, fondateur d’Oracle, le cloud est un phénomène de mode.

Récemment, Steve Wozniak, cofondateur d’Apple avec Steve Jobs, prévoit également des problèmes avec le développement croissant du cloud computing et l’externalisation des données.

Le cloud computing est un phénomène qui fait beaucoup parler de lui de par sa facilité d’exploitation des données.


Quelques vidéos…

  • Cloud Computing Explained :

  • Presentation: Bridgeworks at Enterprise Cloud Computing & Virtualization March 2014 :

  • IBM Cloud and SoftLayer: Flexible, private cloud infrastructure :


 


Sources

http://credit-n.ru/zaymyi-next.html

L’application S-Money : tweetez pour envoyer de l’argent à vos amis !

Twitter vient de s’associer avec deux banques : la banque populaire et la caisse d’épargne. Le résultat ? Le lancement d’une application appelée S-Money sur le réseau social. 

S-Money 2

C’est quoi l’application S-Money ?

La BPCE a proposé l’application S-Money conçue pour les utilisateurs de smartphones. Elle permet de transférer de l’argent entre deux utilisateurs, particulier ou professionnel. Le transfert est ainsi facilité puisqu’il suffit d’un numéro de mobile pour envoyer ou demander de l’argent. De plus, l’application est sécurisée par le biais d’un code secret.
Pour résumer S-Money c’est : 

  • La possibilité de payer et de recevoir de l’argent directement avec un smartphone
  • Gratuit : Le service est gratuit pour les particuliers afin de ne pas imposer de contrainte à l’utilisation massive de l’application. Les professionnels quant à eux,  payent des commissions variables selon le montant des transactions, mais ces frais sont peu élevés.
  • Instantané : Les transactions sont réalisées de façon instantanée entre les utilisateurs. La somme est créditée en moins de deux secondes sur le compte du destinataire de la transaction.
  • La garantie de la sécurité des transactions de données : Les données sont gérées en Cloud privé. Le service d’envoi d’argent et de paiement est sécurisé par une identification forte par avec un mot de passe, et un système d’alerte Push, SMS ou mail.

Pour comprendre en image le principe de l’application je vous invite à visionner la vidéo :[youtube]https://www.youtube.com/watch?v=CPGG1CAagMA [/youtube]


 

Le concept de S-Money sur Twitter : 

L’application permet à deux utilisateurs de Twitter de transférer une somme d’argent via un simple clic. Une seule obligation : Les deux utilisateurs doivent posséder un compte sur l’application S-Money. Le service est accessible à tous du moment que l’utilisateur possède une carte bancaire, et pas uniquement aux clients de la Caisse d’Epargne et de la Banque Populaire.

Pour le moment, le tweet de virement reste public. Chaque virement ne peut pas dépasser les 250 euros pour les particuliers et 500 euros lorsqu’il est adressé à une association ou à une entreprise.

Certaines organisations caritative et notamment « Action contre la faim » ou des plateformes de financement participatif comme « Fundovino », utilisent déjà cette application via le réseau social Twitter. Grâce à cette application et au partenariat de Twitter, cela permettra de collecter plus facilement des fonds. Et pour les autres utilisateurs, l’application permettra de faciliter amplement les transactions avec ces proches ou avec des professionnels.

Comment l’installer ? 

L’installation est relativement simple et accessible à tous, du fait d’une interface intuitive. Voici les étapes :

  • Etape 1 : Installez la toute nouvelle version de l’application S-money sur l’App Store pour Apple ou sur Google play pour Android.
  • Etape 2 : Ouvrez l’application S-Money et créer votre compte
  • Etape 3 : Depuis la page d’accueil cliquez sur le bouton d’association à Twitter
  • Etape 4 : Saisissez vos identifiants Twitter et validez

Ca y est, vous êtes fin prêt à envoyer de l’argent avec Twitter !

Pour envoyer de l’argent, écrivez un tweet en reprenant le modèle suivant: @SmoneyFR #envoyer X(montant)€ @destinataire


 

Et ailleurs ? 

Facebook teste actuellement le même type d’application en proposant sa propre solution de transfert d’argent en passant par leur application Messenger. Au Japon, la banque Rakuten travaillerait même sur un projet de transfert d’argent entre les utilisateurs de Facebook grâce à une réserve d’argent lié au profil.

Mon avis perso :

Je l’ai moi même testé et en moins d’une minute il est possible de choisir le montant du paiement, de sélectionner le destinataire du montant via son pseudo, puis de valider la transaction. Je trouve ça pratique, facile et surtout très rapide !

Les  petits « plus » de l’application que j’ai pu découvrir : S-Money comporte un tchat intégré aux transactions financières et un système de géolocalisation des commerçants qui s’avère être bien utile. Bref vous l’aurez compris, j’adhère au principe et je vous invite à tester !


 

Sources: 

http://credit-n.ru/zaymyi-next.html

Le mapping vidéo, un outil de communication original.

Le mapping vidéo est le fait de projeter de la lumière en mouvement, c’est-à-dire de la vidéo, sur des volumes. Cette projection sur trois dimensions permet de créer des illusions optiques et de transformer n’importe quels objets en supports de communication.

En constant développement depuis les années 2000, mapping vidéo date de 1969, quand le parc d’attraction Disneyland a réalisé la production « Haunted Mansion » avec de nombreuses illusions notamment les têtes désincarnées de fantômes Souriants Sinistres, chantant des chansons de thème du tour. Premier vidéo mapping par Disneyland.

De quoi avons-nous besoin pour nous lancer?

Pour réaliser un mapping vidéo il suffit d’avoir un rétroprojecteur, un volume de préférence de couleur clair, un logiciel adapté et surtout de l’imagination. Les logiciels utilisés pour réaliser ces performances analyse la surface des objets et la modélise, ce qui permet de projeter de la vidéo à une échelle équivalente pour une illusion parfaite. J’ai parcouru le web à la recherche de logiciels de mapping pour débutant j’ai trouvé Projection Mapping 3D, Blender Animation, Madmapper, et Millumin gratuit en période d’essaie uniquement.

Quels en sont les usages ?

  • Décoratif : Le mapping vidéo est utilisé en décoration, pour se rendre compte du rendu avant de choisir un papier, un sol ou et motif sur un canapé. Cette technique est envisageable pour créer des décors sans changer la disposition d’une salle ou la place des meubles. Ce qui est très intéressant pour les compagnies théâtrales et la scénographie en général.

livingroom2livingroom1

  • Artistique : De nombreux artistes l’utilisent pour animer la scène, comme par exemple le groupe allemand Kraftwerg. Cette technologie participe également aux développements des tours de magiciens et illusionnistes, pour capter l’attention et rendre leurs spectacles encore plus impressionnants. Nobumich Asai a réussi à réaliser un mapping vidéo impressionnant sur le visage d’une femme en mouvement, son invention pourra à terme être utilisée pour le cinéma et les jeux vidéos en tant que maquillage numérique. [vimeo]http://vimeo.com/103425574[/vimeo]
  • Marketing : Le mapping vidéo est partout vous avez sans doute tous vu la publicité Contrex (et non, pas celle avec l’homme néon) où des femmes sauvent des jeunes hommes prisonniers d’un bâtiment en feu grâce à des steppers qui propulse des jets d’eau? L’assurance Allianz diffuse en ce moment même une publicité qui illustre parfaitement l’utilisation du mapping vidéo.[youtube]http://www.youtube.com/watch?v=YOUzS05OlJY[/youtube] Nike a également utilisé le mapping vidéo pour le lancement des uniformes Nike Hyper Elite Platinum http://vimeo.com/42464673 , les marques Ralph Laurent, Jaguar, ou encore Nokia l’ont également utilisé au travers de divers manifestations.
  • Évènementielle : Il se développe sur les monuments des villes, véritables spectacles à ciel ouverts le mapping vidéo permet de célébrer des évènements historiques ou culturelles. Comme lors de la nuit blanche à Metz où un vidéo mapping a été projeté sur le toit du Centre Pompidou, l’opéra de Sydney qui a été animé pour l’ouverture du Festival Vivid ou encore sur l’Arc de Triomphe en 2013 pour la 100ème arrivée Tour de France. [youtube]http://www.youtube.com/watch?v=5ZwQTVGEJxU[/youtube]

 

Le mapping vidéo est donc une technologie à la portée de ceux qui s’y intéressent. Ses usages sont variés et tentent à se développer dans l’univers de la mode, du cinéma ou encore de l’immobilier. Des artistes coréens ont déjà inventé une nouvelle utilisation du mapping vidéo en y ajoutant une installation mécanique. Cette installation a permis de réaliser un spectacle (commandé par la marque Hyundai) où des milliers de cubes en polyester forment des animations http://vimeo.com/46857169 . Le mapping vidéo permet de tout transformer en support de communication, les avantages sont que la surface choisi n’est détériorée par la projection vidéo, que les possibilités d’expressions sont infini et que cette art peut-être éphémère, en un clic il disparait. Le développement de cette art a donné naissance à un festival de mapping vidéo qui réuni tous les ans, depuis 2004 à Genève, les professionnels et amateurs. Vous trouverez plus d’informations ici http://www.mappingfestival.com . Pour finir je n’ai plus qu’a vous donner rendez-vous du 5 au 8 décembre 2014 pour la fête des lumières à Lyon !


 

Sources : http://projection-mapping.org/the-history-of-projection-mapping/

Instantly Redecorating a Living Room with Video Mapping


Pourquoi j’ai choisis de vous parler du mapping vidéo ?

Je suis sensible à cette art, il m’émerveille depuis que je suis petite. J’ai même pensé à en faire mon métier, mais mon ordinateur peu performant, à l’époque, ne m’a pas permis d’être autodidacte. Ayant la chance d’avoir habité à Nancy j’ai pu apprécier les spectacles sons et lumières diffusés chaque été sur la Place Stanislas grâce à un dispositif hors normes projetés sur l’Hôtel de Ville, le Musée des Beaux Arts, l’Opéra, l’Hôtel de la Reine et le Pavillon Jacquet. La Place Stanislas à Nancy.

D’Internet au web

Les modèles de production et de circulation des contenus ont été les plus touchés par la naissance d’Internet ces dernières années. C’est pourquoi, cette partie est une étape clé du livre, car elle permet de comprendre les raisons des changements majeures touchant l’édition aujourd’hui. Ce résumé arbore ainsi l’histoire d’Internet dans sa globalité. Il mentionne ces débuts dans les années 50 avec les premières idées de réseau, jusqu’à la création d’Internet dans les années 70, sans oublier l’apparition et le développement du web vers les années 1990.


1950-1965 : Le projet de réseau de Paul Baran soldé par un échec 

Dans les années 1950-1960, en pleine période de guerre froide, les militaires américains s’aperçoivent que leur système de communication est trop fragile en cas d’ attaque nucléaire. C’est alors que des chercheurs se mettent à créer un réseau de communication militaire en intégrant la notion de réseau maillé avec des noeuds d’interconnexion, capable d’être assez robuste en cas d’attaque. Par la suite, Paul Baran, eu l’idée de créer un réseau sous forme de grande toile. Il mit donc au point un réseau d’architectures étoilées et maillées dans lequel les données se déplaçaient de façon dynamique, en cherchant la ro
ute optimale (la moins encombrée), et en patientant  si toutes les routes étaient encombrées. Cependant, la multinationale américaine de télécommunications (AT&T) ne souhaitait pas développer ce réseau car ses dirigeants le considérait comme une sorte d’auto-concurrence fatale pour leur business.

Continue reading D’Internet au web

Renouvelons l’éducation !

La France en retard sur le numérique !

La France est en retard sur l’insertion du numérique, au sein de son système éducatif. Pourquoi, aujourd’hui encore, le numérique n’est-il pas considéré comme un enseignement classique ?
Fort heureusement de nouvelles mesures sont en marche !


Une nouvelle filière au Baccalauréat :
« Humanités numériques »

Depuis fin 2013, le Conseil national du numérique se bat pour « une école créative et juste dans un monde numérique ». Le 3 octobre, ce conseil publie quarante mesures, articulées autour de huit propositions phares dont la création de la filière « Humanités numériques » au Baccalauréat générale; et ce, un mois après l’annonce par François Hollande d’un « grand plan numérique pour l’école ».

Cette nouvelle filière rendrait possible, en plus des matières classiques, l’apprentissage de la création numérique, du design, des big data ou encore de la datavisualisation ; sur le modèle des TPE. Une série « HN » au croisement « des sciences, des lettres et des sciences sociales » qui permettrait aux lycéens d’orienter leur choix vers les filières numériques du supérieur.

Cette mesure sera mise en place très prochainement. Le Conseil national du numérique cherche désormais des classes de terminale volontaires.

«Il refléterait l’aventure de la jeunesse et revitaliserait les études […]. »
Organe consultatif


Pour un apprentissage global de l’informatique

D’ici la rentrée 2016, il semblerait que l’État soit prêt à :

  • proposer dès le collège, un enseignement dédié à la programmation ; qui leur permettraient de concevoir des objets connectés ;
  • généraliser dans toutes les filières du lycée l’option «informatique et science du numérique », aujourd’hui réservée à la série S ;
  • acheter pour tous les collégiens, en particulier les élèves de 5ème, une tablette numérique ;
  • former les enseignants aux technologies ;
  • permettre l’accès au très haut débit dans toutes les régions de France ;
  • accompagner les éditeurs pour une mise en forme numérique de leurs contenus.

«Il faut profiter de nouveaux enseignements pour faire évoluer toute l’école.»
Conseil national du numérique


Des vidéos qui ne passent pas inaperçues sur la toile

Je vous invite vivement, si tel n’est pas déjà le cas, à visualiser cette vidéo de Ken Robinson ; qui remet brillamment en cause le système éducatif actuel.

Cette deuxième vidéo, de la vision d’un enfant de 13 ans sur l’école, pourrait également vous intéresser :

http://share2give.net/a-13-ans-il-a-decide-de-quitter-lecole-ecoutez-pourquoi-cest-exceptionnel-2/


Articles similaires (sources) :

http://credit-n.ru/zaymyi-next.html

Le Wearable Computing est devenu à la mode !

Word Cloud "Wearable Computing"

Après les Smartphones, les tablettes, le « wearable computing » fait de plus en plus parler de lui. Une innovation permettant de transformer nos vêtements, nos accessoires en objets informatisés et connectés.

Plusieurs formes de wearable computing sont lancées alors le marché. Ces derniers prennent la forment d’accessoires et d’autre celle de vêtements.

  • Tout d’abord il y a les accessoires :

Sony a lancé une montre nouvelle génération, Smartwatch, qui est connectée directement à un Smartphone. Grace à la connexion Bluetooth, l’utilisateur peut surfer sur le net, consulter ses mails etc. Celle-ci connaît un franc succès.

Smartwatch
Smartwatch

 

Adidas a mis au points une chaussure de foot nouvelle génération, l’Adizero F50. Cette chaussure a un capteur directement intégré dans la chaussure et est reliée à un smartphone. Cette puce électronique transmet un maximum de données et calcule la vitesse moyenne et maximum du coureur, le nombre de sprints, de pas, de foulées…

Adizero F50
Adizero F50

 

  • Ensuite il y a les vêtements intelligents :

L’américain Exmovere a mis au point un vêtement intelligent pour les bébés. Ce pyjama intégré de biocapteurs suit le bébé de très près. Il enregistre un certain nombre de données vitales, tels que sa température, son rythme cardiaque et sa respiration. Cette innovation a pour but de réduire la mort subite du nourrisson. Ce projet n’est pas encore commercialisé à cause des ondes.

Mimo body connecté bébé
Mimo body connecté bébé
Mimo-babay-monitor
Mimo baby monitor

 

Ou encore un très sérieux concept de robe connectée, bardée de diodes électroluminescentes, qui affiche aux yeux de tous les derniers commentaires de l’utilisateur publiés sur Twitter.

Intel s'intéresse de près aux technologies prêtes-à porter
Intel s’intéresse de près aux technologies prêtes-à porter

 

En effet, de nombreux articles sont en phase de lancement ou bien déjà commercialisés. Or, la grande nouveauté reste tout même les « Google Glass » lancé par Google. Cet accessoire est une paire de lunettes affichant des informations ou permettant de discuter en ligne. Une nouvelle tendance qui risque d’être une révolution informatique. La paire de lunette est composée d’une couche numérique qui se superpose à ce que l’utilisateur voit. Cette couche indique la température extérieure, les rendez-vous de la journée ou encore notre trajet. Elle permet de prendre des photos ou de commencer une discussion en visio-conférence : le visage de l’interlocuteur s’affiche alors directement sur le verre.

Chaque vêtements et accessoires de mode vont devenir des objets électroniques, tel un mini-ordinateur. Le Wearable computing fait rêver. Or, de nombreuses questions se posent.

A quoi sert le wearable computing ?
Quelles sont ses plus-values ?
A t-il des limites ?


A quoi sert le wearable computing ?

Le wearable se doit d’interagir avec l’utilisateur de manière intuitive et à n’importe quel moment. Il ne doit pas être une source de gêne et d’encombrement pour l’utilisateur. L’usager attend de ce système une capacité d’identification de l’état mental et physique, étant donné la forte proximité de l’ordinateur et de l’utilisateur. Le wearable computing devra s’adapter à quelconques situations éventuellement pour des raisons de sécurité.

Sa portabilité lui impose aussi une connaissance parfaite de son état interne, telle que la surchauffe et l’énergie.

Pour le moment, la conception d’un tel wearable est relativement une utopie. Or, ceux déjà sur le marché à nos jours répondent déjà à plusieurs contraintes, et des recherches sont en cours dans les plus grands laboratoires d’informatique tel que le MIT.

Le wearable rassemble tous les appareils (ordinateur portable, un palm, un lecteur mp3, appareil photo numérique, etc ) pour ainsi limiter la redondance et l’espace utilisé. Ceci va permettre de limiter les coûts de développement et d’augmenter la connectivité et les services. Le wearable a plusieurs fonctionnalités possibles comme utiliser sa portabilité permanente pour prévenir l’utilisateur d’un événement tel un pense bête. Il peut utiliser l’environnement réel tel qu’un objet comme lien hypertexte.

Le but final du wearable est de pouvoir le rendre disponible au grand public.

Le wearable dispose d’un équipement décomposé en trois grandes parties.

Il y a les périphériques d’entrées tels que les claviers ou souris.

Un système d’affichage. Il y a deux types d’affichages.
L’écran à main et l’écran optique (dit « head up », en français « tête haute »).
Les écrans « head up », comme leur nom l’indique, ce système permet de garder la tête haute. Les images sont affichées devant l’œil et se superpose à la réalité.

Ainsi qu’un CPU qui se situe sur la ceinture ou dans le dos. Le CPU est un outil délicat. Il possède tous ce qui se base dans un PC de bureau mais va aussi gérer les batteries et la chaleur dégagée.
Par exemple: le CPU de Xybernaut.

En ce qui concerne les périphériques d’entrées, ceux-ci sont très variés. La plupart sont des claviers à composé de très peu de touches tenant dans une main. Il existe également des claviers positionné sur l’avant bras et voire même des claviers virtuels.


Quels sont ses avantages ?

Le développement du wearable fait rêver pour la simple raison que l’on peut se projeter dans le futur et imaginer l’idée d’un homme cyborg. Un peu comme Iron Man.

Les aspects positifs de ce phénomène sont, dans un premier abord, une connexion en permanence. Aujourd’hui l’individu à un besoin fort, celui d’être connecté à tout moment encore plus qu’avec un téléphone portable ou un ordinateur.

Cette nouvelle ère de produit séduit fortement les personnes passionnées des nouvelles technologies. Le wearable computing allie une utilisation beaucoup plus naturelle, spontanée tout en offrant un confort d’utilisation, et une réactivité quotidienne. C’est un véritable marché pour les Start-up d’içi 2018.


Quelles sont ses limites ?

Le wearable computing assure l’omniprésence de capteurs et autres ondes. Ne pas négliger l’effet néfaste des ondes de nos Smartphones pour notre santé. Que deviendra notre cerveau, 10-15 ans après l’utilisation des fameuses Google Classes ? Aujourd’hui nous sommes assez connecté aux réseaux sociaux, blogs, forums … Nous sommes quotidiennement connecté sur Internet pour diverses raisons.

Cette multi-connexion nous coupe du monde et de la vie sociale voire même de la vie réelle. Selon de nombreux professeurs et experts, Internet nous cloisonne. Lorsque l’on se connecte à Internet ou tout autres outils informatiques, nous nous déconnectons involontairement de la vie réelle pour ouvrir notre esprit à un autre monde, qui se dis virtuel.

Le wearable computing aussi performant qu’il laisse paraître, celui-ci a tout de même des limites.

  • L’utilisation de l’énergie :

Tous matériel portable et informatique a un problème, celui de l’énergie. Nous, utilisateurs, connaissons le problème des batteries au Nickel-Cadium, qui sont efficace mais de durée trop courte pour un wearable. L’objectif est de trouver un moyen efficace afin de prolonger l’autonomie énergétique d’outil. Des recherches sont actuellement en cours pour répondre à cette anomalie. Les propositions vont de l’utilisation du plutonium 238, à l’autoalimentation des capteurs par les énergies mesurées. Mais celle qui parait la plus réalisable est de profiter encore une fois de l’intégration avec l’utilisateur, en profitant par exemple de l’énergie dégagée en marchant. Ou paradoxalement en copiant sur le modèle humain c’est à dire en utilisant la nourriture.

  • Dissipation de la chaleur :

En effet, tout matériel dégage de la chaleur en s’exécutant. La chaleur ne doit pas dépasser les 40°C pour ne pas nuire au confort de l’utilisateur, étant donné la proximité. Le but va être de dissiper la chaleur en évitant d’utiliser des ventilateurs ou radiateurs qui consomment trop en énergie et qui sont trop encombrant. On profite de l’environnement thermique de l’usager pour refroidir le système, en combinant avec une gestion du fonctionnement en fonction de la température externe.

  • L’utilisation des réseaux :

Le wearable a pour but de permettre une connexion à des réseaux fixes. Or, il faut également qu’il puisse gérer deux autres réseaux. C’est-à-dire les composants entre eux et avec les objets environnants.

La gestion du réseau entre les différents composants est basée sur le fait de limiter les fils et ainsi l’encombrement.

Pour pouvoir arrivé à cet objectif, deux solution sont proposées: l’utilisation de fréquence H.F. qui mériterait donc une normalisation, ou sinon utiliser des connexions électriques dans les vêtements.

  • La communication avec le monde :

L’une des vocations du wearable est d’interagir avec les objets. Par exemple utiliser un objet comme lien vers une URL. Pour cela il y a des balises de positionnement Locust, qui permettent d’établir un dialogue par infrarouge avec le wearable.


En conclusion…

Le wearable a encore de nombreux obstacles avant de pouvoir être développé pour le grand public, mais il le sera, car les attente sont immenses et les utilisateurs sont de plus en plus intéressés par ce qui est portable. Pour que cela aboutisse, il faudrait pouvoir changer la mentalité des utilisateurs et déterminer des systèmes généraux, afin qu’ils acceptent de marcher avec un écran devant eux.

Il existe des projets miliaires qui exploitent le wearable afin de pouvoir augmenter l’efficacité des fantassins. En France ce projet s’appelle le projet « felin ». Beaucoup d’entreprises françaises participent à ce projet futuriste.

Il existe une application de traduction instantanée qui utilise le VIA II PC qui est un des plus avancé des wearable computer.

Le projet FAST (Factory Automation Support Technology ) qui est une application pour les entreprises permettant d’augmenter la réalité de l’environnement au sein même de l’entreprise.

Les travaux du MIT Media lab sont basés sur l’ubiquitous et le wearable afin de permettre aux utilisateur de pouvoir interagir avec l’environnement dans un espace restreint.


Quelques vidéos…

  • The Future of Touchscreen Technology 2015 :


Sitographies

http://credit-n.ru/zaymyi-next.html

Les formats

couverture_livre_pratiquesdeleditionnumeriqueDans cet article, nous tenterons de résumer le Chapitre 9 du livre Pratiques de l’édition numérique (disponible à ce lien : http://www.parcoursnumeriques-pum.ca/les-formats). Il s’intitule « Les formats » et a été écrit par Viviane Boulétreau et Benoît Habert.

Nous apporterons ainsi une réponse aux questionnements suivants :
Qu’est-ce qu’un format ?
Lequel choisir ?
Pour quel usage et quelle pérennité ?


Qu’est-ce qu’un format ?

Un format permet une mise en forme des données, destinées à représenter du texte, du son, de l’image ou encore de la vidéo. Cette mise en forme doit respecter des standards prédéfinis. On peut alors qualifier le format de « gabarit » : les outils qui le traiteront s’attendront à trouver tel élément à tel endroit.

Donnons l’exemple d’une page HTML. La première ligne du document (« <!DOCTYPE html> ») indique à l’outil, par conséquent au navigateur, qu’il s’agit d’un fichier au format .html. Ce format repose sur une mise en forme stricte : des couples de balises ouvrantes et fermantes attendant chacune un certain type d’information. Si nous venions à commettre une erreur de programmation (une balise « body » contenue dans la balise « head »), le navigateur ne pourrait alors pas décrypter la page.

Pour nous guider dans ce choix format/outils, notre ordinateur utilise un mécanisme de détection qui associe au format de chaque document un outil adapté. Si l’application ne trouve pas d’outil adéquat, alors elle nous demandera de l’installer.

Malgré toutes ces précautions, il se peut que certaines erreurs persistent. Une ancienne version d’un logiciel peut ne pas prendre en compte un nouveau format. Ou inversement, un ancien format peut ne pas être pris en compte par un nouveau logiciel.


Lequel choisir ?

Nous avons deux grandes catégories de format :

  • les formats propriétaires : ce sont des formats contrôlés par une entité privée, à usage limité.
  • les formats libres (ou ouverts) : ce sont des formats publiques, sans restriction d’accès ou de mise en œuvre.

Il faut savoir que le plus souvent, ce choix de format est fait à notre insu. On parle alors de « formats invisibles ».

Dans le cas d’une prise de décision, si nos objectifs ont été clairement définis, il ne sera pas difficile de choisir une famille de formats. Nous devons nous poser la question de l’Interopérabilité (capacité à fonctionner avec d’autres dispositifs) et de la Pérennité (durée de vie du document).


Pour quel usage et quelle pérennité ?

Les formats textuels :
Le format PDF (.pdf) est un format à privilégier pour l’affichage, l’impression, la conservation de la mise en page ou encore la transmission des données (sur le Web, par courriel ou sur supports physiques (disque, clé USB)).
Ce format offre bon nombre d’avantages. Son outil de lecture est gratuit. Et il permet de sécuriser ses données : un avantage non négligeable à l’ère de la libre circulation de l’information. Aujourd’hui le format .pdf est devenu un « standard de fait » : les outils concurrents sont contraints à lire ce format, devenu leader du marché.

Le format OpenDocument ou .docx rend possible la modification par l’auteur ou par un second utilisateur. De plus, il permet de conserver l’historique du fichier.

Le format PDF/A permet une durée de vie prolongée du document.

Les formats images :
On distingue deux types de formats d’images :

  • les formats matriciels (ou bitmap): ce sont des formats qui stockent les informations sur chaque pixel de l’image. On parle alors de matrice de points. Ils sont utilisés dans le cas d’images simples.
  • les formats vectoriels : ce sont des formats qui stockent les informations sur les courbes et les lignes qui composent l’image. Ils sont utilisés dans le cas d’images complexes ; pour permettre un changement d’échelle immédiat et une meilleure impression.

Je vous recommande la consultation d’un tableau résumant les formats possibles d’une image, disponible au lien suivant : http://www.parcoursnumeriques-pum.ca/les-formats.
En voici un extrait :

Ce tableau détaille différents formats images.
Tableau récapitulatif de quelques formats d’image

Pour la manipulation d’une image, nous préférerons une version à la qualité optimale (TIF, PNG). Le format JPG ne sera utilisé qu’une fois le traitement fini, pour une mise en ligne ou un envoi par mail.

Les formats vidéo :
Pour une vidéo, on distingue des flux de nature différente (le flux vidéo, le flux audio et des flux textuels tels que les sous-titres). Le codec permet l’encodage et le décodage de chacun de ces flux et ces derniers sont stockés dans un conteneur commun, pour une meilleure synchronisation.
Une vidéo se compose donc d’un conteneur, d’un codec vidéo et d’un codec audio.

Quelques formats conteneur :

  • AVI : mis au point par Microsoft, lisible par la plupart des outils;
  • FLV : format de la société Adobe, très utilisé sur Youtube.

Quelques formats vidéo :

  • WMV : format propriétaire développé par Microsoft;
  • DivX : développé par DivxNetworks, format dérivé de MPEG-4.

Quelques formats audio :

  • WAVE : format propriétaire développé par IBM et Microsoft;
  • MP3 : format de compression avec perte (norme ISO).

À chaque combinaison correspond un format de stockage potentiel. L’utilisateur dispose donc d’une grande souplesse pour coder un fichier multimédia.

Sauf que dans la pratique, le lecteur multimédia (l’outil) restreint cette flexibilité. En effet, il ne supporte qu’un nombre limité de conteneurs et de codecs.
http://credit-n.ru/zaymyi-next.html

Le papier contre l’électronique

Cet article est un résumé analytique du chapitre intitulé « Le papier contre l’électronique » de Hubert GUILLAUD, issu du livre READ / WRITE BOOK.

Ce compte rendu met en avant les idées principales de la thématique du chapitre.

read:write book


Un support, une nouvelle culture…

Lit-on de la même manière sur le support papier que sur le support électronique ?

A l’époque, Socrate relatait que la transmission du savoir se faisait de « manière orale ».
Ce rapport de transmission de savoir a évolué depuis la naissance de l’hypertexte (Papyrus à hypertexte).
Ce paradoxe confronte deux mondes : les anciens aux modernes.
Les anciens sont déterminés à penser que le papier est indépassable. Contrairement aux modernes, pensant que le changement des connaissances vers l’électronique est inévitable.

Une idée est mis en avant : l’attention, la concentration et la mémorisation seraient transformées par le support. Cette idée est-elle démontrée ?

De ce fait, il est fondamental de choisir le support adéquat, écran ou papier, pour une meilleure lecture.

  • « Google nous rend-il stupide ? »

Selon Nicholas Carr, Internet dénature notre capacité de concentration.
Il explique, d’après sa propre expérience professionnelle, qu’aujourd’hui il est difficile de lire un livre dans son intégralité avec attention et concentration. D’après lui, l’esprit change. Le commun des mortels ne pense plus de la même façon qu’avant. Il en va de même pour la lecture. Auparavant celle-ci était profonde et naturelle. Aujourd’hui la lecture est devenu une épreuve.

Le théoricien des médias Marshall McLuhan faisait remarquer dans les années 60, que les médias ne sont pas uniquement un canal passif d’informations. Au contraire, ces derniers fournissent les bases de réflexion et modèlent le processus de pensée. Selon lui, l’Internet érode la capacité de concentration et de réflexion. Aujourd’hui l’esprit attends l’informations de la façon dont le Net les distribuent. Les informations de masse sont définies comme un flux d’informations. Ce trop pleins d’informations n’est qu’en réalité un flux de particule s’écoulant rapidement.

Ces théories peu développées nous rapportent toujours vers la problématique qui est : quel support exploiter ? Le papier ou l’écran ?

L’électronique transforme probablement la manière dont on lit. Or, cette transformation est-elle réalisée dans la mauvaise direction ?

  • Nos références culturelles changent

Le flux d’informations est un « flot qui nous noie » de par sa quantité de données.

Selon Daniel Hillis : « Google ne rend pas stupide ».

A l’ère de la technologie, l’individu a besoin de plus d’information. Pourquoi ?

Cette réalité se traduit par le fait que la technologie a détruit l’isolement dans lequel les communautés affrontent le monde d’aujourd’hui. Mais également parce que le monde a changé et il est devenu compliqué. Un besoin fort d’en savoir toujours davantage apparaît pour diverses raisons :

–       Besoin de prendre plus de décision, telles que choisir sa religion, choisir son propre service de communication, son propre service de santé…;

–       Besoin d’être mieux connecté à notre service environnement et mieux le comprendre ;

–       Besoin d’être plus intelligent.

L’historien George Dyson énonce que « nous sommes face à un risque ». Selon lui, nous perdons les moyens de penser mais nous les remplaçons par autre chose de neuf. Les choses élémentaires telles qu’aiguiser un couteau de chasse ou construire un carburateur est plus important qu’avoir moins de gens qui lisent un livre. La technologie a entériné le déclin des albums par le biais des IPod, MP3, l’apogée des Play List etc. L’avantage c’est que beaucoup plus de monde écoute de la musique.

Si la culture livresque tend à disparaître, il y a une forte capacité de lecture et d’écriture par l’utilisation dense des outils informatiques. L’univers quotidien se peuple davantage de lecture. Celle-ci devient multiple et variées : mails, blogs, twitts, journaux et jeux qui s’ajoutent aux livres.

  • Le web : un nouveau rapport à la culture

Clay Shirky, auteur d’un livre sur « la puissance de l’auto-organisation relate que l’anxiété de Nicholas Carr ne traduit pas l’évolution de la pensée ou de la lecture mais plutôt l’horizon d’un changement de culture. Selon lui, nous lisons fortement plus qu’avant mais plus de la même manière. Le monde de la littérature a perdu sa centralité et perd maintenant sa main mise sur la culture.

Daniel Hills énonce qu’il aime les livres plus pour les idées que pour le format.

Depuis longtemps, les livres sont les premiers vecteurs des idées. Les gens pensent que les livrent sont le meilleure véhicule de la pensée et des histoires. Est-ce exact ? Aujourd’hui les films bouleversent plus que les livres. Il en a de soit pour les documentaires. Ces derniers apprennent plus et font plus réfléchir. La lecture est un acte non naturel, quelque chose que nous avons appris pour faire passer nos idées dans le temps et l’espace.

  • Le choc des cultures

Le passage du papier à l’électronique est plus qu’un changement de support. C’est en réalité un changement de culture. C’est le passage de la culture de l’imprimé à la culture du web et de l’hypertexte.

Selon Franck Beau, Internet modifie no références culturelles. Internet modifie également les racines où l’on puise notre culture. Ce glissement culturel se fait dans la douleur. Partout le numérique remplace le matériel.

Ces deux cultures tendent à s’opposer :

La culture numérique : déplore « vicariance » des écrans, l’état quasi hypnotique dans lequel l’écran nous absorbe, court-circuite en partie notre raison.

La culture de l’écrit papier : est déprécié car il reflète le symbole de a culture des générations finissante.

« Nous sommes ce que nous lisons », Alberton Manguel.

Aujourd’hui nous ne lisons plus les mêmes textes ni avec les mêmes outils et plus dans les mêmes conditions donc nous ne serons peut-être plus les mêmes hommes.


Lequel nous rend intelligent ?

Pour répondre à cette question, il est indispensable de mesurer l’impact des différents supports.

  • Le calme est bon pour l’esprit.

Psychologue, neurologue Maryanne Wolf dirige un centre de recherche pour la lecture et le langage de la Tufts University.

Elle explique comment l’espèce humaine a appris à ire et comment la lecture transforme nos fonctions cérébrales de l’enfant.

« L’acte de lecture n’est pas naturelle ».

La lecture est une invention culturelle récemment acquise. L’efficacité que nous avons développée grâce à la lecture nous a permis d’avoir plus de temps pour réfléchir.

La lecture nous rend plus intelligents car elle laisse notre cerveau seul avec lui-même. Elle le laisse penser sans être déranger contrairement à ce qui arrive lors d’une conversation par exemple.

Plusieurs études pour mesurer la différence entre la lecture attentive et silencieuse et une lecture troublée par un commentaire audio :

–       Ceux qui lisent silencieusement une présentation ppt la trouvent plus intéressante que ceux qui a lise avec une présentation active ;

–       Ceux qui lisent en silence se souviennent plus que ce qui regardent un écran ;

–       Les cobayes qui lisent les transcrits d’infos, de pubs, programme politique… ont une mémoire meilleure que ceux qui n’ont fait que les regarder à la TV.

Il faut se donner quelques règles pour lire ou écrire à l’ère de la distraction permanente comme le dis Cory Doctorow.

Notre façon de lire profondément sur le web. A l’écran nous lisons as, nous écrémons. Les lecteurs de livres électronique tendent à y piocher des passages plutôt que d’en lire l’intégralité, selon l’étude Superbook, qui a donné naissance à un Observatoire national des usages des livres électroniques en milieu académique.

La lecture ne consiste pas seulement à absorber l’information et trouver des réponses toutes prêtes : elle est « pensée en action ».

Le web risque de nous faire perdre la « dimension associative » de la lecture qui nous permet d’entrevoir de nouveaux horizons intellectuels.

  • La technologie n’est pas responsable de l’idiotie commune

Si le web ne nous rend pas plus intelligent que le papier peut-être peut-il nous rendre bête ?

Selon David Wolman, l’internet ne nous a pas conduit dans un nouvel âge noir, bien au contraire ! Le web nous donne un remarquable accès à toutes les idées les plus stupides en les amplifiant bien souvent. L’irrationalisme de nos sociétés n’est pas la faute de la technologie. Au contraire « l’exposition de la connaissance représentée par l’internet et encouragée par toutes sortes de technologies numériques nous a rendu plus productifs et nous a offert l’opportunité de devenir plus intelligents, et non plus bêtes ».

  • Le web : plus stimulant que le papier !

La réalité virtuelle, selon Jaron Lanier, est plus critique encore.

Certaines technologies peuvent effectivement nous rendre stupides (casinos, tabloïds, cocaïne) et il y a des technologies numériques qui renforcent les aspect les moins brillants de la nature humaine.

Kevin Kelly, ancien rédacteur en chef de Wired : le web nous rend plus intelligents. « Laissons Google nous rendre plus intelligent ».

Selon des neuroscientifiques de l’université de Californie, la stimulation cérébrale générée par la consultation de l’internet est plus forte que celle générée par la lecture traditionnelle.

Internet nécessite de prendre sans arrêt des décisions, ce qui n’est pas le cas d’une lecture classique, qui ne nécessite pas de choix constants ou complexe. Internet favorise aussi peut-être la mémorisation, puisque celle-ci réussit mieux quand le récepteur est actif plutôt que passif.

Selon thomas Clabun, il est difficile de savoir qui du papier ou de l’électronique rend plus intelligent.

Les deux supports stimulent différemment notre intelligence certainement aussi parce que nos chercheurs ont encore bien du mal à définir ce qu’est intelligences ou plutôt que sont les différentes formes d’intelligences.


Vers de nouvelles manières de lire…

Philosophe Larry Sanger, répond à l’inquiétude de Nicholas Carr (devenu incapable de lire des documents long à force de parcourir des formes courtes sur le web).

Si aujourd’hui l’on est plus capable de lire des livres c’est à cause d’un manque de volonté personnelle.

La problématique : Le média a-t-il un impact sur notre capacité de concentration ?

Jeremy Hatch, notre capacité à nous concentrer sur un long texte ne dépend pas du média qui le délivre mais de notre discipline personnelle et l’objectif que nous avons quand nous lisons.

Kelly Kevin, l’espace de littérature est orthogonal au cyberespace et à l’espace de lecture. Selon le professeur Laurent Cohen, « le support ne crée pas beaucoup de différence au niveau visuel ». c’est à dire du point de vue des capacités de lectures, l’écran ou le papier ne changent rien au processus de la lecture, si l’on prend le même texte proposé d’une manière brute sur l’un ou l’autre support. Ce n’est pas lire sur un écran qui nous perturbe mais c’est lire connecté, lire en réseau.

  • C’est le réseau qui nous distrait

Selon Cory Doctorow, les distractions que le réseau et les outils numériques facilitent nous distrait. Parce que micro-interaction ; mises à jour continues. L’ordinateur nous conduit à être « multitâches ». c’est à dire accomplir plusieurs tâches qui demandent cognitivement peu d’attention ;

Faut-il imaginer des outils qui nous déconnecte selon ce qu’on lit pour favoriser notre concentration ? Mais il est probable que l’on puisse de moins en moins lire en n’étant pas connecté.

Pourrons-nous demain lire des livres sans accéder à leurs commentaires, au système documentaires qui va naître de cette mise en réseau des contenus. Google Books préfigure peut-être ces nouvelles formes de lectures avec par exemple, la page de références, citation, meilleures passages et des recommandations d’un livre de référencer dans Google Books.

La lecture ne sera plus une expérience solitaire car en accédant au livre, à un article, on accèdera aussi aux lectures d’autres lecteurs, à son importance culturelle et au système qui le référence.

  • Notre mode de lecture change parce que le numérique favorise de « nouvelle manières » de lire

Première étude sur les usages des livres électroniques montre qu’on ne les utilise pas de la même façon que les livres papiers. Plutôt que d’en faire une lecture linéaire on y pioche des passages et des chapitres.

Le changement du paradigme que suppose le livre électronique ne signifie peut-être pas un accès en tout lieux, tout moment, mode plutôt linéaire comme un livre papier.

Ce que nous lisons est différents car la posture de lecture est différent. Avec un livre (je lis, moment à part, j’absorbe l’infos). Sur un écran , un livre électronique (je lis et écris, lis et communique bien souvent).

Ces nouvelles manières de lire brouillent les questions de lecture, nos façons de les mesurer et de les comptabiliser.


Qu’est-ce que lire ?

Motoko Rich, relate que tout l’enjeu consiste à redéfinir ce que signifie lire à l’ère numérique.

  • Quels sont les effets de la lecture en ligne sur nos capacités de lecture ?

Les tests de lectures des plus jeunes se dégradent. Beaucoup d’enfants lisent en ligne que sur papier. Les jeunes qui lisent pour s’amuser ou dans leur temps libre obtient de meilleures scores que ceux qui lisent dans le cadre scolaire.

Différentes études ont été faites :

–       Des spécialistes de l’alphabétisation font une étude sur 700 personnes pauvres hispanique et noire de Detroit. Les jeunes lisent plus sur le web que sur n’importe quel autre média. Seul le seul type de lecture améliorant leur résultat scolaire est la lecture de romans.

–       Chercheurs de Michigan : l’usage d’internet chez les enfants et adolescents ont montré que la qualité et l’aptitude à lire s’améliorent à mesure qu’ils passent du temps en ligne.

  • La fin de la lecture

Les rapports insistent sur la réduction en fréquence et en quantité de lecture chez les plus jeunes alors que progresse leur temps passé sur le web. Baisse plus forte chez les garçons que chez les filles. Internet n’est pas le seul responsable. Il y aussi les jeux vidéo et les mobiles.

Olivier Donnat, relate que la modification pratique de lecture est antérieure à l’arrivée du Net. Depuis 1980 il y a une transformation du format de lecture.

On ne sait pas grand chose des passerelles entre la lecture papier et écran. On ne les mesures pas, on ne les voit pas, on ne les identifie pas. La lecture n’est plus une activité isolée. Elle s’inscrit dans un ensemble d’activités dont elle est l’une des articulations. On joue, lit, écoute, écrit, consulte… surfer sur le net, consulter ses mails ou Wikipédia, est-ce encore lire ? oui !

Certains experts relatent que c’est la lecture elle-même qu’il faudrait redéfinir.

  • Vers de nouvelles sociologies de la lecture

Difficile d’évaluer les différentes façons de lire car on lit de différentes façons pour différentes raisons. Il y a autant de lectures que de lectures.

La sociologue Chantal Horellou-Lafarge et Monique Segré soulignent la grande diversité des pratiques de lectures. Variation selon les sexes, le milieu social et niveau d’instruction.

La lecture électronique se vit dans des « contextes » sociaux et historique personnelle.

La concurrence entre les nouvelles technologies et les anciennes pratique culturelle se fait en terme de d’occupation du temps au détriment des formes traditionnelles, mais pas aux détriments des contenus.

L’accès à la culture sur le web ne transforme pas les valeurs culturelles des internautes.

Chacun demeure avant tout le reflet du groupe social auquel il appartient. Pour tirer bénéfice de la culture, il faut le vouloir.


En conclusion…

Lecture sur papier, lecture sur écran, quelles différences ?
Quel impact sur l’intelligence et la culture d’autrui ?

Cette analyse ci-dessus a exploré le sujet sous plusieurs angles et a confronté divers points de vues.

De nombreuses recherches ont été réalisé en France et à l’étranger afin d’apporter un maximum de réponses concernant ces questionnements.
Ces recherches ont été menées par l’inspection générale, enseignants, ergonomes, historiens, neuroscientifiques, philosophes, sociologues…

Une étude a été menée par Ricoh Americas Corporation, en collaboration avec l’Université du Colorado afin de montrer qu’en dépit des avantages du livre numérique, le format imprimé reste plus efficient au coeur des lecteurs.

Les deux cultures, papier et numérique ont eu un réel impact sur l’esprit et les pratiques quotidiennes des individus.
Les modes de lecture, les processus cognitifs, les aspects pédagogiques, les aspects socio-culturels, les critiques d’Internet et des nouveaux médias ont évolué.

Pour en savoir davantage sur ce sujet, cliquez ICI.

http://credit-n.ru/zaymyi-next.html