Suivre par Email

lundi 30 septembre 2013

Un programme européen pour stimuler les compétences numériques dans les écoles

En matière de développement du numérique éducatif, "le problème, ce sont les usages, pas les machines", assurait François Bonneau, président de la région Centre et de la commission éducation de l'Association des régions de France, début septembre (voir notre article ci-contre). Voici donc une bonne nouvelle pour lui et pour les collectivités locales en général qui financent l'achat de matériel informatique dans les écoles, collèges et lycées : la Commission européenne lance le programme "Ouvrir l'éducation" avec un nouveau site, "Open Education Europa", "qui permettra aux étudiants, aux professionnels de l'éducation et aux établissements d'enseignement de partager gratuitement des ressources éducatives libres". Le programme vise ainsi à favoriser l’innovation "pour les institutions, les enseignants et les apprenants" et l'utilisation de "ressources éducatives libres". A noter qu'il affiche également pour objectif "l'amélioration de l'infrastructure et de la connectivité des TIC dans les établissements scolaires". Cette initiative conjointe d'Androulla Vassiliou, commissaire européenne à l’Education et de Neelie Kroes, commissaire européenne chargée de la stratégie numérique, part de plusieurs constats, notamment que 50 à 80% des élèves "n'utilisent jamais de manuels scolaires numériques, de logiciels d'exercices, d’émissions radiodiffusées/de podcasts, ni de jeux de simulation ou didactique" alors que l'Europe souffre d'une pénurie de compétences et que "quelque 900.000 postes [sont] vacants dans ce secteur".
Les initiatives de ce programme seront financées par "Erasmus+" et par les fonds structurels de l'UE.

avec ToutEduc 

Publié le lundi 30 septembre 2013

Infographic: 2013 Mobile Growth Statistics




Here are the latest mobile growth statistics for 2013, a complete indepth summary of where the mobile market is now at, including things like mobile phone adoption rates, smartphone penetration rates, most popular mobile browsers, mobile/tablet sales figures, media consumption habits on mobile devices .etc all with the latest 2013 data on the growth of mobile… The infographic was created by the guys at Super Monitoring. Here are a few key statistics;
  • 91% of all people on earth have a mobile phone
  • 56% of people own a smart phone
  • 50% of mobile phone users, use mobile as their primary Internet source
  • 80% of time on mobile is spent inside apps
  • 72% of tablet owners purchase online from their tablets each week

And that’s just a few of the new stats…




Posted by: Aden Hepburn

Tue, Oct 1, 2013

Love in money

Les 7 compétences clés du travail de demain

Michel Serres nous rappelait récemment que l’évolution des technologies nous force à être intelligents. Les technologies révolutionnent en effet notre environnement de travail et nous poussent à développer de nouvelles compétences.

De nombreuses prospectives alimentent le débat et mettent en lumière les compétences qui feront la différence sur le marché du travail de demain. Quelles sont les évolutions dans les compétences distinctives ? Quelles doivent être les priorités en termes de développement des compétences? Essayons de creuser.

Un consensus se dégage autour de 7 compétences

Etre compétent dans son travail requière un savant mix de compétences techniques (les hardskills), comportementales (les softskills), et sectorielles (je maîtrise les enjeux et la culture du secteur d’activité dans lequel j’évolue). Elles sont dépendantes de l’environnement de travail et liées à des performances attendues. Quelles sont donc les compétences qui permettront d’atteindre une meilleure performance dans le monde d’incertitude que nous vivons ?

1. Collaboration à distance

Dans les organisations de plus en plus réticulaires où les équipes sont polymorphes, évolutives, à distance et parfois multiculturelles, où les communautés virtuelles et réseaux sociaux prennent le pas sur les organisations verticales, savoir collaborer et coopérer à distance sera clé. Cela se traduit par :
  • une grande qualité relationnelle : Ecoute, partage, empathie, communication interpersonnelle, être en capacité à se «connecter» aux autres et d’établir des relations riches et sincères. Cela suppose une grande connaissance de soi et des différences de profils psychologiques que l’on peut rencontrer
  • Une maîtrise des outils de collaboration à distance, en synchrone (chat, vidéo-conférence, réunion virtuelle…) et asynchrone (forum, e-portfolio…)
  • Une maîtrise de plusieurs langues (comprenant une parfaite maîtrise de sa langue maternelle et de l’anglais) et une sensibilité aux différences multiculturelles

2. Communication au travers du numérique

Quand on pense au numérique, on pense plus aux outils et aux média (Youtube, twitter, ..) que ce que l’on y fait. Et c’est vrai que la maîtrise des outils est importante. Mais ce n’est pas suffisant. Ce que l’on a appelle l’alphabétisation digitale (« Digital literacy ») passe par 3 compétences complémentaires :
  • Rechercher, accéder, filtrer, et synthétiser les informations pertinentes d’une manière critique et systématique
  • Générer son propre contenu représentant une vraie valeur ajoutée pour les autres au-delà du simple partage. Cela suppose de développer une pensée critique permettant de construire des concepts et donner du sens… pour creuser le sujet, je vous renvoie à lapyramide de Steve Wheeler
  • Produire et diffuser des contenus multimédias adaptés (Blog, videocasts, slideshare…)

3. Agilité et adaptation

La fragmentation des parcours professionnels nous poussera à développer une transversalité en termes d’expertises, de savoirs et d’expériences. Nous serons amenés à nous adapter aux diverses évolutions. L’agilité dont vous ferez preuve et votre capacité à piloter le changement sera alors un facteur clé de succès. Cela implique de développer :
  • une grande tolérance à l’incertitude et aux idées nouvelles
  • ses connaissances dans plusieurs disciplines
  • une grande propension à changer en continu

4. Créativité et sens de l’innovation

La créativité est la capacité à apporter un regard nouveau sur des questions nouvelles. Et elle peut se développer !
  • D’une part par une grande ouverture aux nouvelles formes d’idées, d’expériences qu’elles soient culturelles, artistiques, ou professionnelles
  • Par une maîtrise des outils favorisant la créativité qu’ils soient individuels ou collectifs (questionnement, expérimentation, …)
  • Enfin par un environnement propice à apporter des idées nouvelles et à y consacrer du temps

5. Esprit d’initiative et d’entreprise

Plus que jamais, ce que vous ferez dépendra de vous. La liberté d’entreprendre, en interne ou en externe n’a jamais été aussi grande. L’aptitude d’un individu à passer des idées aux actes nécessite :
  • Une grande motivation. Le meilleur moteur de votre action est la passion. Identifier ce qui vous passionne et vous orienter sur les activités s’y rapprochant sera la meilleure garantie de réussir
  • de la prise de risques
  • une capacité à gérer ses projets en vue de réaliser ses objectifs

6. S’organiser efficacement

La multiplicité des échanges parfois stériles, la masse d’information grandissante, l’appel des distractions et la diversité des projets à mener en parallèle nous forceront à développer une grande productivité personnelle pour pouvoir atteindre nos objectifs, notamment sur 3 points :
  • Le temps restera une ressource rare. Les bonnes pratiques en termes de gestion du temps et des priorités devront être maîtrisées par chacun
  • La gestion de son environnement de travail, qu’il soit à distance ou au bureau, physique ou virtuel doit permettre à chacun d’accéder efficacement à tous les sujets en cours
  • Saisir l’opportunité d’automatiser ses tâches routinières grâce aux différentes applications proposés ou développées par vous. Le codage devrait ainsi rentrer dans les compétences de bases que tout le monde devra maîtriser

7. Apprendre à apprendre

Comme je l’ai évoqué dans un précédent billet, chacun d’entre nous devra dédier au moins 20% de son temps à renouveler ses compétences pour rester employable et s’efforcer de coller à celles requises par l’évolution du marché du travail. Nous devons développer pour cela une culture de l’auto-formation et définir notre stratégie d’apprentissage dans notre écosystème (entreprise, réseaux, écoles, communautés).

Transformer son smartphone en détecteur de séisme



Un article publié dans le Bulletin of the Seismological Society of America propose de transformer lessmartphones modernes en détecteurs de séismes. La plupart étant équipés de gyroscopes et de capteurs de mouvements très précis, cela permettrait d’accroître la détection d’un séisme, même faible.

Selon l’article, ces appareils seraient effet capables de détecter un séisme de magnitude 5 ou supérieur (notre planète en compte plusieurs centaines par an), s’ils se trouvent assez proches de l’épicentre. Ils seraient alors capables de transmettre des données géographiques, notamment sa position au moment de la détection d’un séisme, et ainsi accélérer le travail des autorités.

Évidemment, ce projet mise sur la large diffusion des smartphones dans le monde pour son efficacité. Les auteurs font référence au Stanford’s Quake-Catcher Network, qui utilise les ordinateurs de volontaires pour créer un réseau capable de renforcer la puissance de calcul des équipements de détection sismique. Les smartphones pourraient ainsi créer un réseau entre eux, basé sur leur seul détecteur de mouvements, et capable de prévenir la plupart des séismes.

Par Nicolas Aguila30 SEPTEMBRE 2013 16:00 - Source: Tom's Guide FR

Transformer un aspirateur en drone



Les ingénieurs de Dyson s’ennuient parfois. Le constructeur britannique s’est alors lancé un défi : construire un drone, un appareil volant, à l’aide uniquement de pièce détachée de la marque. Mission accomplie, par plus de 100 ingénieurs qui ont proposé leurs visions des objets volants, concoctés uniquement à partir d’élément initialement conçus pour des… aspirateurs. Plusieurs épreuves ont été mises en place pour éprouver les capacités des objets volants, qui s’en sortent pour certains mieux que d’autres.

La vidéo ci-dessous illustre ce concours, avec de véritables OVNIS : avions à ailettes orientables, quadricopter à faire pâlir l’AR.Drone de Parrot, etc. D’ailleurs, la marque n’exclut pas que ces projets se concrétisent un jour, laissant imaginer tout et n’importe quoi de la part des amateurs d’objets volants.




Dyson engineers build flying machines


Par Maximilien de Léséleuc30 SEPTEMBRE 2013 17:00 - Source: Tom's Guide FR

http://www.tomsguide.fr/actualite/dyson-aspirateur-drone,22729.html#xtor=RSS-201

La NASA publie ses tests pour créer un nouveau vaisseau



Jamais à court d’idées, la NASA travaille en ce moment à la création d’un nouveau type de navette supersonique. Si elle travaille actuellement sur un prototype, c’est sur une reproduction miniature que les tests sont effectués et publiés sur Internet.

Afin d’effectuer ses tests, la NASA a en effet créé une réplique à 5,8 % de l’échelle de la véritable navette, et utilise de nombreux outils, notamment pour mesurer sa portance. Pour cela, la maquette est placée dans un tube soufflant de l’air à une vitesse subsonique. La NASA utilise alors plusieurs outils pour effectuer ses mesures, notamment l’utilisation d’un spray fluorescent qui permet de visualiser des courants d’air au-dessus et autour de l’appareil. C’est ainsi, explique la NASA, qu’elle peut déterminer certains paramètres essentiels de ses créations, et ainsi les ajuster en fonction du comportement qu’elle veut leur faire prendre.

Par Nicolas Aguila30 SEPTEMBRE 2013 17:30 - Source: Tom's Guide FR

Le "digital store", le mariage de l'e-commerce et de la proximité

Une femme navigue sur internet 
© AFP/Archives Lionel Bonaventure
Paris (AFP) - Vendeurs connectés, suivi étroit de la navigation sur internet des clients, courriels personnalisés, stocks partagés : s'appuyant sur le succès des nouvelles technologies, les marques réinventent le sur-mesure pour fidéliser les clients et limiter les ventes perdues.

Baptisé "digital store", ce concept se veut une sorte de mariage entre le online et le offline, la vente en ligne et le commerce de proximité, résume Franck Poisson, stratégiste e-commerce chez Demandware, spécialiste américain du commerce digital qui le propose, comme d'autres acteurs de la high tech, à des grands groupes.

Fini donc les enseignes avec moult canaux de vente cloisonnés (magasin physique, boutique en ligne, centres d'appel, catalogues ou brochures), souvent gérés par différents prestataires, qui communiquent très rarement entre eux et gèrent chacun de leur côté leurs stocks et leur clientèle.

Le digital store veut casser ces cloisons qui "frustrent souvent les clients et débouchent sur des ventes perdues", selon Franck Stauffer, responsable Edition chez RBS Change, une plateforme d'e-commerce française.

Concrètement, alors que la concurrence est âpre avec des promotions quotidiennes, l'enseigne digitalise complètement son offre de produits et récupère toutes les données sur les clients (ceux du web y compris), sur les produits et sur les stocks.

Grâce à une tablette, le vendeur en magasin peut accéder à ces informations dans l'espace de vente. Il a ainsi accès rapidement au profil (taille, style) et aux achats antérieurs d'un client. Il devient conseiller et peut se servir de ces renseignements pour lui recommander des produits, effectuer des alignements et changements de prix pour le satisfaire.

Le vendeur-conseiller a aussi la possibilité de consulter la disponibilité des produits en stock. Bref, il a une vue unifiée du client et du stock. Le paiement ne se fait plus à la caisse, mais via un dispositif spécial équipant sa tablette.

L'objectif affiché est de fidéliser le client par une meilleure connaissance de ses habitudes et en collant aussi de près à ses attentes.

"Le client veut être reconnu par la marque; il veut avoir l'impression qu'on l'identifie à elle", explique Jean-Louis Serradilla, le président France du spécialiste du marketing digital Neolane, propriété de l'éditeur de logiciels américain Adobe.

Pour lui, un commerçant ne doit plus se battre sur les prix mais sur les services qu'il propose aux consommateurs. Quand un acheteur donne des informations personnelles, il s'attend à ce que l'entreprise s'en serve pour lui parler "intelligemment", dit M. Serradilla.

Elle doit par exemple éviter, selon lui, d'envoyer à un homme des promotions sur les nouvelles crèmes pour femmes ou encore des offres parlant de "Votre Valentine" à un homosexuel.

Si le concept séduit, seules quelques marques ont accepté de le tester pour l'instant. Les concepteurs espèrent une montée en puissance en 2014.

C'est le cas depuis quelques mois du groupe Manfield, dont l'activité, la vente des chaussures, est confrontée fréquemment à des ruptures de stocks pour des problèmes de taille.

"Avant quand un client se présentait dans un magasin Manfield à Marseille par exemple, s'il n'y avait pas sa taille en stock, il repartait et c'était une vente perdue", narre le PDG Frédéric Thierry.

"Aujourd'hui le vendeur, qui a accès au stock de tout le réseau via sa tablette, peut lui proposer de le livrer directement chez lui", avance M. Thierry.

A la différence d'un pureplayer sur internet qui a son dépôt avec son stock ou d'un magasin qui a des stocks dédiés à internet dans ses entrepôts, un digital store a un stock unique partagé.

S'il ne donne pas de chiffre, M. Thierry indique que le digital store a eu un "impact certain" sur les ventes de Manfield, qui en a aussi profité pour optimiser ses coûts logistiques.

Le groupe a néanmoins dû revoir sa politique marketing, investir dans l'achat de tablettes et former ses vendeurs.

A terme, le but est de faire du digital store une sorte de show-room, avec expositions et possibilité d'essayer des articles, selon M. Serradilla. L'achat s'effectuera via la tablette ou le smartphone et la livraison au lieu choisi (domicile, bureau...) par le client.

Dimanche, 29 Septembre 2013 13:32

Vous ne lisez pas le japonais ? Des lunettes le font pour vous!

Les lunettes du japonais NTT Docomo
présentées au salon de l'électronique
Ceatec, en banlieue de Tokyo, le 30
septembre 2013 

© AFP Yoshikazu Tsuno
Chiba (Japon) (AFP) - Lire un menu de restaurant en japonais, rien de plus difficile pour un étranger au Japon, mais avec des lunettes traductrices, cela peut se faire en un clin d'oeil, tout comme la reconnaissance des personnes.

A l'occasion du salon de l'électronique Ceatec en banlieue de Tokyo, le premier opérateur de télécommunications mobiles local, NTT Docomo, a présenté plusieurs applications à base de lunettes munies d'une caméra et servant d'écran mono ou binoculaire.

L'une de ces fonctions permet de voir se substituer à l'image filmée une traduction en anglais d'un menu de restaurant écrit en japonais, ou bien dans d'autres langues au choix. L'utilisateur voit cette image "retouchée" via les lunettes.

Autre application possible: l'affichage à l'écran d'informations (nom, prénom, fonction, etc.) relatives à une personne que l'on rencontre et qui serait enregistrée dans le répertoire de son smartphone, le tout grâce à un système de reconnaissance/identification de visage.

NTT Docomo imagine aussi que toute surface plane rectangulaire (comme un cahier, un porte-feuille) puisse être assimilée à un pavé tactile sur lequel le doigt se pose et agit comme il le ferait sur l'écran d'un smartphone ou d'une tablette, à la différence près que l'image ne s'affiche que via les lunettes.

La reconnaissance des mouvements du doigt se fait grâce à une bague portée à l'index. Ses changements de position sont transmis au smartphone qui les traduit en instructions. Si bien que l'on manipule les images affichées sur l'écran des lunettes en agitant son doigt sur une surface quelconque.

Tout ou partie de ces technologies devraient être prêtes pour les jeux Olympiques de Tokyo en 2020, lesquels seront aussi une vitrine du savoir-faire des Japonais pour faciliter par divers moyens techniques la vie des visiteurs et notamment des étrangers de passage.

Toutefois, reste encore à s'affranchir d'ici-là de nombre d'obstacles techniques tels que la taille des lunettes, leur autonomie (car elles ont besoin d'une batterie), la rapidité de reconnaissance des images ou visages et la réduction du temps de réponse.

Lundi, 30 Septembre 2013 15:35

Japan Launches Industrial Harvesting Robot



joshbyard:

Japan Launches Industrial Harvesting Robot That can Judge the Ripeness of Individual Strawberries

The machine moves on rails in a greenhouse. It has a 3D stereo camera system to image the berries and judge which ones are ripe according to color.

When it finds one, a robotic arm reaches out and snips its stem. Into the basket it goes. It can harvest a berry every 8 seconds.

"This robot would harvest two-thirds of the strawberries during the night when growers are sleeping," Shibuya Seiki’s Mitsutaka Kurita told AFP.

"The farmer can then pick the rest of the strawberries that the robot couldn’t get at."

While a small basket of strawberries can fetch about $5 in Japan, harvesting them takes a lot more work than other produce such as rice, tomatoes, or cucumbers. But the machine could eventually pay for itself.

(via $50,000 strawberry-picking robot to go on sale in Japan | Crave - CNET)

The Difference Between Film and Digital Photography

Sally Wiener Grotta and her husband Daniel wrote some of the first books and articles about digital photography. Sally was an award-winning photographer in film days, and has maintained her reputation in the digital imaging age. In this interview, she talks about how to buy a digital camera -- including the radical idea that most people really don't need to spend more than $200 to take quality photos. (We had some bandwidth problems while doing this remote interview, but the sound is clear so we decided to run it "as is" rather than try to remake the video and lose the original's spontaneity.)


Watch rocket launch into space




The unmanned SpaceX rocket carried a Canadian satellite into orbit.

CNN Weekend Shows

Added on September 29, 2013

http://edition.cnn.com/video/data/2.0/video/us/2013/09/29/nr-lemon-space-x-rocket.cnn.html

Le plastique biodégradable : une grande invention italienne

Du plastique oui, mais sans pétrole, à faible impact environnemental et depuis aujourd'hui toujours plus italien. A la Novamont le Mater Bi, que nous connaissons surtout pour les sacs biodégradables de supermarchés, est produit déjà depuis 30 ans : la nouveauté est l'ultérieure diminution de l'usage de matière première d'origine fossile. Il ne s'agit pas seulement de défendre le territoire contre les entreprises polluantes explique-t-on à la Novamont : il s'agit également d'une occasion de relance industrielle du pays, parce que les nouvelles technologies seront exploitées dans des établissements en Sardaigne et dans la Vénétie.

"Il s'agit d'un Mater Bi de quatrième génération - explique Luigi Capuzzi, directeur de la recherche de Novamont- parce que c'est un plastique qui contient quatre nouvelles technologies différentes. La première est celle qui a été développée dans les années quatre-vingt par un groupe de scientifiques autour de Catia Bastioli, aujourd'hui administrateur délégué Novamont : une technologie de complexation d'un des composant de l'amidon avec des polymères qui jusqu'à quelques années encore étaient achetés à l'extérieur."

La deuxième technologie est celle qui existe actuellement sur le marché, dans laquelle les polymères (c'est à dire des macros molécules complexes) sont produits par Novamont grâce à une technologie développée au début des années deux mille. Ces polymères, en revanche, s'obtiennent à partir de monomères qui eux, jusqu'à aujourd'hui, devaient être achetés. Désormais les deux nouvelles technologies permettent de produire les deux monomères clefs, à partir de ressources renouvelables : "l'acide azélaïque obtenu à partir de l'huile végétale dérivant du chardon sera produit à Porto Torres : le chardon que nous sommes déjà en train de cultiver de façon expérimentale dans les alentours de l'établissement de production." L'autre est le butane-1,4-diol, obtenu à partir de bactéries capables de digérer le sucre et de le transformer en ce précieux composant du plastique bio : "nous le produirons sur la plateforme biotechnologique de Bottrighe, dans la province de Rovigo. Et la nouveauté sera que nous serons les premiers à le faire avec un unique passage biochimique, donc l'avantage est important aussi bien en termes d'environnement qu'en termes économiques", explique Capuzzi.

Trente années de plastique biodégradables est l'habituelle polémique : mais les produits de la terre, ne serait-il pas préférable de les utiliser pour se nourrir, plutôt que pour produire du plastique ? "Nous ne soustrairons pas un seul mètre carré à la production de nourriture : nous utilisons, et utiliserons seulement les terrains en marge qui aujourd'hui ne produisent rien et ne donnent pas de bénéfice. Et puis le chardon pousse très bien en Sardaigne, il a besoin de très peu d'eau et n'a pas besoin d'engrais.

http://www.bulletins-electroniques.com/actualites/74045.htm

Autoporté, antisismique et isolant : un toit qui ressemble à des Lego

Un toit qui par sa philosophie constructive rappelle les LEGO, les populaires briques inventées par l'entreprise de jouets danoise, qui ont stimulé l'imagination de générations d'enfants. Il s'agit de panneaux conçus et brevetés par MAS (Modular Anti-Seismic Solar), une entreprise constituée en 2010 de quelques entreprises actives dans le secteur du green building et faisant partie du district technologique Veneto Nanotech. La particularité des panneaux de MAS, facile à monter et avec des dimensions standards (93x186x25 cm), est de pouvoir être utilisés directement comme toit, d'être autoportés, en plus d'être antisismiques et isolants. Non seulement, la couverture modulable, adaptée aux habitations, hangars et constructions industrielles, sert de panneau photovoltaïque et solaire thermique, mais elle permet également de participer à l'atteinte des objectifs prévus par le nouveau décret Compte Thermique [1].

MAS a son siège dans la province de Trévise, mais elle s'est déjà équipée pour produire aux Etats-Unis, et elle compte ouvrir la commercialisation de ces panneaux à partir de 2014, une fois obtenues les certifications nécessaires. "Nous pensons pouvoir être compétitifs sur le marché, puisque nos couvertures, même en intégrant les technologies solaire thermique et photovoltaïque, ont un prix comparable à celui d'un toit traditionnel. Nous avons pris contact avec de nombreux clients potentiels. Nous faisions l'hypothèse qu'au moins dans un premier temps, 70% de notre busines sera aux USA, où le marché est plus adapté pour accueillir un produit à fort taux d'innovation comme le nôtre. La part restante de la production sera destinée à l'Italie ou à l'Europe", explique à Répubblica.it Mario Damo, président et fondateur de MAS.

De plus MAS se sert des compétences de Veneto Nanotech dans le secteur des nanotechnologies appliquées aux matériaux. "Les panneaux produits par MAS sont réalisés avec divers matériaux et différents types de polymères, qui nécessitent d'être intégrés et assemblés les uns aux autres dans des conditions optimales. C'est pour cette raison que nous traitons les superficies des polymères avec un plasma atmosphérique particulier obtenu en laboratoire, avec une substance comparable au gaz qui est relâché dans l'atmosphère lorsqu'un éclair apparaît ou quand se manifeste l'aurore boréale. Le plasma crée une série de liaisons chimiques entre les matériaux, augmentant considérablement la portance et l'efficacité globale du toit", précise le directeur scientifique de Veneto Nanotech, Diego Basset.

--

[1] Le décret Compte Thermique a pour objectif d'inciter la production d'énergie thermique de ressources renouvelables et de développer l'efficacité énergétique des bâtiments à travers des projets de requalification énergétique.

http://www.bulletins-electroniques.com/actualites/74044.htm

Le Technion prépare une nuée de satellites miniatures

Tous les appareils électroniques ont vocation à diminuer en taille : les téléphones, ordinateurs, etc. Leur puissance computationnelle et leurs capacités augmentent dans le même temps. Il en est également ainsi pour les satellites artificiels. Les chercheurs du Technion -Israel Instiute of Technology examinent ainsi la possibilité de remplacer les lourds satellites actuels par un essaim de plus petits. L'idée : faire plus avec moins gros.

L'un des gros problèmes de l'envoi d'engins dans l'espace est que l'énergie nécessaire (et donc le combustible) augmente exponentiellement avec la masse que l'on essaye de mettre en orbite. Il devient alors intéressant de mettre au point des petits satellites. Il en existe plusieurs catégories : mini-satellites (100-500 kg), micro-satellites (10-100 kg), nano-satellites (1-10 kg) ainsi que d'autres plus petits encore. Il devient également intéressant de faire travailler ces petits satellites ensemble. C'est sur ces sujets que travaille l'Asher Space Research Institute du Technion à travers le projet SAMSON.

Chorégraphie spatiale : faire travailler les satellites ensemble

La première des difficultés à surmonter est de savoir s'il sera possible de coordonner ces satellites entre eux. Il s'agit notamment de les faire voyager en formations de trois, gardant des distances plus ou moins constantes l'un avec l'autre. Le professeur Pini Gurfil duDistributed Space Systems Laboratory du Technion a récemment présenté l'état de ses recherches à des acteurs majeurs de l'industrie aérospatiale israélienne : 3 mini-satellites capables d'opérer dans l'espace, en toute autonomie, et en maintenant entre eux une formation. Un compromis a été réalisé entre le poids du satellite et la quantité de carburant (seulement 300 g). Cette difficulté aurait été résolue entre autres par l'utilisation d'un propulseur de dernière génération construit spécialement par la société aérospatiale israélienne Rafael, le Pulsed Plasma Thruster.

La seconde difficulté est de faire en sorte que ces satellites évoluent ensemble, de manière rapprochée, mais sans risque de collision. L'objectif du projet est en effet d'identifier la provenance de signaux terrestres par triangulation, qui est rendue possible par la proximité et le degré de synergie des trois satellites. Pour cela, ils seront parfaitement coordonnés (ils emportent pour cela une horloge atomique) et seront capables de connaître à tout moment leur position respective.

Un défi presque réussi

Un premier lancement est prévu en 2015. Trois satellites SAMSON seront envoyés ensemble dans l'espace et devront maintenir leur formation pendant au moins un an. Leur capacité à fonctionner efficacement ensemble sera évaluée. S'il réussit, le projet pourrait valider encore plus le concept des mini-satellites et encourager l'économie du spatial low cost.

Espérons seulement que la question des déchets spatiaux sera réglée prochainement. Il y a en effet autour de la Terre des centaines de milliers de déchets spatiaux de diverses tailles : de la poudre issue de lanceurs à des morceaux de panneaux solaires. Tout ceci augmente grandement les risques de collision et donc le coût de l'exploitation spatiale. Un mini-satellite est encore plus exposé puisqu'il n'est généralement pas bien protégé et n'a pas une quantité énorme de carburant pour retrouver sa position en cas de déviation.

Supplément : Israël et la recherche spatiale

Israël est l'un des 9 pays dans le monde capables d'envoyer des engins dans l'espace. Depuis sa création en 1983, son agence spatiale, l'ISA (Israel Space Agency) multiplie les projets de développement : satellites de reconnaissance Ofeq et Eros, satellites de télécommunication Amos, etc. L'ISA s'apprête à lancer avec le CNES (Centre national d'études spatiales) français le satellite VENmicro-S (Vegetation and Environment monitoring on a New Micro-Satellite), visant à étudier la végétation et l'environnement sur la planète Terre.

http://www.bulletins-electroniques.com/actualites/74052.htm

Produire de l'hydrogène solaire à partir de la rouille

Des chercheurs israéliens et suisses découvrent la meilleure structure moléculaire, écologique et peu coûteuse, pour synthétiser de l'hydrogène à partir de la lumière du soleil : la rouille.

Rouille
Crédits : Ian Britton

Dans la course à la recherche d'énergies propres, l'hydrogène est sans doute l'une des sources les plus prisées à ce jour, et l'apparition de véhicules fonctionnant avec ce gaz se fait de plus en plus visible. Récemment, la ville de Tel-Aviv s'est équipée d'un bus fonctionnant seulement à l'hydrogène, ce qui est une avancée par rapport aux moteurs hybrides déjà existants sur le marché.

Sa synthèse n'est néanmoins pas encore maitrisée et plusieurs chercheurs se penchent sur la question, privilégiant la voie dite "de séparation", qui consiste à séparer électrochimiquement les molécules d'eau en molécules d'oxygène et d'hydrogène. Les cellules photo-électrochimiques (PEC) sont utilisées pour effectuer cette séparation grâce à l'énergie solaire.

Des chercheurs israéliens et suisses du Technion et de l'Ecole Polytechnique Fédérale de Lausanne, ont découvert la structure moléculaire qui procurerait au PEC le meilleur rendement et la synthèse la moins coûteuse, et ce, en utilisant un matériau très abondant, stable et peu onéreux : la rouille. En observant à l'aide d'un microscope à transmission électrique le chemin parcouru par les électrons sur la structure d'oxyde de fer, les chercheurs ont pu comprendre en profondeur le processus de séparation qui constitue la synthèse d'hydrogène et ainsi créer la meilleure structure moléculaire possible. Si la synthèse de cellules photovoltaïques actuelles pour produire de l'hydrogène coûte environ 15 euros le kilo, la nouvelle structure moléculaire dont la découverte vient d'être publiée dans la prestigieuse revue Nature coûte moins de 5 euros le kilo produit.

Cette découverte constitue une avancée fondamentale dans la recherche sur les énergies du futur.

http://www.bulletins-electroniques.com/actualites/74051.htm

Les ondes radios utilisées pour mesurer les changements climatiques

Une récente étude menée par le professeur Colin Price du Département des Sciences Géophysiques, Atmosphériques et Planétaires de l'Université de Tel-Aviv et le doctorant Israël Silber présente une nouvelle manière d'évaluer les changements climatiques en utilisant les ondes radio.

La haute atmosphère
Crédits : NASA's Marshall Space Flight Center

Des informations sur les changements climatiques

L'ionosphère est la zone de la haute atmosphère comprise entre 85 et 600 km et caractérisée par la présence de particules chargées (électrons et ions), formées par photo-ionisation sous l'effet du rayonnement solaire. En raison de ses propriétés éléctromagnétiques, l'ionosphère est utilisée pour les communications à ondes longues, telles que les ondes radio. Les chercheurs Colin Price et Israël Silber de l'Université de Tel-Aviv ont découvert que les ondes radio qui descendent vers la Terre à partir de l'ionosphère offrent de précieuses informations sur les changements climatiques. Ils ont constaté que la présence de gaz à effet de serre en grande quantité conduit à des changements de température dans cette partie de l'atmosphère, qui se traduisent par une plus grande absorption des ondes radio. Ainsi, des signaux plus faibles peuvent être une indication de changements climatiques plus importants.

Une méthode simple et bon marché

Détaillée dans le Journal of Geophysical Research, cette méthode simple et bon marché peut être une contribution précieuse au travail de suivi des changements climatiques, selon le professeur Price. "Même si le soleil est certainement la principale cause des changements de température dans cette région de l'atmosphère, il n'en explique que 60 à 70%, explique-t-il. Les variations restantes n'ont pu être mesurées systématiquement jusqu'à présent. En ajoutant les mesures d'ondes radio prises sur le terrain et les estimations du rayonnement solaire, les chercheurs peuvent maintenant expliquer environ 95% des variations de température dans la haute atmosphère."

Une région difficile à étudier

Ce système pourrait révéler bien plus d'informations sur l'ionosphère. Elle permettrait notamment d'étudier l'impact de tempêtes solaires ou d'orages dans la haute atmosphère. Une grande avancée, puisque la région est notoirement difficile à étudier : il n'y a pas de ballon météo ou d'avion capable de voler aussi haut, et elle est trop basse pour les satellites orbitaux.

http://www.bulletins-electroniques.com/actualites/74050.htm

Les séismes profonds en passent d'être compris

Jusqu’ici, les géologues admettaient l’hypothèse selon laquelle les séismes profonds étaient dus aux transformations du principal minéral constituant le manteau terrestre, l'olivine. Mais des chercheurs français pensent aujourd'hui avoir confirmé cette théorie. Si le mécanisme des tremblements de terre superficiels est assez bien connus, il n’en va pas de même des séismes profonds. Dès que le foyer du séisme se situe entre 400 et 700 km de profondeur, les géologues en sont réduits à émettre des hypothèses. En effet, difficile de tenir compte de la pression qui s’exerce ici en centaines de milliers de bars. Dans ces conditions, la pression est tellement importante que si une fracture s'initiait, elle ne pourrait pas glisser et être à l'origine de l'émission d'ondes sismiques comme c’est le cas plus en surface estiment certains.

"Comment ces séismes se produisent est un mystère. Comment la roche peut elle glisser contre une autre roche aussi vite, alors qu'elle est comprimée par la pression de 610 kilomètres de roche située au-dessus ?", demande Thorne Lay, professeur à l'Université de Californie. Il y a de ça environ 50 ans, une autre théorie jugeait que ces séismes profonds étaient dus aux transformations du principal minéral constituant le manteau terrestre : l'olivine. Plus on descend en profondeur plus l’olivine devient compacte (se transformant en wadsleyite à 410 km, puis en ringwoodite à 530 km sous terre). Ce serait alors elle qui provoquerait la rupture des roches dans la lithosphère océanique en subduction. Néanmoins, beaucoup mettaient en doute cette théorie qu’aucun modèle physique convaincant ni qu’aucune preuve expérimentale ne permettait de vérifier.

L'étude menée par des chercheurs de plusieurs laboratoires français et américains (Universités de Californie et de Chicago) dirigée par Alexandre Schubnel du Laboratoire de géologie de l'École normale supérieure pourrait mettre tout le monde d’accord. De petites fractures qui créent d'intenses ondes Les scientifiques ont en effet reproduit expérimentalement le mécanisme physique supposé être à l'origine des séismes profonds. Pour cela, les chercheurs ont utilisé une presse gros volume installée dans Ilinois, aux États-Unis. Grâce à elle, ils ont déformé une roche synthétique constituée d'un agrégat compact de cristaux d'olivine de germanium (Mg2GeO4), proche de la structure de l'olivine naturelle. Comprimée à des pressions de 2 à 5 gigapascals (20 à 50.000 bars) et soumise à des températures avoisinant les 900°-1000°C, les chercheurs ont pu étudier le comportement de la roche.

Comme l'explique un communiqué du CNRS, ils ont ainsi constaté que lorsque l’olivine se condense (sous l’effet de la pression), elle entraîne une nucléation et la propagation de fractures millimétriques qui émettent des ondes acoustiques. Les ondes ultrasoniques particulièrement intenses ainsi émises se rapprochent à s’y méprendre à des séismes profonds. L’étude des ondes montre que leur mécanisme est celui d’un cisaillement et que ces séismes présentent une magnitude qui suit la loi statistique observée de manière universelle en sismologie (la loi de Gutenberg-Richter). De plus, les chercheurs ont constaté qu'une fracture initiée de cette façon ne peut être réactivée. Une caractéristique qui rappelle le fait que les séismes profonds sont rarement suivis de répliques. Le plus grand séisme profond connu

D'après les auteurs, le plus grand séisme profond jamais enregistré s'est produit la 14 mai 2013 à près de 620 km sous la mer d'Okhotsk. Son moment sismique était environ 30 fois plus important que celui du deuxième plus grand séisme, survenu à 637 km de profondeur sous la Bolivie en 1994. L'énergie libérée par le tremblement d'Okhotsk a produit des vibrations qui ont été captées par des milliers de stations sismiques dans le monde. Néanmoins, au vu de sa profondeur, la secousse n'a été que peu ressentie sur les îles de Sakhaline et d'Hokkaido, au Kamchatka et en Sibérie orientale russe. D'après les auteurs de l'étude, le phénomène a libéré 3 fois plus d'énergie que celui de Bolivie, comparable à une explosion de 35 mégatonnes de TNT. La zone et la vitesse de rupture étaient également plus importantes : elle s'est étendue sur 180 km, devenant ainsi la plus longue jamais enregistrée pour des séismes profonds.

Source : Bulletins Elecrtoniques

Publié le 30 septembre 2013

Echanges sur le Net : les risques de la liberté

Echanges d'idées plus ou moins fructueux, conversations sans fin entre Internautes du bout du monde ou simples partages de photos de vacances, la toile a sans doute impulsé une nouvelle dynamique des échanges. Une vigueur dont nul ne saurait se plaindre. Sauf que quinze ans après les débuts de la révolution numérique se fait sentir un besoin de cadre et de règles pour éviter pillages et dérapages en tous genres.

Un sentiment de confusion, de trop plein : c'est ce que ressentent au quotidien des millions d'internautes qui, intrigués, interpellés ou passionnés par un sujet de société, se retrouvent désemparés devant l'abondance d'informations. Selon leur degré de compétence, selon leur niveau de maîtrise et de connaissance des réseaux numériques, ils s'acharnent, trient les données et parviennent à dégager des idées forces. Un travail de Titan, accessible au demeurant à une minorité, qui ne place pas l'immédiateté au premier rang de ses préoccupations. Un travail sans lequel toutes les approximations sont possibles, et toutes les idées reçues véhiculées et nourries sans fin.

En France, mais également partout dans le monde, des intellectuels ont amorcé une réplique. Au premier rang de ceux-ci, Pierre Rosanvallon. Titulaire depuis 2001 de la chaire d'histoire moderne et contemporaine du politique au Collège de France, il reste l'un des dirigeants incontournables de l'École des hautes études en sciences sociales (EHESS). Face à la jungle que constitue potentiellement Internet en tant que lieu de débat, il a fondé la " Vie des Idées ", un site de très haute tenue, entièrement voué aux échanges. " Coopérative intellectuelle, lieu de débat et atelier du savoir, la Vie des Idées veut être un réseau de compétences qui dépasse les frontières géographiques et croise les champs disciplinaires, tout en cherchant à rester accessible au plus grand nombre ", indique l'historien pour expliquer sa démarche.

Garder la maîtrise du débat, garantir la parole de tous dans le respect du champ démocratique, c'est aussi la volonté du site Hyperdébat, fondé en 2002 et animé par Eric Lombart dans le cadre de l'Association pour la promotion de l'information. Il annonce ainsi son ambition : " donner de la visibilité et du sens à l'expression citoyenne ". Les animateurs de ce réseau se présentent comme les garants des bonnes pratiques des échanges numériques. Dans leurs pages, constamment " surveillées " par un facilitateur, ils balisent de quelques principes forts les propos, dans le fonds comme dans la forme : égalité d'accès au débat, objectivité, exhaustivité, lisibilité, visibilité et traçabilité.

Ce dernier point est majeur et fait l'objet de nombreux questionnements pour l'ensemble des usagers du Net. Tout se passe comme si la toile était vouée à être un vaste forum, sans autre règle que...l'absence de règle, où la diffusion de tout, partout est autorisée. Par principe, il n'y a pas de droits, pas de propriétaires, juste une gigantesque toile où les données s'échangent sans contrôle, ou si peu.

" Une grande vigilance s'impose, observe Arnaud Nourry qui dirige Hachette Livre, numéro un de l'édition en France et qui constate comme ses pairs, l'émergence d'une profusion de sites de partages de fichiers ". Pour lui s'ouvre le temps " de nouvelles stratégies d'autodéfense et de conquête " où les Pouvoirs publics doivent à l'évidence prendre leurs responsabilités. Raisonnablement, personne ne peut imaginer que les technologies numériques peuvent être ces machines à aspirer, diffuser mais aussi, le cas échéant, transformer, dénaturer ou utiliser à des fins détournées des contenus patiemment imaginés, construits et écrits dans les universités ou dans le calme d'un bureau d'écrivain. " Pour la première fois de ma carrière, alors que je venais de rencontrer un écrivain qui m'a déposé son manuscrit et à qui je venais de proposer un contrat, l'auteur m'a fait part de son interrogation : comment pouvais-je lui garantir que ses écrits n'allaient pas être " récupérés " sur le net et diffusés sans aucun contrôle ? Il avait une conscience aigüe de son " droit de propriété ". En plus de vingt ans de carrière, cela ne m'était jamais arrivé ", raconte Karine qui exerce dans une grande maison d'édition avec la charge du secteur sciences humaines.

Qu'ils opèrent dans la littérature ou dans le secteur de la musique, les éditeurs " classiques " ont pris conscience du formidable effet démultiplicateur d'Internet, capable de garantir une diffusion du savoir et de la culture dans des proportions jusque là inenvisageables. Mais dans le même temps, ces acteurs du monde la culture et des idées ont pris la mesure des risques encourus. Alors que le domaine de la musique et, dans une moindre mesure, celui du cinéma sortent ravagés et quasi-démantelés après une décennie de règne numérique, le secteur du livre, lui, a tenté et réussi à limiter les dégâts. En passant des accords avec les géants du secteur - Amazon, Google et autres Apple - en étant d'une vigilance accrue sur ce qui se passe sur la toile et en se mobilisant à tous les étages de la profession, le secteur de l'édition s'en tire plutôt mieux que d'autres pans de l'économie de la culture.L'écrit, l'imprimé, est peut être en passe de réussir son pari de rester la référence intangible auprès du grand public, tout en utilisant à son profit les ressources inépuisables du Net. Ainsi, quand quelques grands éditeurs - dont Hachette Livre en France en partenariat avec la société US Lightning Source - mettent en place " une impression à la demande ", c'est tout un monde de professionnels du livre qui entend ainsi reprendre le contrôle de la diffusion des oeuvres et garantir le respect des droits des auteurs. Préserver la création, la connaissance, de nos propres démons, passera nécessairement par une institutionnalisation des règles de bonne conduite sur le Net. A commencer par l'acceptation d'un principe aussi bien de base, que de bon sens : la qualité a un prix. Lequel sommes-nous prêts à payer ? 

La ville écologique n’est pas une utopie, c’est un combat

Interview - Pour Thierry Paquot, philosophe de l'urbain, on ne pourra penser la ville écologique que si l'on s'ouvre à toutes les surprises, et que l'on revoit nos modes de vie de fond en comble.

Terra eco : Pourquoi repenser le territoire urbain comme écologique, vous qui préférez ce terme à ville durable ?

Thierry Paquot : Pour rompre avec la ville productiviste, née dans le contexte de la révolution industrielle. Or, la question environnementale, le réchauffement climatique et l’approche du pic pétrolier nous obligent à sortir du productivisme, de la logique du toujours plus. Il faut penser au toujours mieux, à consommer moins et autrement. Pourquoi continue-t-on à ouvrir des centres commerciaux en France ? Cela collait peut-être bien avec un mode de vie où l’on pouvait faire venir au même endroit 10 000 voitures par jour via des autoroutes urbaines. Mais à l’aune de l’écologie, ce modèle est trop coûteux. Il faut penser au commerce en ligne, et donc au développement des systèmes de livraison. Pourquoi les taxis et ambulanciers, dans leurs heures creuses, ne se transformeraient-ils pas en livreurs dans les villages par exemple ? Pourquoi les bâtiments n’auraient-ils pas plusieurs usages, comme les facs qui accueilleraient des associations hors des périodes de cours ? Un bâtiment peut avoir plusieurs fonctions. Pour penser la ville écologique, il faut innover, accepter des changements de pratique importants. Il nous faut nous ouvrir à toutes les surprises.

Comment construire cette ville écologique ?

Une ville écologique doit permettre à ses habitants de participer de manière active et spontanée, bien au-delà de la simple concertation une fois de temps en temps. Partir des gens, du local, du cas par cas, pour mettre en place des solutions, par exemple de covoiturage. On peut considérablement améliorer le territoire, par petites touches, en partant des citoyens. Il faut développer une demande, comme pour de l’habitat en bois, en briques, et l’offre suivra.

Certains n’ont pas attendu que ça vienne d’en haut. En Bretagne, par exemple, dans certains villages on coupe l’éclairage public dès 22h. Si vous devez sortir de chez vous, vous envoyez un SMS à la mairie et le chemin que vous empruntez est éclairé. Résultat : 30% d’économies d’énergie ! On sait depuis 1972 et la première conférence des Nations unies sur l’environnement, à Stockholm (Suède), ce qu’il faudrait modifier pour accéder à la ville écologique. Mais depuis cette date, la liste n’a pas changé ! D’où l’importance d’avoir un débat public. Et de, très concrètement, établir un bilan environnemental de chaque solution préconisée. Prenez le tramway, présenté comme la nouvelle panacée de la ville du futur. Moins écologique, il n’y a pas ! Le coût énergétique de la fabrication des rails est énorme ! Mieux vaut les faire rouler sur pneus – et des pneus pas issus de la pétrochimie... Certes, le passage du tramway permet la revalorisation de certains quartiers, mais ça coûte 3 fois plus cher qu’un bus. Et quand un usager met 1 euro dans un ticket de tram, la collectivité locale en met 6 ou 7 !

La ville écologique existe-t-elle déjà ?

Pas encore non, car nous sommes trop imbibés de la ville productiviste. La ville écologique, c’est quelque chose que l’on n’a pas encore complètement imaginé. Les Citta slow (villes lentes, ndlr), en Italie, ont établi une liste de 70 critères à remplir pour les rejoindre, ce qui est déjà énorme. Donc il faudrait établir des critères à cette ville écologique et y répondre progressivement. Si tous les bâtiments neufs étaient à énergie positive, ce serait déjà un premier pas. La ville écologique n’est pas une utopie, c’est un combat.

Ça et là, des expériences sont menées à l’échelle de quartiers. Un bon début ?

Un écoquartier n’a aucun sens. L’écologie implique la relation à l’autre. Or, ce qu’il apparaît, c’est que les habitants des écoquartiers quittent leur quartier le matin pour aller polluer à l’extérieur, reviennent le soir et adoptent à nouveau un comportement vertueux chez eux. La ville écologique se construit sur l’ensemble d’un territoire urbanisé, en commençant partout, en même temps, dès qu’on peut. Il faut impulser un nouvel art de vivre.

Par quoi cela passe-t-il ?

Déjà par une harmonisation des temps sociaux et individuels. Une ville écologique prendrait en considération la chronobiologie des individus et les saisons et adapterait les rythmes urbains à ces données. La vitesse ne serait plus forcément source de satisfaction. Le TGV – qui est l’exemple type du bienfait dans la société productiviste – devient un handicap dans la ville écologique.

La ville écologique impliquera donc de nouveaux modes de vie ?

Oui, elle nous apprendra à être économes dans tous nos faits et gestes. Mais il revient à chaque ville d’inventer sa propre écologie, il n’y a pas de recette unique. Il ne peut y avoir de modèle tout prêt.

La ville écologique, c’est pour quand ?

On en est au tout début car aujourd’hui l’écologie est moins vue comme un art de vivre que comme une contrainte à laquelle on va devoir se plier « parce qu’une catastrophe arrive ». A l’échelle des villes, on saupoudre les projets d’une couche de « durable » pour se prémunir d’attaques d’associations écologistes. Mais le thème ne traverse pas encore l’ensemble de la société. Les entreprises se penchent sur le sujet quand elles constatent que cela peut être un levier de croissance pour elles, et qu’investir dans ce secteur leur permet de rester leader. Les politiques, eux, veulent rester le plus longtemps possible dans leurs fonctions et si une entreprise leur propose une solution clé en mains de mise en réseaux permettant une économie de 10% sur l’ensemble des factures d’énergie de leurs administrés, ils signent. Cependant, je crois encore à une prise de conscience individuelle de la nécessité de changer nos modes de vie et de villes, mais ce sera lent. Car la ville écologique ne se décrète pas, elle se se construit petit à petit avec les gens.

Quelle pourrait être la devise de cette ville écologique ?

Toujours mieux pour chacun, ensemble.

30-09-2013

Top départ pour la filière hydrolienne

EDF ©
Les Hydroliennes, une source d'énergie du futur ? C'est en tout cas le pari de la France puisque celle-ci vient de lancer un premier appel à projet portant sur trois ou quatre fermes au large du Cotentin et du Finistère. Détails.

François Hollande a lancé ce lundi à Cherbourg le premier appel à projet français pour des parcs pilotes d'hydroliennes.

Au total, ce sont trois ou quatre fermes, comprenant chacune 5 à 10 hydroliennes, qui prendront place dans le raz Blanchard, au large du Cotentin, et le passage du Fromveur, au large du Finistère.


Chaque parc sera subventionné par l'Etat à hauteur de 30 millions d'euros, a annoncé le président. Cet appel à manifestation d'intérêt sera publié mardi au Journal officiel. Quid du coût ? Si un tarif d'achat bonifié a été évoqué un temps, cette solution ne sera pas au programme. En effet, les parcs pilotes s'appuieront sur un tarif standard des énergies marines, soit 173 euros par mégawattheure, selon le chef de l'Etat. Avec cette première phase, la France ne cache pas ses ambitions en matière d'énergies marines. Elle espère même rivaliser avec le Royaume-Uni qui détient le meilleur potentiel européen en la matière.

Les énergies marines, un potentiel important

D'ailleurs, dans un rapport datant 3 mai 2013 réalisé par le CGEDD (Conseil Général de l’Environnement et du Développement Durable) et le CGIET (Conseil Général de l’Économie, de l’Industrie, de l’Énergie et des Technologies), il ressort que "l'énergie hydrolienne est proche d'un développement industriel". Selon les premières estimations, le potentiel français pourrait atteindre les 3 gigawatts. Et ce n'est pas fini puisque l'énergie marine devrait encore alimenter les années à venir. En effet, toujours selon le rapport du printemps dernier, l'éolien offshore flottant fait "l'objet d'ores et déjà de technologies prometteuses pour les eaux côtières profondes (au-delà de 40 m) en cours de test", notamment en Bretagne et Provence-Alpes-Côte d'Azur. C'est pour cette raison que le rapport préconise l'installation de fermes expérimentales d'ici à deux ans. A ce titre, le rapport propose un appel d'offres pour des fermes pilotes en 2014 ou 2015, puis un autre pour des installations commerciales vers 2018-2020. 

MOOC : lancement d'un cours en ligne gratuit dédié à l'entrepreneuriat

TV des Entrepreneurs, une télévision de formation sur internet, se lance à son tour dans les MOOC, ces cours gratuits en ligne et en libre accès. Le thème : l'entrepreneuriat, évidemment !

Les premiers cours en ligne concernant l'entrepreneuriat débarquent ! En effet, TV des Entrepreneurs, qui propose déjà un millier de formations en ligne sous forme de vidéos payantes, proposera dès octobre prochain des MOOC dédiés à l'entrepreneuriat. Et donc gratuits !

L'objectif de ce MOOC est de proposer à ceux qui veulent monter leur projet des cours, afin d'apprendre à gérer une entreprise, la développer ou encore la transmettre.

Quatre modules prévus

En tout, ce sont quatre modules qui vont voir le jour : un premier axé sur "entreprendre", un autre pour gérer, un troisième pour développer, et enfin, un dernier pour transmettre son entreprise. Le premier module, "Passeport pour entreprendre", se déroulera du 7 au 13 octobre prochain.

Les candidats à l'entrepreneuriat bénéficieront de 110 vidéos en libre accès, durant cette période, puis obtiendront d'un centre d'examen leur "Passeport pour entreprendre", dans le cas où ils auront suivi plus de huit heures de formation, et réussi leurs tests. Ils pourront également bénéficier d'une aide gratuite émanant d'un expert de leur choix, qu'il soit avocat, banquier, coach, ou encore consultant.

Orientations

Mis en ligne le Lundi 30 Septembre 2013

Les entreprises américaines se tournent vers un investissement plus intensif en R&D




Fonds propres et subventions aideraient les entreprises américaines à maintenir un investissement massif et salvateur en R&D.

Les entreprises américaines ont maintenus leurs efforts en termes de R&D, les investissements passant de 279 à 294 milliards de dollars entre 2010 et 2011 selon une étude publiée par laNational Science Foundation. Et pour cause, Les entreprises américaines finançant ou exécutant beaucoup de R & D ont déclaré des ventes nettes domestiques de 9 milliards de dollars en 2011 selon le BRDIS. Ce montant est significatif mais également nécessaire du point de vue des dépenses employées. Et si le gouvernement fédéral américain est la principale source de financement extérieur (sur 55 milliards d’aides extérieures, 31 ont été apportés par l’Etat dont 26 par le ministère de la défense) une large part des financements provient des entreprises elles-mêmes.

Des financements publics et en fonds propres responsables de millions d’emplois

En effet, 81% des investissements ont été apportés en fonds propres. De manière plus précise, si l’intensité en R&D (rapport entre la performance en R&D et les ventes domestiques) est en moyenne de 3,2% pour les industries manufacturières et de 3,9% pour les non manufacturières, elle monte à 11,8% dans le domaine pharmaceutique, 11,3% dans l’aérospatial et à 9,9% dans l’électronique grand public. Le rapport explose même pour les entreprises d’édition de logiciels (24,4%). Si l’intensité en R&D est tant importante, c’est également car l’emploi est à la clé. En effet, les entreprises présentant un ration en R&D intensif emploient 19,3 millions de personnes aux Etats-Unis. Environ 1,5 millions sont même des emplois directs de recherche et développement. De plus, dans une optique Schumpéterienne, si l’innovation et le numérique sont jugés destructeurs d’emplois, ils sont également porteurs d’espérances en termes de grappes d’innovation. L’investissement en R&D convient donc à la fois aux entreprises voulant bénéficier de nouveaux débouchés et à l’Etat dans l’espoir de créer de nouveaux emplois associés à ces grappes. 
 
Des petites entreprises plus entreprenantes en R&D

Par ailleurs, les petites entreprises américaines (l’équivalent de nos PME) sont liées à 19% de l’activité en R&D. Dans ces entreprises, l’intensité en R&D est de 5%, au dessus de la moyenne nationale de 3%. Elles emploient de manière proportionnelle 19% des postes de R&D. Les entreprises de taille moyenne (à l’échelle américaine) et les grands groupes ne totalisent qu’une intensité de 3% chacun. Cependant, si les grands groupes emploient une proportion non négligeable des postes en R&D, il existe une défaillance de ces postes dans les entreprises de taille moyenne. L’enjeu est d’importance car ces entreprises représentent 50% du PIB du pays. Un meilleur investissement dans ces entreprises pourrait donc être une solution à l’emploi.

Par Pierre-Marie Mateo 30 septembre 2013

La place du lycée professionnel dans notre système scolaire

 
Photo Credit : lud68 via Compfight cc
J’étais invité à la Journée nationale du Refus de l’Échec Scolaire (JRES) organisée par l’Afev, en partenariat avec le cabinet d’études Trajectoires-Reflex et plus de trente organisations, le 25 septembre. J’ai déjà évoqué quelques thématiques que je comptais y aborder (« La France, Etat éducateur, Etat formateur »). Le temps d’intervention étant très court, j’ai ramassé mon propos et je vous présente l’intervention prévue.

En introduction

Je ne suis pas sur le thème : réformer l’enseignement professionnel. En tout cas je n’y répondrai pas immédiatement sans faire un détour historique.
Contrairement aux résultats de l’enquête qui était présentée dans cette journée, mon expérience témoignerait plutôt du « mauvais état » dans lequel les élèves rentrent en lycée professionnel.

D’où le thème de ma réflexion : quelle est la place de l’enseignement professionnel dans notre système scolaire ? Et c’est une place très particulière à la France.

Quelques repères historiques

On constate une intégration tardive de la formation professionnelle dans le système initial français, dans les années 50. Il y a plusieurs explications.

La première explication. Antérieurement, la suppression des corporations qui réglementaient la formation professionnelle chez nous. Cela se fait à la fin de l’ancien régime et à la Révolution (voir mon article « Apprentissage : le contexte historique français ». Cela crée un vide, et une multitude d’acteurs apparaissent dans la formation professionnelle, (municipalités, certaines entreprises, associations).

Compte tenu de la pénurie de formation, l’état essaye de légiférer, comme dans tous les états européens. D’où la tentative de lancer l’apprentissage à partir de 1919. L’Orientation professionnelle sera également créée à cette époque. Mais… les entreprises suivent peu (l’artisanat oui, mais pas les entreprises).
Et au retour de la seconde guerre mondiale, l’état « nationalise » la formation professionnelle initiale : « Nous formons, vous reconstruisez », c’est le deal de l’époque.

Mais une autre raison doit être évoquée, et elle concerne l’organisation scolaire cette fois-ci. L’intégration de l’enseignement professionnel se fait au moment où on a :
Allongement de la scolarisation jusqu’à 16 ans
Mise en place du système scolaire « unifié »

Et ce dernier point est important. Au fond l’enseignement professionnel permet de protéger l’enseignement secondaire général tout en assurant l’allongement de la scolarité. Ceci permet de maintenir, ou de croire que l’on peut maintenir la pureté de l’enseignement général. « On vous intègre, mais vous vous occuperez des élèves dont nous ne voulons pas ».

Et l’outil pour opérer ce tri qui a pour effet cette protection, c’est les procédures d’orientation.

Orientation-sélection

La matrice que nous connaissons aujourd’hui se met en place avec la réforme Berthoin en 1959. Le processus va se complexifier jusqu’à aujourd’hui.

La subtilité vient du fait que la famille doit faire une demande d’orientation à laquelle répond le conseil de classe. Avant 1959, pas de demande (on est dans un entre-nous sociologique = 5% de la population sont dans le secondaire). C’est la période de la démographisation comme disait Antoine Prost.

La décision du conseil de classe (je vais vite sur cette notion de décision) repose non plus sur des épreuves permettant de calculer une moyenne, mais sur un jugement collectif des enseignants qui se basent sur leurs évaluations individuelles (disparition des épreuves trimestrielles, apparues dans les années 1890, en 1969). Voir mon article « Aux origines du conseil de classe ».

L’élève « orienté » est d’abord un élève refusé pour une voie générale. C’est le jugement de base.

La double peine

Et l’orientation suppose un changement d’établissement… il faut trouver une place.

Avant les années 70, il s’agit d’une question « privée », chaque famille s’adresse à un établissement qui accepte ou non. A partir de 70, c’est l’affectation qui se met en place et cela devient l’affaire de l’état et de son représentant l’Inspecteur d’académie, le DASEN aujourd’hui et le recteur. De la foire aux dossiers on est passé au cours des années 80 à des procédures d’affectation assistées par l’informatique, et maintenant à une affectation gérée par une application nationale sur le web, AFFELNET. Les Proviseurs des Lycées professionnels sont souvent mécontents, car ils ne sont pas maitres du recrutement. Si l’application AFFELNET est nationale, sa mise en œuvre est rectorale. chaque rectorat introduits ses propres critères, mais les notes de l’élève sont le critère primordial pour calculer et produire les listings d’affectation.

L’état des procédures aujourd’hui

Aujourd’hui, il existe trois paliers d’orientation au collège (6ème, 4ème, 3ème). Avec le projet de nouveaux cycles (voir mon article), sans doute on aurait seulement 6ème et 3ème comme paliers. Il y a également l’expérimentation de « donner la mains aux parents » dans quelques établissements, mais seulement après toutes les phases de la procédure habituelle en troisième, et celles de 6ème et de 4ème. Cela ne supprime pas l’intégration du jugement dévalorisant sur soi, ou au contraire le renforcement du conflit (voir mon article).

Chiffres actuels : 61% pour la seconde Gt, 36% pour la seconde pro et 2% de rdt.

Donc ma position

Les procédures d’orientation placent les enseignants et le collège dans un paradoxe pragmatique :faire réussir tout le monde et en même temps être capable de sélectionner les élèves. C’est pourquoi je milite pour la suppression des procédures d’orientation, au moins au collège, dans le temps de la scolarité obligatoire.

L’obligation aujourd’hui (et hier) est de faire réussir tous les élèves à obtenir au moins le socle commun. Or les procédures attribuent au collège, et aux enseignants une fonction de sélection. Difficile de tenir les deux fonctions à la fois ! Dans ce principe de sélection, l’une des voies est nécessairement dévalorisée.

D’où l’idée d’une seconde commune rassemblant les trois voies, professionnelle, technologique et générale.

Le lycée polyvalent est un peu le collège créé en début de l’ère gaulliste. On y avait rassemblé les trois voies post primaire : les cours complémentaires, le CEG, et le premier cycle du lycée. Et petit à petit on a mis en place une seule 6ème… Le lycée polyvalent est une des hypothèses déjà bien avancée dans la réalité des constructions par diverses régions.

Une autre hypothèse, c’est le lycée des métiers. Au lieu de rassembler les formations « horizontalement », on rassemble fonctionnellement : on rapproche tout ce qui concerne la formation professionnelle, qu’elle soit initiale ou continue, qu’elle soit scolaire ou par alternance… Cette hypothèse est sans doute très intéressante pour la formation professionnelle par le mélange des différents apports des acteurs le plus souvent séparés. Mais elle ne résout pas la question de l’orientation.

L’organisation en silos des formations

Enfin il faut insister sur une autre tendance profonde de notre système de formation. C’est l’organisation en silos, ou en paquets cadeaux, ou encore par menus. Ce sont des blocs à prendre en totalité. La conception anglo-saxonne, libérale, diraient certains, ou modulaire, ou à la carte a beaucoup de mal à être concevable chez nous.

On peut se rappeler de diverses tentatives d’aller vers le modulaire :
La création de la seconde de détermination en 1985 avec des options. Personne n’avait dit qu’il fallait rassembler dans une même classe les élèves ayant choisi la même option ! Même phénomènes dans les collèges. Au fond la facilité organisationnelle s’impose le plus souvent contre l’intérêt pédagogique. Le principe des classes homogènes s’affirme.
A l’autre bout, dans l’enseignement supérieur, on peut observer la réforme dite LMD, qui avait comme principe une organisation modulaire des enseignements, permettant à l’étudiant de construire sa formation. Mais le principe du diplôme l’a emporté contre celui du niveau.
Et notre formation professionnelle est également largement organisée en silos.

Conclusion

Ce que je préconise, je le sais, n’est pas simple, car c’est une remise en cause très profonde du fonctionnement et des principes de notre système scolaire, mais c’est la seule manière à mon sens de réduire l’échec scolaire et les dégâts sociaux qu’il produit.

Article initialement publié sur mon blog EducPros

parBernard Desclaux(son site)lundi 30 septembre 2013

Un avenir «po-éthique»

Une citation placée sur un mur de l’université m’a fait réfléchir cette semaine. Elle est de Theodore Von Karman, ingénieur hongrois en aéronautique décédé en 1963. Il dit : « les scientifiques étudient le monde tel qu’il est ; les ingénieurs créent un monde qui n’a jamais été ». La phrase contient tout l’enthousiasme qui devait l’animer en voyant voler les avions et se développer les techniques dans les années qui ont suivi la première guerre mondiale. Les techniques sont une spécificité humaine: avec elles nous inventons un monde qui n’existerait pas sans nous.

Améliorations

Heureusement pour notre bien-être et notre confort! En moyenne, l’espèce humaine se porte bien. Nous sommes de plus en plus nombreux, la classe moyenne à travers le monde augmente et en moyenne encore nous vivons plus vieux. L’agriculture industrielle rendue possible par le développement des techniques a considérablement amélioré notre alimentation et donc notre santé. Mais ce n’est pas le cas pour la santé de l’eau et donc pour les poissons qui y vivent. Ce n’est pas le cas pour les abeilles et pour les oiseaux. Et ce n’est pas le cas non plus pour l’air que respire tout ce qui vit sur la planète.

Par ailleurs, il ne faut quand même pas oublier que les moyennes cachent bien les disparités : nous partageons mal le bien-être et les richesses. Notre espèce s’approprie de plus en plus de ressources naturelles pour son développement, ce que ferait probablement n’importe quel autre animal ou végétal, s’il n’était pas freiné par le fonctionnement de la nature où l’un est la proie de l’autre. Rien ne nous arrête quand nous développons des techniques, parce que c’est notre spécificité même d’en imaginer. Notre expansion n’a pas d’autres limites que celles de la terre et d’après moi, elle peut en prendre la terre… mais pas toutes les autres espèces qui vivent avec nous.

Sens moral

Heureusement, nous sommes dotés de ce que certains appellent un « sens moral ». Nous pouvons inventer un monde qui n’existe pas mais nous devons aussi juger par nous-mêmes si les conséquences de l’utilisation de nos créations est acceptable ou pas.

Pour savoir quelles techniques sont plutôt bonnes ou plutôt mauvaises, la science et le génie ne sont pas d’un grand secours. Le raisonnement économique ne peut pas nous éclairer non plus. Avec l’argent, seul nous retient le rouge sur un compte en banque… et encore. Pour savoir si c’est bien, le raisonnement éthique doit donc intervenir avec des valeurs : l’équité, la liberté, le respect ou la responsabilité par exemples. Les changements climatiques sont liés à l’augmentation des gaz à effet de serre dans l’atmosphère dit la science. Les techniques humaines qui utilisent des énergies fossiles produisent ces gaz. Mais savoir s’il faut lutter ou non contre les changements climatiques relève de l’éthique. La responsabilité par rapport à la nature et la solidarité avec les humains moins bien nantis me font dire que nous devons diminuer notre consommation d’énergie et compenser pour les gaz à effet de serre que nous émettons même si ce n’est pas rentable.

Nous avons par le passé plus ou moins résolu les problèmes éthiques en inventant des religions. Cependant dans une société laïque, les préceptes moraux issus des religions sont en net recul. Dieu reste peut-être attirant pour certains mais notre époque porte l’idée de tous les dieux : choisir parmi ce panthéon relève de préférences individuelles. En l’absence d’un système de règles liées à une religion socialement acceptée, nous devons faire les raisonnements éthiques consciemment. Et ne croyez surtout pas que je souhaite le retour d’une religion ! Notre pensée du futur doit être « po-éthique » m’a dit un collègue : à la fois poésie et à la fois éthique. Aucune règle morale ne nous conviendra plus, si elle n’est pas en même temps un plaisir, élément de motivation important aujourd’hui et auquel je suis la première à souscrire !

PAR NICOLE HUYBENS – 30 SEPTEMBRE 2013

Google X : le laboratoire des projets les plus fous de Larry Page et Sergeï Brin

Lunette connectée, voiture sans chauffeur, intelligence artificielle,… Google est désormais sur tous les fronts. Passage en revue de ses projets les plus fous.

Le projet Google Glass Google

Lunette connectée, voiture sans chauffeur, intelligence artificielle,… Google est désormais sur tous les fronts. Le site qui a fêté officiellement ses 15 ans le 27 septembre dernier, n'est plus le simple moteur de recherche qu'il était à ses débuts. Le groupe fondé par les deux diplômés de Stanford, Larry Page et Sergeï Brin, est devenu l'acteur incontournable de la recherche sur internet et de la publicité online, mais aussi de la messagerie, des réseaux sociaux, de la cartographie. Il s'est glissé au premier rang mondial des systèmes d'exploitation pour appareils mobiles avec Android. Il possède également sa propre gamme de téléphones portables et de tablettes (Nexus), d'ordinateurs portables (Chrome Books) qui concurrencent directement son grand rival, Apple. Et ce n'est pas tout. Le groupe de Mountain View compte bien s'imposer dans la bataille des périphériques du smartphone via les Google Glass, des lunettes connectées futuristes équipée d'une caméra, d'un micro, du bluetooth et du WiFi.

Des ambitions énormes

Derrière ces nombreux projets se trouve le Google X Lab. A la tête de cette structure qui planche sur les technologies de rupture, Sergeï Brin. Depuis la révélation de son existence, le Google X fait l'objet de nombreux fantasmes. Très peu d'informations circulent sur cette annexe de Mountain View qui a fait du futur son terrain de jeu. Selon le New York Times, ses équipes travailleraient sur une centaine de projets. Bien entendu la plupart des idées lancées ne déboucheront pas forcément sur quelque chose de concret. Elles en disent toutefois long sur les ambitions du géant du web.

Pour preuve? Le lancement le 18 septembre dernier de la start-up Calico qui a pour mission de repousser les limites de la mort en s'attaquant aux limites de la vieillesse et des maladies associées. Rien que ça. Le magazine américain Time en a même fait sa une avec un titre très évocateur : "Google peut-il résoudre la mort ?".

Dans un post publié sur Google+, Larry Page déclare "ne soyez pas surpris si nous investissons dans des projets qui paraissent étrange et spéculatifs par rapport à nos activités internet. Et souvenez-vous que ces nouveaux investissements sont très petits par rapport à notre cœur de métier". Un message adressé aux actionnaires inquiets de voir le groupe partir dans tous les sens ?

>> Voici les 10 projets les plus fous de Google :

Implants

Publié le 30-09-2013 à 15h14

IMPLANTS. Google rejoint le courant de pensée du transhumanisme dont l'objectif est de transcender l'homme grâce aux technologies. Exemple: l'homme pourra vivre indéfiniment, son cerveau étant dupliqué sur disque dur. Et Larry Page imaginait il y a peu pouvoir faire de Google un implant cérébral qui répondrait instantanément à toutes les questions. DR



Google glass

Publié le 30-09-2013 à 15h14

GOOGLE GLASS. Les Google Glass vont-elles chambouler notre vie ? C'est le pari fait par Google. Le principe ? Des lunettes à réalité augmentée connectées au web, qui permettent entre autres de faire des photos par commande vocale, de recevoir des alertes sur un prisme placé dans l'angle supérieur droit du champ de vision, sans sortir son smartphone de sa poche. Elles ne devraient pas être commercialisées avant 2014 à un prix proche des 1.100 euros. 
JUSTIN SULLIVAN / GETTY IMAGES NORTH AMERICA / AFP



















Analyse d'ADN

Publié le 30-09-2013 à 15h14

ANALYSE ADN. Google Ventures, le fonds d'investissement dans les jeunes pousses du géant américain, a investi dans 23andMe, une société qui travaille sur le décodage génétique, fondée par Anne Wojcicki, qui n'est autre que la compagne de Sergei Brin, un des deux fondateurs de Google. Google





















































Le Brin-Bot

Publié le 30-09-2013 à 15h14

BRINBOT. Le BrinBot est un qui reproduit tous les mouvements de Sergei Brin, distant de plusieurs km. On voit son visage à l'écran, et c'est lui qui déplace le robot, comme si celui-ci étaitn un clone (rudimentaire) de lui-même... Ce robot est apparu en 2010 sur le campus de la NASA. DR

































Turbines volantes

Publié le 30-09-2013 à 15h14

TURBINES VOLANTES. Les trubines volantes font parties des nombreux projets sur lesquels planche Google X, le laboratoire de recherche du groupe de Mountain View. L'idée développée par Makani Power, la société rachetée par Google en mai 2013, est simple : produire de l'électricité grâce à des turbines aériennes placées sur un avion. DR

































Ressources minières spatiales

Publié le 30-09-2013 à 15h14

RESSOURCES MINIERES SPATIALES. Actionnaires de Planetary Resources, Larry Page et Eric Schmidt, misent sur l'exploration minière spatiale. Ici, la capsule va "piéger" et capturer cet météorite composé à 99% de métal précieux, pour le ramener sur Terre. DR



































Voiture sans chauffeur

Publié le 30-09-2013 à 15h14

VOITURE SANS CHAUFFEUR. Google travaille sur ce projet de voiture sans chauffeur qui peut se garer toute seule ou bien prendre le relais du conducteur, pour son confort durant un trajet. Ici, un chauffeur aveugle a pu se rendre tout seul de son domicile au centre-ville. Sipa


































Viande artificielle

Publié le 30-09-2013 à 15h14

VIANDE ARTIFICIELLE. Sergei Brin travaille sur un projet de viande synthétique, à partir de culture de cellules in vitro. Sipa
































Loon

Publié le 30-09-2013 à 15h14

LOON. Avec ce projet de ballons stratosphériques connectés, Google espère fournir un accès internet aux pays du Sud. Situé entre 18 et 27 km d'altitude, ces montgolfières de nouvelles générations peuvent fournir un accès 3G à une zone au sol de 40 kilomètres de diamètre. GOOGLE / AFP

































Immortalité

Publié le 30-09-2013 à 15h14

IMMORTALITE. Le Time a consacré sa Une au projet un peu fou de la maison de résoudre la question de la mort, via Calico, une start-up qui travaille sur l'extension de la longévité. Son objectif : lutter contre le vieillissement et les maladies dégénératives. L'entreprise est dirigée par Arthur Levinson, le patron de Genentech. Apple soutient même le projet. DR


































Publié le 30-09-2013 à 13h17 - Mis à jour à 15h13

Par Marco Mosca

http://www.challenges.fr/high-tech/20130930.CHA4958/google-x-le-laboratoire-des-projets-les-plus-fous-de-larry-page-et-sergei-brin.html?xtor=RSS-16