mercredi 28 août 2013

GAZ DE SCHISTE – L’alternative « intéressante » de la fracturation au propane

L’exploitation du gaz de schiste séduit de plus en plus de pays. Nouveau converti à cette énergie non conventionnelle, le Québec envisage d’utiliser une nouvelle technique de fracturation au propane censée être plus écologique.

Interrogé par Le Monde sur la technique de la fracturation au propane que souhaite utiliser le groupe québecois Pétrolia sur l’île d’Anticosti, un expert de l’IFPEN estime qu’il s’agit d’ « une alternative intéressante bien que perfectible ». « Le propane est une alternative intéressante à la fracturation hydraulique, car il résout la question de l’accès à l’eau, surtout dans des régions déjà soumises au stress hydrique comme en Chine ou aux Etats-Unis » affirme François Kalaydjian de Institut français du pétrole et des énergies nouvelles.

« Par ailleurs, il est possible de recycler le propane pratiquement à hauteur de 100 % » précise l’ingénieur qui souligne qu’avec le propane, contrairement à l’eau, aucun n’est nécessaire.

Posté par: Rédaction 

Infographie : le plan de carrière fou de cinq entrepreneurs de génie

Tout le monde l’oublie, mais les plus grands entrepreneurs ont rarement exercé un seul métier avant d’atteindre la gloire mondiale. La preuve en image.


Et si le meilleur plan de carrière était tout simplement de ne pas en avoir ? À en croire cette infographie générée par Funders and Founders, les entrepreneurs de génie se laissent guider bien plus par leurs envies que par une ambition démesurée. Bon après, tous ont en commun d’avoir travailler dès l’âge de 12 ans. Ça forme.

Plus connu pour ses lancements de produits en fanfare et ses paris insensés, peu savent que Richard Branson a démarré sa vie de businessman en vendant des sapins, avant de se lancer dans la radio et la production de musique qui fera sa première fortune. Plus étonnant encore, notre lord Anglais s’est même essayé à la reconstruction et gestion d’une boîte de nuit gay. Et encore, ce n’est pas le plus fou.

Avant d’être le propriétaire de l’équipe de basket des Maverick de Dallas, Mark Cuban a également vécu plusieurs vies d’entrepreneurs. En effet, après avoir été professeur de disco (oui, oui), propriétaire d’un bar et vendeur de poubelles, le dirigeant s’est lancé dans les chaines sportives, trépied idéal pour racheter une franchise.

Professeur de disco avant de lancer ses chaines de sport

Co-fondateur du géant Groupon, Éric Lefkofsky a été en revanche un peu plus constant dans ses choix professionnels. Entre son lancement d’un marché de produits en promotion dans sa jeunesse et ses quelques années d’expérience dans la lofgistique, il a pu développer une palette de compétences non négligeable pour le lancement de son génial site de e-commerce.

Enfin, Elon Musk que l’on ne présente plus (co-fondateur de Paypal) a tout de suite montré de grandes dispositions pour l’informatique. À 12 ans, il a créé de nombreux jeux vidéos avant de lancer dans le logiciel. Comme quoi on reconnaît très vite les génies




Par Tancrède Blondé / 28 août 2013

http://www.widoobiz.com/actualites/infographie-le-plan-de-carriere-fou-de-cinq-entrepreneurs-de-genie/40699

Conférence européenne sur les MOOC en février 2014



Petit billet rapide pour faire passer une information qui pourra en intéresser plus d’un. Du 10 au 12 février 2014 se tiendra à Lausanne la première conférence européenne sur les MOOCs. Moment de rencontre important, pour développer des synergies et des initiatives, cette conférence comporte 4 axes : politique, retours d’expérience, recherche, économique. On y trouvera certainement tous les acteurs européens.

Les 2 axes retours d’expériences et recherche font l’objet d’appels à communication, à retourner d’ici le 20 septembre.

Parmi les sujets identifiés coté retour d’expérience, citons : modes de production (coûts, processus, écueils), sélection et motivation, retour de données, intégration avec l’existant, support pédagogique aux enseignants, etc.

Coté recherche, l’évaluation des MOOCs, les questions de conception, l’analyse de données, les aspects technologiques sont au cœur de l’appel.

Le phénomène étant encore très jeune, les appels sont très ouverts. L’échéance est par contre déjà toute proche : le 20 septembre.

Crédit photo : Rolex Learning Centre and some photographers par David Haberthür – licence CC-by-sa

L’éducation au 21e siècle : nous sommes tous des apprenants!

C’est dans quelques heures que je m’adresserai aux enseignants du Cercle 13M (région de Moncton, NB) dans un atelier qui s’inscrit dans le cadre de leurs journées de perfectionnement professionnel, telles qu’organisées par l’Association des enseignants francophones du N.-B.

Comme je le signalais dans mon dernier billet, le titre reste assez général : L’éducation au 21e siècle, ce qui me permet d’explorer différentes facettes avec ce groupe de gens passionnés et intéressants Encore une fois, je mise sur une panoplie d’outils web pour l’atelier (Prezi, G Drive, Polleverywhere, Diigo, Twitter, etc.) et j’invite les participants à explorer quelles sont les transferts, les usages possibles de tel ou tel outil dans LEUR classe avec LEURS élèves. Imagine the possibilities, disait la pub…

Voici en appui des liens divers associés à cette formation :
Bon, je l’admets, ceux qui me lisent auront peut-être reconnu une présentation que je faisais en décembre 2012 à l’UQAC, Saguenay QC. J’ai grandement aimé l’expérience cette fois-ci de revoir, de remixer, d’actualiser mon propos à partir de ce que je partageais à ce moment-là. Et puis, une certaine économie de temps et d’efforts pour monter cela en ligne




À la base, la question reste « Quelle école voulons-nous? ».

Après avoir signalé que le contenu de cet atelier est inspiré à 100% par mon réseau professionnel, je veux situer mes réflexions dans la réalité du monde hyperconnecté d’aujourd’hui : la circulation étourdissante sur Internet, l’abondance impressionnante des échanges sur les médias sociaux, voire même le risque de perdre le contact avec notre entourage immédiat (Cabrel le chante : « C’est une question d’équilibre »)… Mais ce web reste à l’aube de transformations profondes (encore…)
  • Accès mobile en croissance remarquable, partout (ubiquité)
  • De grosses, très grosses données (Big data) qui intéressent…
  • Chevauchement entre la vie personnelle et professionnelle : mutation de la notion de ‘vie privée’ ?
  • « L’Internet des choses » (chez votre détaillant le plus près!)
  • Internet comme outil d’éducation, de mobilisation (pas juste de consommation)

Et ce web sert essentiellement à :
  • se renseigner
  • socialiser
  • acheter
  • consommer
  • créer et partager
  • gérer ses affaires
  • gérer une organisation
  • enseigner
  • apprendre

Situons davantage le web en termes d’école et d’éducation. La petite vidéo fort amusante de Benoit Petit en aura fait sourciller plus d’un. C’est voulu car il est fort à parier que les gens voudront d’ores et déjà dire haut et fort ce qu’ils font en termes d’intégration des TIC pour enseigner et apprendre. Yes!

Et les jeunes? Que cherchent-ils? Fondamentalement : partager, créer, débattre sur des enjeux qui leurs sont chers. Bien souvent «I want it here, right now!». Quel défi pour l’école. «Engage me or enrage me», nous rappelait Prensky.

Et les organisations (institutions, entreprises, ONG, etc.)? Elles continuent de se réinventer à la lumière de la réalité hyperconnectée, ses acteurs gèrent leur identité numérique, le mobile est un outil indispensable, les dirigeants sont invités à bloguer… 2020, c’est dans pas longtemps!

Concrètement, nous sommes entourés d’appareils mobiles et de tablettes. J’offre quelques pistes d’usages judicieux en classe en autant qu’on puisse s’en servir de façon responsable et assumée et que les finalités soient clairement exposées en amont. « Les technologies nous condamnent à être intelligents » nous rappelle Michel Serres…

Pour ce qui est de l’enseignement, dans pareil contexte, il est nécessaire à mon avis de la voir dans une perspective 3.0, en sachant quels sont les attributs des enseignants qui intègrent judicieusement les TIC. Car, en bout de piste, il ne s’agit pas de l’outil, mais plutôt ce qu’il permet d’accomplir, comme nous le décrit Bill Ferriter de façon si saisissante (ici en traduction libre).


Cette intégration des TIC, on la voit sous diverses couleurs, ou plutôt de divers niveaux du continuum SAMR de Ruben Puentedura, de la substitution (des fusées sur la diligence) à la redéfinition de tâches d,apprentissage auparavant inconcevables sans des technologies performantes. Des affordances pédagogiques de haut niveau, quoi.

Dans cette optique, l’école doit se confronter à elle-même : quelles sont les contraintes systémiques (un oxymoron, à mon avis) à affronter? Quelles sont les finalités de formation pour le monde d’aujourd’hui et de demain? Qu’est-ce que cela va prendre? Du leadership, du courage, une vision partagée, le droit à l’erreur, des expérimentations, le partage des expériences, de la collaboration et encore du courage !

« Nous sommes d’abord des apprenants », nous rappelle Chris Kennedy. Et l’apprentissage, il est formalisé mais surtout informalisé (sic), grâce en grande partie aujourd’hui aux réseaux d’apprentissage professionnel (PLN) qui permettent à chacun de grandir, en compagnie de ses pairs.

La dernière partie traite de divers moyens et outils qui appuient l’enseignant-apprenant. À chacun son coffre d’outils! Comme le dit si bien Darren Kuropatwa et David Truss, deux éducateurs canadiens que j’admire, l’apprenant, tout comme l’école qui cherche à se transformer, doit se placer en mode BÊTA PERPÉTUEL. L’éducation au 21e siècle, c’est le phare. On rame dans sa direction mais ce phare continuera à toujours se déplacer plus loin. On ne sera jamais « arrivés » et c’est tant mieux.

La route aura été riche en apprentissages.
publiée le 28 août 2013

http://zecool.com/2013/08/28/leducation-au-21e-siecle-nous-sommes-tous-des-apprenants/

Pour une autre école . Vite !

" Les programmes tuent la curiosité, dégoûtent les jeunes " Une école où l'on apprend non pas en s'amusant mais avec plaisir… C'est ce que réclame, vite, Gabriel Cohn-Bendit. Professeur d’allemand, fondateur du lycée autogéré de Saint-Nazaire, animateur d’action éducative en Afrique… Gabriel Cohn-Bendit incarne le militantisme pragmatique pour une autre école. Dans son dernier ouvrage il propose de repenser l’éducation… et vite !

À chaque rentrée des classes on assiste à une profusion de sorties de livres sur le système éducatif. De tels ouvrages ont-ils une utilité ?

Ils peuvent en avoir une, si les médias, grands ou petits, généralistes ou spécialisés en parlent. Je crois aux débats et à leur efficacité, même si je suis un pessimiste quant à la rapidité de propagation de certaines idées dans la majorité du corps enseignant. Cela dépend aussi de la capacité de ceux qui partagent ces idées à se constituer en force loin de tout sectarisme et d'esprit de chapelles. Nous sommes minoritaires, mais ensemble nous pouvons compter.

Certains passages de votre livre ont un aspect testamentaire. Quel héritage voulez-vous laisser à l’école, à la pédagogie, aux profs, à la société … ?

Construire une école de la coopération, de l'enseignement mutuel contre cette école de la compétition du tous contre tous. Une école où se pratiquent les valeurs de la démocratie et non pas où elles s'apprennent par cœur dans des cours de morale fussent-ils laïques, avec interrogations écrites comme moyen de contrôle. Une école où il n'y a pas plus, ni moins de place pour la Marseillaise que pour l'Internationale ou l'Hymne à la Joie. Une école où l'on apprend non pas en s'amusant mais avec plaisir et si possible avec passion. Une telle école est possible de nombreux exemples le prouvent. »

Page 60 débute un chapitre intitulé : En finir avec les programmes… Mais, vous précisez dans la première phrase qu’il est essentiel de définir ce que tout élève devrait maîtriser en fin d’école primaire… Pouvez-vous expliciter cette apparente contradiction idée ?

Définir un ensemble de comportements, de « savoirs », de compétences qu'un jeune devra maîtriser à la fin de la scolarité obligatoire, en fait en fin de troisième et non à la fin de l'école primaire comme je l'ai écrit, prisonnier moi même de la vieille coupure dépassée primaire-collège , c'est tout autre chose que de définir ce qu'un jeune doit apprendre année par année, semaine par semaine discipline par discipline.

Chaque jeune à des intérêts différents, des rythmes d'apprentissage différents. Il y a des enfants qui savent lire à 6 ans d'autres ne maîtriseront la lecture qu'à 8 ans et alors ? Qui a décidé qu'on devait savoir lire à 7 ans ? En Finlande on ne commence à apprendre à lire qu'à 7 ans. Un ami instituteur m'a raconté qu'un de ses élèves bricoleurs passionné a appris à lire dans un manuel de bricolage et un autre passionné de rugby dans les articles de journaux sur le rugby. La première fonction de l'école est de susciter et de répondre à la curiosité des jeunes. Les programmes tuent la curiosité, dégoûtent les jeunes en les obligeant à travailler sur des questions dont ils ne voient pas l'intérêt et en les empêchant de travailler ce qui les intéresse.

La conclusion du livre est un appel à la refondation de l’école… S’agit-il de la refondation proposée par Vincent Peillon ?


Je ne sais pas ce que Peillon avait en tête quand il a lancé l'idée de la Refondation de l'école, mais ce qui en sort et qui a été voté au parlement n'a pas grand chose à voir avec ce que j'appelle de tous mes vœux.

Dans la préface vous racontez que vous avez écrit au ministre de l’éducation actuel, le 23 mai 2012, et que vous aviez fait de même, en 1981, à l’attention d’Alain Savary… Votre militantisme épistolaire porte-t-il parfois des fruits ?

En juillet 1981 à la suite de ma lettre ouverte publiée par Libération, Alain Savary m'avait reçu et ce fut le début de l'aventure du Lycée Expérimental de St Nazaire qui a ouvert ses portes en février 1982 et qui a fêté ses 30 ans en juin 2012. Savary a aussi permis l'ouverture du Lycée autogéré de Paris à la rentrée 1982-83, ainsi que du CLE d'Hérouville.

Je n'ai rien tenté avec Chevènement le Ministre de l’Éducation le plus conservateur de la quatrième et cinquième République. Nous avions signé à plusieurs une lettre à François Bayrou qui nous avait reçu aimablement mais sans résultat. J'ai essayé de rencontrer Allègre mais son conseiller Alain Geismar, ex soixante-huitard m'a répondu qu'il avait beaucoup de travail.

Mais j'ai à nouveau tenté ma chance avec Jack Lang qui m'a reçu et à qui j'ai vendu l'idée du Conseil de l'Innovation. C'est ainsi que certains établissements comme Clisthéne à Bordeaux ont pu voir le jour. Mais l'administration centrale du Ministère de l’Éducation a très mal vécu cette institution qui ne dépendait que du Ministre. Si j'ai pu croiser Vincent Peillon après sa nomination et être reçu par Mme George Pau-Langevin et plusieurs membres de son cabinet, il semble bien que ma présence au nouveau Conseil de l'Innovation n'a pas été jugée souhaitable.

Propos recueillis par G. Longhi

Gabriel Cohn-Bendit, "Pour une autre école". Repenser l'éducation, vite !, éditions Autrement. Sortie le 28 août.

Par fjarraud , le mercredi 28 août 2013.

Internet des objets : l’avènement des "smart companies"

Les objets "intelligents" vont transformer notre quotidien et notre façon d’interagir avec le monde. Encore naissante, cette tendance est d'ores et déjà une réalité dans de multiples secteurs. Derrière cette "numérisation", de nouveaux services et usages apparaîtront. Avec eux, de nouveaux acteurs et business models. Aux entreprises de se réinventer !

Smart industries, smart cities

La connexion des objets à Internet, associée à la miniaturisation, à la diminution des coûts de production et au déploiement des outils d’analyse, confère aux objets jusqu’alors "muets" leur "intelligence". Cette tendance, qui s’imposera naturellement et progressivement pour certains, mais sera vécue comme une révolution par d’autres, est déjà une réalité.

Publié par : Temey, le Mardi 27 Août 2013 - 06:00

mardi 27 août 2013

A living atlas of the world



That dusty, tattered atlas on your bookshelf could soon be superseded by a living, online version that uses digital mapping technology to provide real-time views of the world.

Devised by Esri, the Living Atlas of the World concept brings together thousands of individual mapping projects uploaded by people across the world.

Esri’s Product Strategist Bern Szukalski said the idea of a Living Atlas has emerged from a recent revolution in mapping technologies.

“New, free technology that features easy-to-use templates, apps and tools is driving an international community of everyday people to create a constantly evolving, online treasure trove of interactive maps,” Mr Szukalski said.

“Some people are doing this for fun, while companies and organisations are using this as a way to collaborate and share their work.

“From casual canoe trips to up-to-date real-time maps of the world’s refugee camps and their populations – this unique technology is turning thousands of maps into an incredibly accurate Living Atlas of the World.”

Based in the U.S., Mr Szukalski has been invited to Brisbane next month to unveil the Living Atlas at the nation’s largest spatial event, Ozri 2013.

He said the atlas is constantly updated from commonly available data streams such as satellites, traffic cameras, GPS devices, weather stations and social media feeds.

“Accessible data sources are growing at an exponential rate – with traffic sensors and web cameras everywhere and satellites constantly looping around the planet ensuring hundreds of thematic layers of information are now available,” Mr Szukalski said.

“Much of that imagery and data is being collected in real-time as well.

“So, while countries will continue to change names and realign borders – making that globe on your desk suddenly out-of-date – the Living Atlas will always remain relevant.”

Ozri 2013 Technical Director Kellie Persson said the use of live crowd-sourced data was a major trend in GIS technology, as it provides organisations with a way of keeping up with a rapidly changing world.

“In the process of unlocking GIS technology for a broader audience, we are seeing a reinvention of the atlas, enabling everyone to visualise the globe around them with a level of intense detail previously unimaginable,” Ms Persson said.

“The general public are now creating and updating intelligent mapping projects in the way only skilled GIS technology professionals were able to do just five years ago.

“This is a common theme among many of the presentations and exhibits at Ozri 2013 – we are putting GIS technology into the hands of anyone with an internet connection.”

Ozri 2013 will run from 4-6 September at the Brisbane Convention and Exhibition Centre. For registration details visit www.esriaustralia.com.au/ozri.

by Schester on 27 August, 2013

http://www.spatialsource.com.au/2013/08/27/a-living-atlas-of-the-world/

La Terre saison par saison




[Vidéo] Et si c'était la plus belle vidéo Time Lapse de l'année ?

KAIST Develops a Metal-Graphene Composite Material Hundreds of Times Stronger Than Pure Metals


Graphene © AlexanderAlUS/CORE Materials

Researchers from the Korea Advanced Institute of Science and Technology (KAIST) have developed a new metamaterial that is proven to be hundreds of times stronger than pure metals. To maximize the potential increase in strength provided by the use of graphene, the KAIST team created a multi-layered structure, alternating layers of graphene and metal—this composite nanomaterial consists of graphene inserted into copper and nickel. The resulting metal-graphene multilayer composite material is the first of its kind, and the team’s research was published in the science journal, Nature Communications in July of 2013.





Nuclear Reactor © Tysh

To build this structure the team utilized a process called Chemical Vapor Deposition (CVD) allowing them to grow a single layer of graphene on a metal deposited substrate. The team then deposited another layer of metal on top of the graphene, and the two step process was repeated to add additional layers to create the new composite.

To measure the strength of the new material, the team conducted a series of micro-compression tests administered through a Transmission Electronic Microscope and Molecular Dynamics Simulation. The results showed the composite material’s ability to block dislocations and cracks caused by external damage traveling inwards to be much greater than that of conventional metal-metal multilayered materials. The increase in strength varied depending on the interlunar distance, with 70nm exhibiting 500 times more strength than pure copper, and 100nm measuring to be 180 times stronger than pure nickel. A clear relationship between the interplanar distance and the strength of the material was identified. It was also concluded that the smaller interplanar distance made dislocation more difficult, thus resulting in a stronger material.

Seung Min Han, the KAIST professor who led the research team to success commented “the result is astounding as 0.00004% in weight of graphene increased the strength of the materials by hundreds of times” and that “improvements based on this success, especially enabling mass production with roll-to-roll process or metal sintering process, in the production of automobile and spacecraft lightweight, ultra-high strength parts may become possible.” He went on to explain how the new material could also be applied to coating material for the construction of nuclear reactors and products that require a high level of reliability.

+ KAIST

ELECTRICITE – Le numérique consomme 10% de la production mondiale




Malgré sa petite taille, un smartphone consommerait plus d’énergie qu’un réfrigérateur. Globalement, l’économie numérique consommerait à elle seule 10% de la production mondiale d’électricité selon une étude publiée par le cabinet de conseil en énergie Digital Power Group.

Bluetooth, wifi, 3G, 4G, cloud… si la révolution numérique est partout présente et à toute heure dans notre vie quotidienne, elle est très gourmande en énergie. Au total, elle consommerait 1 500 térawattheures annuels dans le monde, de l’amont à l’aval (de la production du matériel informatique à l’utilisation en passant par les serveurs et les réseaux).

Et ce n’est pas fini, car le trafic internet via les téléphones mobiles devrait décupler dans les 5 prochaines années, selon le rapport de Digital Power Group.

Posté par: Rédaction 

L’aménagement numérique dans les documents d’urbanisme

Le développement des réseaux numériques constitue un enjeu majeur pour l’égalité et l’attractivité des territoires. Afin de répondre aux exigences de la Loi ENE, dite loi Grenelle II, les collectivités locales doivent transcrire des dispositions relatives aux « communications électroniques » dans leurs documents de planification territoriale.
Un cadre législatif récent


Depuis quelques années, l’Autorité de Régulation des Communications Electroniques et des Postes (ARCEP) définit le cadre réglementaire du déploiement de la fibre optique en France. L’Etat propose aux collectivités des outils favorisant unaménagement numérique cohérent à chaque échelon territorial. Les collectivités territoriales deviennent ainsi des acteurs importants du développement des infrastructures de communications électroniques. Afin de limiter une fracture numérique plus importante, l’Etat a lancé le plan France Très Haut Débit qui succède au programme national pour le Très Haut Débit de 2010. Ce plan est piloté par une mission dédiée, la mission Très Haut Débit (mission THD). Le Plan France Très Haut Débit prévoit la mobilisation de 3 milliards d’euros de subventions apportés par l’Etat pour soutenir les projets des collectivités territoriales.

Des acteurs publics et privés

Les opérateurs privés sont prioritaires par rapport aux collectivités territoriales dans l’établissement des réseaux de communications électroniques suivant le principe d’une concurrence par les infrastructures posé par l’Union Européenne. Dans le cadre du Code Général des Collectivités Territoriales, les collectivités peuvent intervenir pour l’aménagement numérique. Depuis 2004, l’article L.1425-1 leur donne la possibilité d’établir et d’exploiter des réseaux de communications électroniques. Plus de 130 réseaux d’initiative publique (RIP) à haut débit ont ainsi été établis ces dernières années. De plus, en 2009, la loi Pintat relative à la lutte contre la fracture numérique introduit l’article L.1425-2 du CGCT affirme leur rôle dans la planification des déploiements de réseaux.

Les outils de planification: SCORAN, SDTAN et SCoT


Une première étape dans la planification locale de l’aménagement numérique a été initiée avec la mise en place d’une instance régionale de concertation pour établir la Stratégie de Cohérence Régionale d’Aménagement Numérique (SCORAN). Elle fixe les grandes orientations souhaitées par les acteurs régionaux, afin de garantir que chaque territoire soit couvert par un schéma directeur territorial d’aménagement numérique (SDTAN).

Une deuxième étape a été engagée à travers l’élaboration concertée par les collectivités de Schémas Directeurs Territoriaux d’Aménagement Numérique (SDTAN). Instauré par la loi du 17 décembre 2009 relative à la lutte contre la fracture numérique, dite loi Pintat, il définit une stratégie de développement des réseaux établie à l’échelle d’un département au moins. Il vise à soutenir la cohérence des initiatives publiques et leur bonne articulation avec les investissements privés. La moitié des départements français est aujourd’hui engagée dans l’élaboration d’un SDTAN. Ces schémas visent à favoriser la cohérence des initiatives publiques et leur bonne articulation avec l’investissement privé ainsi que de planifier le déploiement du très haut débit sur le long terme. Il s’inscrit dans une perspective de planification de l’aménagement numérique à l’horizon de 10 à 15 ans. Il détermine des phases échelonnées dans un calendrier pour concrétiser les objectifs retenus par la collectivité.

Enfin, le schéma de cohérence territoriale (SCoT), qui s’applique à un territoire supra communal, décline au plan local les orientations du SDTAN, la loi Grenelle 2 ayant élargi le champ du SCoT à la couverture numérique.

Associer l’aménagement numérique au projet de territoire

Le SCoT constitue pour l’ensemble des acteurs d’un territoire l’opportunité de porter au débat et de prendre en compte, comme le prescrit désormais la loi, la question des infrastructures et réseaux de communications électroniques.

L’aménagement numérique, est intégré à chacun des grands thèmes étudiés au cours des trois étapes de l’élaboration du document :
  • le diagnostic, constitue la première phase du SCoT. Il permet aux acteurs locaux de construire une stratégie partagée sur les infrastructures de communications électroniques, ainsi que sur les services et les usages, correspondant aux enjeux hiérarchisés qu’ils ont fixés pour le territoire.
  • le projet d’aménagement et de développement durable (PADD), document politique exprimant les objectifs et projets de la collectivité locale en matière de développement économique et social, d’environnement et d’urbanisme à l’horizon de 10 à 15 ans. Il intègre le développement des communications électroniques en termes d’usages et d’infrastructures : secteurs prioritaires de déploiement très haut débit dans une perspective de développement ou de création de zones d’activités économiques, raccordement au réseau de logements permettant le maintien à domicile des personnes âgées….
  • le document d’orientations et d’objectifs (DOO) établit les prescriptions nécessaires à la réalisation du PADD. Il définit en particulier les zones dans lesquelles s’appliqueront des « critères de qualité renforcés en matière d’infrastructures et réseaux de communications électroniques ».
Une politique d’aménagement numérique en évolution permanente

Les documents de planification de l’aménagement numérique sont relativement récents et susceptibles d’évoluer rapidement. Les démarches de SCoT ou de PLU devront prendre en compte l’enjeu de conciliation entre la temporalité des documents d’urbanisme et celle liée au contexte très évolutif du marché des communications électroniques. Un dialogue continu entre les acteurs de l’aménagement numérique et de l’urbanisme est donc essentiel. Ainsi par exemple, les structures en charge des SCOT pourront mettre en place une veille active sur les évolutions des déploiements de réseaux. Elle pourrait porter sur le maintien des équilibres définis dans le SCoT susceptibles d’être impactés par les communications électroniques, mais également sur la mise en place de mesures correctives. Les collectivités en charge de l’aménagement numérique peuvent prévoir des instances d’échange associant les EPCI, pour s’informer sur les évolutions du territoire (conférence annuelle, comité de suivi numérique …). Enfin, la mise en place d’échanges réguliers et d’une politique de veille active visant à anticiper et à réagir rapidement s’avère essentielle pour éviter certaines disparités. ...

Lundi, 26 Août 2013 Djeinaba

http://www.lesenr.fr/actualites/683-lamenagementnumeriquedanslesdocumentsdurbanisme-.html

Les processeurs dans l'espace, de 1965 à nos jours






L’histoire de la conquête spatiale est plus ou moins liée à celle de l’informatique : très rapidement, et malgré la présence au sol de superordinateurs, la présence d’un ou plusieurs calculateurs dans les engins spatiaux s’est montrée indispensable pour effectuer en temps réel les calculs nécessaires au guidage, à la surveillance des systèmes ou encore aux manœuvres.

L’informatique « spatiale » doit toutefois faire face à bien plus de contraintes que ce que les ordinateurs au sol ont à endurer. En plus descontraintes physiques (accélérations et températures extrêmes), les ordinateurs, calculateurs et processeurs doivent en effet être le moins sensibles possibles auxradiations et aux émissions radio. Ils doivent également être « silencieux » d’un point de vue radiofréquences : l’horloge interne d’un CPU peut en effet rapidement se comporter comme un mini-émetteur RF et interférer avec le reste des systèmes !

Nous allons dans ce dossier retracer l’évolution des calculateurs et processeurs dans l’espace, des années 1960 à nos jours.

Corée du Sud: la technologie au secours des petits commerçants

Yoo Hyung-Geun, vendeur d'huile
de sésame sur un marché de Séoul
le 7 août 2013 
© AFP Jung Yeon-Je
Séoul (AFP) - Les marchés traditionnels de Corée du Sud se sont longtemps tenus à l'écart de la révolution technologique qui a balayé le pays, mais les commerçants adoptent peu à peu des outils numériques pour résister à la concurrence des grands magasins.

Yoo Hyung-Geun vend de l'huile de sésame au marché en plein air Junggok Cheil de Séoul depuis 14 ans. Il y a deux mois, il a échangé sa caisse enregistreuse contre une tablette tactile Samsung Galaxy, que lui a offerte SK Telecom, numéro un des opérateurs téléphoniques dans le pays.

La tablette fait office non seulement de caisse numérique mais propose aussi des logiciels développés par l'opérateur pour aider les petits commerçants à accroître leur rentabilité.

L'outil enregistre par exemple des données sur les ventes et les stocks, tels que le nombre de bouteilles d'huile de sésame --un ingrédient clé dans la cuisine sud-coréenne-- vendues chaque jour, semaine et mois.

Mais elle enregistre aussi les produits achetés par chaque client, permettant à M. Yoo d'effectuer quelques opérations de marketing de base, en promouvant tel ou tel produit via des textos ou des mails aux chalands réguliers, en fonctions de leurs habitudes.

"J'essaye d'utiliser ces données de différentes façons", déclare le commerçant, dont le chiffre d'affaires a augmenté de 30% depuis qu'il a reçu ses nouveaux outils.

Yoo Hyung-Geun est l'un des quatorze vendeurs sur ce marché à avoir été équipés.

SK Telecom a lancé ce projet après l'appel aux grands groupes lancé par la nouvelle présidente du pays, Park Geun-Hye, pour qu'ils aident les plus petits qui peinent à rester concurrentiels.

Les conglomérats sud-coréens, dont Samsung, qui fabrique smartphones et tablettes, ou encore Hyundai sont souvent accusés d'étouffer les entreprises plus petites, notamment dans la distribution.

Une caisse enregistreuse à écran tactile
offerte à un commerçant de Séoul par SK
Telecom, le 7 août 2013 © AFP Jung Yeon-Je
Pour les quelque 300 marchés traditionnels du pays, la montée en puissance des supermarchés tels que E-Mart ou HomePlus est un défi quasi-insurmontable.

Pour le moment, l'opérateur de télécoms a fourni 26 tablettes et logiciels au total dans deux marchés de Séoul et ses environs, et compte étendre ce programme, a indiqué Irène Kim, porte-parole. L'opérateur propose également "un mini-kit électronique" qui scanne les cartes de crédit, répondant ainsi à une des plaintes les plus fréquentes des clients des marchés.

"C'est bien plus pratique de ne pas avoir à transporter du liquide quand je viens ici", explique Kwon Hyuk-Sung, un habitué du marché qui réside à Séoul, une des villes les plus connectées du monde.

A Busan, la grande ville portuaire du sud du pays, un marché traditionnel s'est associé avec une agence gouvernementale pour créer une application pour smartphone, qui offre coupons de réduction, informations sur la centaine d'échoppes et conseils pour se garer.

Certains marchés sont équipés du WiFi gratuit, pour attirer les jeunes dans les gargottes qui voisinent avec les épiceries.

Et à Suwon, près de Séoul, les commerçants ont installé des caméras capables de décompter le nombre de clients à tel ou tel endroit du marché à n'importe quel moment. Ces données sont utilisées pour l'organisation d'attractions au meilleur moment et au meilleur endroit possibles.

lundi 26 août 2013

Le message de Shanghai

L'épreuve est quelque peu humiliante, mais on s'y est habitué. Comme chaque année depuis 2003, le classement mondial des universités, dit « classement de Shanghai », confirme le rang médiocre de la France : seulement 20 de nos établissements d'enseignement supérieur figurent parmi les 500 premiers - ce qui nous place bien après les Etats-Unis, la Chine, l'Allemagne ou le Royaume-Uni - et 4 parmi les 100 premiers. Nos milieux universitaires se rassurent en contestant la méthode d'évaluation, et leurs arguments sont recevables, mais ils passent à côté de l'essentiel.

D'abord parce qu'un tel palmarès exerce à coup sûr une influence considérable sur le « marché » mondial de l'enseignement supérieur. Diffusé sur toute la planète, et resté sans véritable concurrent, il offre une boussole aux étudiants et aux enseignants, toujours plus nombreux, tentés par la migration. On peut le supposer « auto-réalisateur » : la place flatteuse d'une université dans le palmarès, même si elle n'est pas entièrement méritée, finit par l'être parce qu'elle attire les meilleurs…

Mais surtout, ce classement fournit l'occasion de nous interroger sur l'organisation de notre enseignement supérieur. Fondé sur l'importance et la qualité des activités de recherche, il valorise l'association de l'excellence et de la taille - deux facteurs que le système français dissocie systématiquement : l'excellence (grâce à la sélection des élèves) est du côté des grandes écoles, de dimensions modestes, la taille du côté des universités. Incohérence supplémentaire : alors que les meilleurs lycéens briguent les grandes écoles, c'est l'université qui offre les postes les plus prestigieux d'enseignants et de chercheurs. Sous le quinquennat Sarkozy ont été lancés des regroupements autour de « pôles d'excellence », mais les particularismes ont la vie dure.

Il y a dix ans, on croyait pouvoir relativiser l'importance des classements internationaux : la qualité de notre enseignement était une affaire strictement nationale. Les temps ont changé : l'enseignement supérieur est, plus que jamais, le terrain d'une âpre concurrence internationale aux enjeux culturels, économiques et politiques. Le classement est une arme. L'Union européenne devrait publier le sien en 2014. Avec dix ans de retard sur celui de Shanghai…

Mieux vivre dans l’espace grâce à Dainese et au MIT




Comment améliorer la sécurité et le confort des astronautes lors de leurs escapades dans l’espace ? Les combinaisons spatiales actuelles, véritables petits astronefs, sont avant tout conçues pour garantir la survie de l’astronaute dans le milieu extrêmement hostile qu’est l’espace libre. Toutefois, un certain nombre de compromis sur l’ergonomie rendent la structure de la combinaison très rigide, pouvant provoquer des traumatismes physiques aux astronautes.

Pour palier à ce problème, le Massachusetts Institute of Technology (MIT) et l’équipementier italien Dainese travaillent actuellement à la réalisation de protections spéciales, placées dans la sous- combinaison destinée à contrôler la température corporelle de l’astronaute.

Le professeur Dava Newman du MIT, enseignante d’aviation et d’astronautique, et le Dainese Technology Center ont uni leurs compétences pour étudier le problème et fournir aux astronautes la meilleure réponse aux exigences de protection. Le projet a déjà été sélectionné par la NASA et prévoit maintenant une étude approfondie des pressions exercées par la combinaison spatiale sur le corps de l’astronaute pendant les opérations dans l’espace. Dans ce but, une combinaison spéciale a été réalisée, équipée d’une série de capteurs qui permettront d’identifier les zones sensibles. Avec cette combinaison il sera possible d’analyser de manière scientifique les effets nocifs éventuels de la combinaison spatiale pour apporter les améliorations nécessaires.



Une série d’entretiens approfondis avec les astronautes a déjà permis de déterminer les zones du corps les plus exposées et d’envisager des solutions possibles. Elles devraient être confirmées après l’enquête menée avec la combinaison munie de capteurs, tout en respectant les spécifications très sévères de la NASA relatives à l’emploi de matériel à l’intérieur des combinaisons qui doivent être employés dans des conditions opérationnelles très difficiles. Même le plus petit inconvénient, comme par exemple le relâchement d’une quantité à peine perceptible de produits chimiques ou même de CO2, peut créer des problèmes au système de gestion de la micro atmosphère de la combinaison et obliger l’astronaute à rentrer dans la nacelle.

Le projet est actuellement suivi directement en Italie au Dainese Tecnology Center et par l’ingénieur Allison Anderson du MIT, qui vient de finaliser avec les techniciens Dainese la sous combinaison pour détecter les zones de pression. Elle vient d’être présentée au Professeur Newman au cours de sa visite chez Dainese pour une série d’entrevues sur les projets en cours. Le bureau de Design Industriale Trotti & Associates de l’Architecte Guillermo Trotti, spécialisé en projets avec des agences spatiales, est également impliqué.

Les résultats du projet seront disponibles même pour d’autres agences spatiales, parmi lesquelles l’agence russe qui pourrait être une des premières à en bénéficier. Elles devraient être confirmées après les études effectuées sur la combinaison munie de capteurs ; à noter qu’une attention scrupuleuse est accordée au respect des spécifications très sévères de la NASA, relatives à l’emploi de matériel internes aux combinaisons employées dans des conditions opérationnelles ultimes.

État de l'emploi scientifique en France

La population de l’emploi scientifique du secteur public a augmenté de 11,6 % depuis l’année 2000 et représente plus de 160 000 équivalents temps plein en 2010, selon le rapport 2013 du ministère de l'Enseignement supérieur et de la Recherche. Les effectifs comptent 50 % de chercheurs, 12 % de doctorants rémunérés par un établissement public et 38 % de personnels de soutien.

Your Weight on Each Planet of the Solar System

Researchers build the world's smallest autopilot for micro aircraft




Researcher Bart Remes and his team of the Micro Aerial Vehicle Laboratory at the TU Delft faculty of Aerospace Engineering have designed, built and tested the world's smallest open source autopilot for small unmanned aircraft. A smaller – and lighter – autopilot allows these small flying robots to fly longer, fit into narrower spaces or carry more payloads, such as cameras. That makes them more suitable to be used in for example rescue operations. Remes: "Our aim? Make MAVs so small and light that every fireman can fit one in his pocket."

The world's smallest autopilot

The world's smallest autopilot for micro aerial vehicles – small flying robots that can be used in safety and rescue operations – is called Lisa/S. It weighs 1.9 grams, more than 30 grams less than its predecessor. The autopilot measures 2 cm by 2 cm. Bart Remes, project manager at the Micro Aerial Vehicle Laboratory at TU Delft: "We programmed new software, Superbitrf, that keeps the autopilot connected to a ground station and a normal RC transmitter at the same time." This combination of functions made it possible to miniaturize the autopilot. Making the autopilot smaller and lighter allows a micro aerial vehicle to stay up in the air longer and carry heavier cameras and sensors. This makes it easier to use MAVs in for example search and rescue operations.



Open source

The research team have chosen to develop Lisa/s open source to make it possible for users to test it and come up with suggestions for improvement. Making all the details available online also helps to make MAVs easily accessible for all. Remes: "Our aim is to make MAVs as commonplace as smartphones and laptops. Farmers can use MAVs to inspect crops for example. Our dream is that every fire fighter carries a MAV in his breast pocket to use for inspections of collapsed or burning buildings without having to go inside."

Quelques idées pour recycler les satellites hors-service


© Stefan Morrell

Donner une seconde chance aux anciens satellites permettrait de réduire les coûts et les déchets spatiaux.

À bord de la Station spatiale internationale, un bras robotisé tente de prouver que les satellites vieillissants pourraient connaître une nouvelle jeunesse. En mars, Dextre a commencé à manipuler du faux matériel dans le cadre de la Mission de ravitaillement robotique lancée par la NASA – une étape préliminaire au développement d’un véhicule équipé de bras similaires et visant, à terme, à ravitailler et réparer les satellites dans l’espace.

Des centaines de satellites sont actuellement en orbite géosynchrone. Quand leurs réserves de combustible sont faibles, ils se propulsent au-dessus du trafic spatial et deviennent des déchets. Comme le fait remarquer Benjamin Reed, de la NASA, il n’y a, aujourd’hui, aucun moyen d’intervenir sur les satellites.

Cela l’a pousse à imaginer un véhicule circulant au milieu des engins en fonctionnement pour les ravitailler en carburant, procéder à des réparations simples ou les déplacer vers une autre orbite. La Darpa (Defense Advanced Research Project Agency) et des entreprises privées travaillent sur leurs propres véhicules.

Certains devront se connecter à des équipements qui n’ont pas été conçus pour être accessibles une fois lancés. Cette technologie de réparation robotisée pourrait aussi servir aux missions spatiales avec équipage.

Selon Reed, le plus grand défi consiste en fait à s’approcher d’un satellite se déplaçant à grande vitesse et à s’y arrimer. « Une fois à sec, tous les satellites envoyés dans l’espace sont laissés à l’abandon, constate-t-il. Nous essayons de rompre avec ce modèle. »

Voici une présentation de trois des approches les plus prometteuses pour prolonger l’utilisation des satellites vieillissants.

1) Redonner de l’énergie

Tel un moteur portable, un « véhicule d’extension de mission » s’arrimerait à un ancien satellite pour lui fournir une nouvelle source de propulsion. Le carburant du véhicule pourrait faire fonctionner le satellite pendant des années.

2) Ravitailler

De nombreux satellites se retrouvent hors service simplement parce qu’ils sont à court de carburant. Comme ils n’ont pas été conçus pour refaire le plein, un véhicule comparable à une station-service itinérante percera un orifice dans le satellite et enlèvera les bouchons de sécurité pour insérer une pompe à carburant.

3) Réutiliser les pièces détachées

La Darpa développe une technologie capable de prélever les antennes et les composants encore exploitables des engins hors d’usage pour les fixer sur de nouveaux modèles. Cela permettrait d’abaisser les coûts de production et de lancement des satellites.

Elizabeth Preston

Rethinking investment risk

Does financial innovation inherently lead to greater risk in markets? An MIT economist takes a new look at the problem and says it does.

Financial innovation is supposed to reduce risk — in theory, at least. Yes, new financial instruments based on the housing market helped cause the financial crisis of 2008. But in the abstract, those same instruments have the potential to spread risk more evenly throughout the marketplace by making it possible to trade debt more extensively, rather than having it concentrated in a relatively few hands.

Now a paper published by MIT economist Alp Simsek makes the case that even in theory, financial innovation does not lower portfolio risk. Instead, it raises portfolio risks by creating situations in which parties sit on opposing sides of deep disagreements about the value of certain investments.

“In a world in which investors have different views, new securities won’t necessarily reduce risks,” says Simsek, an assistant professor in MIT’s Department of Economics. “People bet on their views. And betting is inherently a risk-increasing activity.”

In a paper published this month in the Quarterly Journal of Economics, titled “Speculation and Risk Sharing with New Financial Assets,” Simsek details why he thinks this is the case. The risk in portfolios, he argues, needs to be divided into two categories: the kind of risk that is simply inherent in any real-world investment, and a second type he calls “speculative variance,” which applies precisely to new financial instruments designed to generate bets based on opposing worldviews.

To be clear, Simsek notes, financial innovation may have other benefits — it may spread information around world markets, for instance — but it is not going to lead to lower risks for investors as a whole.

“Financial innovation might be good for other reasons, but this general kind of belief that it reduces the risks in the economy is not right,” Simsek says. “And I want people to realize that.”

We beg to differ

To see why financial innovation is supposed to reduce risk — and why Simsek argues that it does not — consider the family of instruments based around home mortgages. These include the mortgage-backed security, which is a bundle of mortgages sold as a bond; the collateralized debt obligation, which is a bundle of mortgage-backed securities; and the credit default swap, which is basically insurance on these kinds of debt.

In theory, wrapping a bunch of mortgages into a bond and selling it on the markets spreads risk around and could lead to lower mortgage rates. Since the bank or lending institution no longer has to hold all the loans, it is both less vulnerable and — not having to worry as much about defaults — may be in a better position to loan at lower rates.

Moreover, these kinds of financial instruments separate home loans into distinct tranches, based on apparent risk — meaning that hedge funds with high risk tolerance could acquire the higher-paying, riskier loans, and pension funds could acquire the seemingly safer tranches.

Any investment in mortgages will contain a certain amount of risk, since no one can be completely certain what the future holds for the housing market. But now consider what occurs when the credit default swap enters the mix. This is essentially a side bet between parties — such as banks and reinsurance companies — about the future of the housing market, and it will produce a winner and a loser. The wager represents precisely the kind of speculative variance, in Simsek’s term, that stems from a “belief disagreement.”

As it happens, Simsek believes that a closer analysis of the standard tool used to evaluate portfolio risk, the capital-asset pricing model (CAPM) in use since the 1960s, reveals that this kind of distinction is inherent in its equations.

“If you do the math, [portfolio risk] naturally breaks down into two components,” Simsek says — the inherent risk of investing, and speculative variance. His current paper is thus a mathematical demonstration of the idea that, using this widely accepted mode of analyzing risk, “as you increase assets, this speculative part always goes up,” as he explains, and that “when disagreements are large enough, this second effect is dominant and you end up increasing the average [portfolio risks] as well.”

Model research

To be sure, Simsek’s conclusion is based on a model. However, modeling is a significant part of economics; the right model can help describe and illuminate complex realities.

“You build models, and if you’re lucky enough, the model speaks back,” Simsek says.

Moreover, the disastrous results of financial innovations related to the housing market in recent years suggested to him that some rethinking of risk theory was in order. “What happened at the time seemed inconsistent to me with what we learned in finance courses,” says Simsek, referring to the investment bubble that sank prominent Wall Street firms and required a huge government bailout.

That is not to say that housing or the bond market are the only areas where speculative variance can be found; as Simsek points out, commodities markets, with their many futures contracts, are an obvious place to find bets based on belief disagreement and expressed through innovative financial tools.

Other economists are impressed by the paper. “He goes deep and he’s very careful and rigorous and clear,” says Darrell Duffie, a professor of finance at Stanford University’s Graduate School of Business, who commented on the paper at this year’s meeting of the American Economic Association.

As Duffie notes, there have been many papers published about belief disagreements, and much work done on financial innovation, “but as far as I know this is the only paper that puts the two together.” The paper also suggests a need for further empirical research, he says, to test Simsek’s theory about belief disagreement and speculative variance.

“It’s a pure theory paper, so you often want to have someone come along afterward and measure empirically how big the effect is,” Duffie says.

For his part, Simsek says, he would be happy to see empirical research probing his model. It would be beneficial, he thinks, for economists “to engage in a quantitative analysis, asset by asset, to think about the net effect [of speculative variance]. That’s a tough question, but one I think we should tackle going forward.”

Peter Dizikes, MIT News Office

Teaching entrepreneurship with discipline

New book by MIT lecturer Bill Aulet focuses on bringing innovations to market through disciplined planning and experimentation.

Discipline may not be the first quality people associate with entrepreneurship. But according to Bill Aulet, senior lecturer and managing director of the Martin Trust Center for MIT Entrepreneurship, discipline is paramount when starting a firm. Moreover, he says, entrepreneurship is a discipline unto itself, and can be taught through a series of steps — many of them involving hands-on experimentation.

This is the approach to entrepreneurship Aulet emphasizes in his new book, “Disciplined Entrepreneurship” (Wiley), which is based on his teachings at MIT and more than 20 years of firsthand experience with startups.

The book lays out 24 sequential steps in the development of a company around a disruptive innovation — a process that Aulet and colleagues at the MIT Sloan School of Management have called “innovation-driven entrepreneurship.” These steps include clearly identifying the target customer; calculating the size of a market; charting the competition; quantifying a product’s value; mapping the sales process; and conducting experiments on customers’ buying habits.

It ends, Aulet says, with the creation of a viable commercial product. But Aulet acknowledges that even knowing the steps is no guarantee of long-term success. “This is not a magic algorithm,” he says, but rather a “framework to increase the odds and magnitude of success for a new venture.”

Ultimately, Aulet hopes the book will lead to a broader discussion about teaching entrepreneurship as a rigorous academic discipline.

“Entrepreneurship is something that can be taught — and is taught at MIT, and other institutions — and there are processes you can follow, a framework you can create, much like, say, teaching journalism and writing,” he says. “It just requires a significant amount of discipline.”

Blurring the lines between company and customer

Much of the book’s content derives from Aulet’s lesson plans for 15.390 (New Enterprises), the introductory entrepreneurship course he teaches at MIT with Howard Anderson, a senior lecturer. This class has been run at MIT for more than 25 years, churning out hundreds of startups — and, more importantly, many skilled entrepreneurs, Aulet says.

“In essence, I’m trying to take what MIT does so well — which is teaching entrepreneurship — and make it accessible to a broader group of people inside and outside MIT, so we can have a bigger impact on the world,” Aulet says.

Each chapter includes case studies from MIT spinoffs and projects, focusing on how these entrepreneurs have implemented the specific steps described in the book. It also includes detailed examples from one of the companies Aulet co-founded, SensAble Technologies, as well as others he’s been involved with.

While watching so many MIT startups, Aulet has seen entrepreneurs make a few common mistakes. The main one, he says, is not focusing enough on the customer. “Getting the product, customer and market to fit right is one of the two most important things when starting a company,” he says. “The other is recruiting, retaining and growing a great team.”

Indeed, more than half of “Disciplined Entrepreneurship” focuses primarily on customers. The book walks the reader through identifying and acquiring customers; analyzing customers’ decision-making process; estimating the cost of acquiring new customers; and estimating the lifetime value of customers.

“Everyone always wants to start with their technology, idea or product,” Aulet says. “They have a great invention and they’re going to push that out in the world. They think, ‘If we build it, they will come.’ Building it is rarely the problem — especially at MIT. Getting the customer to come and buy in a way that makes for an economically sustainable new venture is the problem.”

“Successful entrepreneurs are ones who start a company walking in their customers’ shoes,” he adds. “They understand their customer so well, they become their customer, and the line between customer and company becomes blurred.”

A platform to build on

At times, the book focuses on seemingly minor — yet significant and often-overlooked — aspects of business planning. One step involves building a persona for the target customer, which includes creating an entire personality. Two others center on identifying, and then testing, key business assumptions, using data gathered from specific customer actions.

In this way, Aulet says, the book serves as a rigorous alternative to “teaching through storytelling” — where entrepreneurs share their inspirational stories — and what he sees as the overly simplistic teaching methods found in some entrepreneurship courses, which emphasize one strategy to building a company.

Other entrepreneurs have praised the book for its practicality, attention to detail, and systematic approach. Jon Powell, owner of Innovative Waste Consulting Services in Gainesville, Fla., says the book stood out, in part, because it “parallels the decision-making process, where it’s not a linear path, it’s one of oscillation. You go a certain distance in the book, then go back and revisit and revise your thinking. And there’s enough detail, but it doesn’t bog things down.”

Still, Aulet warns, “there’s no magic bullet for entrepreneurship. … Unfortunately, entrepreneurship is not like physics, where there is a universal theory of relativity that explains the right answer, because every startup is different and the results are unique. It’s a much messier process, where having structure and a place to start can help provide direction in an otherwise very confusing and ambiguous environment.”

Rob Matheson, MIT News Office

August 26, 2013

Photo : illusion optique

Science points to a new global warming source: the sea

Lightning strikes on the Pacific Ocean on Panama Bay on June 24, 2013. Oceans that grow more acidic through Man's fossil fuel burning emissions, can amplify global warming by releasing less of a gas that helps shield Earth from radiation, a study said Sunday.

Oceans that grow more acidic through Man's fossil fuel burning emissions, can amplify global warming by releasing less of a gas that helps shield Earth from radiation, a study in Nature Climate Change said Sunday.

And the authors warned the potentially vast effect they uncovered is not currently factored into climate change projections.

Scientists say that Man's carbon dioxide (CO2) emissions contribute to planetary warming by letting the Sun's heat through the atmosphere but trapping heat energy reflected back from Earth, so creating a greenhouse effect.

They also lower the pH balance of the world's oceans, making them more acidic, and hamper production of dimethyl sulphide (DMS), a sulphur compound, by plankton, said the study.

DMS released into the atmosphere helps reflect incoming radiation from the Sun, reducing surface temperatures on Earth.

Using climate simulations, the team said an 18 percent decline in DMS emissions by 2100 could contribute as much as 0.48 degrees Celsius (0.9 deg Fahrenheit) to the global temperature.

"To our knowledge, we are the first to highlight the potential climate impact due to changes in the global sulphur cycle triggered by ocean acidification," the authors wrote.

"Our result emphasises that this potential climate impact mechanism of ocean acidification should be considered in projections of future climate change."

They warned that ocean acidification may also have other, yet unseen, impacts on marine biology that may provoke further declines in DMS emissions.

Explore further: Dire outlook despite global warming 'pause': study

More information: dx.doi.org/10.1038/nclimate1981

Journal reference: Nature Climate Change

© 2013 AFP

16 hours ago

Read more at: http://phys.org/news/2013-08-science-global-source-sea.html#jCp

Centrale solaire spatiale


Le Futur de l'énergie solaire : Depuis plus de trente ans, les chercheurs du monde entier étudient la faisabilité d'une centrale solaire en orbite géostationnaire qui transmettrait l'énergie vers la Terre au moyen d'un faisceau de micro-ondes. Dans l’espace l’énergie solaire est abondante et facile à récupérer, aucune atmosphère n’absorbe les rayons du soleil et aucun nuage ne vient faire de l’ombre. C’est pourquoi la quantité moyenne d'énergie solaire récupérable y est huit fois supérieure à celle disponible au sol.

Le Japon, totalement dépourvu de ressources fossiles, élabore un tel projet depuis 2001. Le Pays du Soleil Levant prévoit le lancement, avant 2040, d'une centrale de 20.000 tonnes pour 1 GW de puissance équipée de deux panneaux d'un kilomètre. Ce genre de projet ne deviendra rentable que lorsque le prix du baril dépassera 150$.




Malheureusement, il ne faut pas oublier qu’une telle centrale est aussi une arme potentielle capable d'atteindre de nombreuses cibles au sol, mettant hors service toute l'électronique et provoquant d'énormes dommages, matériels comme humains.

Enfin, dans l’hypothèse que l’homme n’arrivait pas à enrayer le changement climatique en cours, il suffirait de couvrir 5% des déserts de la planète par d’immenses panneaux solaires pour alimenter la population mondiale. Ainsi, la France pourra utiliser de l’énergie produite dans le Sahara.

Bénéficiant d'un grand nombre de financements provenant du gouvernement fédéral et conformément à la volonté d'Obama de doubler la quantité d'énergie produite à partir de sources renouvelables, le solaire a le vent en poupe. Pourtant, malgré ses énormes promesses, les retombées technologiques restent encore très limitées. Un des problèmes majeurs reste le besoin d'énergie en continu, alors que la production d'électricité solaire est dépendante des conditions météorologiques et devient nulle la nuit. Des solutions de stockage sont envisagées mais elles ne sont pas encore déployées à grande échelle. De plus les meilleurs emplacements pour installer des fermes solaires sont situés dans les zones désertiques, très éloignées des centres de populations. Il faudrait donc transporter l'électricité sur parfois plusieurs centaines de kilomètres à travers des lignes de transmission qui d'une part n'ont pas encore été construites et qui d'autre part impliqueraient une grande perte d'énergie.




Pour contourner ce manque à gagner les chercheurs se sont tournés vers les étoiles: lancer des panneaux solaires dans l'espace permettrait de récupérer de l'énergie solaire 24h/24 toute l'année. Cette idée, digne d'un film de science fiction, avait déjà été explorée dans les années 1960 et 1970 par le Pentagone. Cependant à cette époque le concept était apparu économiquement infaisable quoique technologiquement envisageable. Mais voilà qu'il y a deux ans le Pentagon's National Security Space Office (NSSO) ressort ce vieux dossier et publie un rapport de 75 pages sur une centrale solaire spatiale. Depuis les ingénieurs ont construit un prototype expérimental, certes de petite taille, mais fonctionnel et produisant 20 Watts d'électricité à partir de cellules solaires situées à environ 150 km de la surface de la Terre.

sources : http://tpe.energies.futur.free.fr / http://www.techno-science.net

Écrit par Administrator
Lundi, 26 Août 2013 00:00

http://www.laterredufutur.com/accueil/index.php/category-table/509-centrale-solaire-spatiale.html

Le libre accès aux publications scientifiques atteint un seuil critique

Commission européenne
Communiqué de presse

Bruxelles, le 21 août 2013

Le libre accès aux publications scientifiques atteint un seuil critique

La tendance générale consistant à rendre accessibles gratuitement les résultats de la recherche aux lecteurs, ou phénomène du «libre accès», a été confirmée aujourd’hui par une étude financée par la Commission européenne. Cette étude montre que le libre accès a atteint un seuil critique, environ 50 % des articles scientifiques publiés en 2011 étant désormais accessibles gratuitement. Il s'agit d'une proportion deux fois supérieure à celle que prévoyaient les études antérieures, ce qui s'explique par l'application d'une meilleure méthodologie et une définition élargie du libre accès. Par ailleurs, selon cette étude, plus de 40 % des articles validés par la communauté scientifique et publiés dans le monde entier entre 2004 et 2011 sont désormais librement accessibles en ligne. L’étude examine le cas de l'Union européenne et de certains pays voisins, ainsi que ceux du Brésil, du Canada, du Japon et des États-Unis.

En rendant les résultats de la recherche plus accessibles, le libre accès peut contribuer à améliorer la science, à la rendre plus performante et à favoriser l'innovation dans les secteurs public et privé.Mme Máire Geoghegan-Quinn, membre de la Commission européenne responsable de la recherche, de l’innovation et de la science, a déclaré: «Ces résultats nous indiquent que le libre accès est promis à un bel avenir. Le partage des résultats de la recherche dans la sphère publique est bénéfique pour la science et renforce notre économie fondée sur la connaissance.»

L’étude a permis d'examiner la disponibilité des publications universitaires dans vingt-deux domaines du savoir au sein de l’espace européen de la recherche, au Brésil, au Canada, au Japon et aux États-Unis. À l'heure actuelle, dans plusieurs pays et disciplines, plus de 50 % des documents sont mis à disposition en libre accès. La disponibilité gratuite de la majorité des articles est à présent une réalité dans les domaines des sciences et technologies, de la recherche biomédicale, de la biologie et des mathématiques et statistiques. Les domaines où la mise en œuvre du libre accès est moins avancée sont les sciences humaines et sociales, les sciences appliquées, l'ingénierie et la technologie.

Une communication récente de la Commission européenne (IP/12/790) a défini le libre accès comme un élément essentiel à l'amélioration de la circulation des connaissances et par conséquent de l'innovation en Europe. C'est pourquoi le libre accès sera obligatoire pour toutes les publications scientifiques produites avec l'aide de fonds du programme Horizon 2020, le programme de l'UE pour le financement de la recherche et de l'innovation pour la période 2014-2020. La communication en question recommande que dans leurs programmes nationaux, les États membres prévoient des mécanismes similaires à ceux de la Commission.

Mme Geoghegan-Quinn a souligné que la Commission européenne encourage le libre accès en Europe, y compris aux résultats de la recherche financée par ses propres ressources: «Le contribuable européen ne devrait pas avoir à payer deux fois pour la recherche financée par des fonds publics. C’est la raison pour laquelle nous avons fait du libre accès aux publications le principe par défaut du programme Horizon 2020, le prochain programme de l'UE pour le financement de la recherche et de l’innovation.»

Contexte

L’étude a été réalisée par Science-Metrix, une entreprise de recherche spécialisée dans l'évaluation, et portait sur les 28 États membres de l’UE, ainsi que la Suisse, le Liechtenstein, l’Islande, la Norvège, la Turquie, l’ancienne République yougoslave de Macédoine, Israël, le Brésil, le Canada, le Japon et les États-Unis. Deux autres rapports du même groupe, examinant les politiques de libre accès et la question du libre accès aux données, ont également été publiés aujourd'hui.

Concernant les politiques de libre accès, le rapport a constaté qu'en science, la majorité des 48 premiers bailleurs de fonds considère acceptables les deux formes principales du libre accès, à savoir, le libre accès aux publications dans les revues (approche dite de la «voie dorée» ou «voie hybride») et l’auto-archivage (approche dite de la «voie verte»). Plus de 75 % d'entre eux ont accepté des périodes d’embargo de six à douze mois, correspondant au délai entre la parution d'une publication et le moment où elle est mise à disposition en libre accès.

La troisième étude a toutefois révélé qu'à l'heure actuelle, il existe moins de politiques mises en œuvre en faveur du libre accès aux données scientifiques qu'en faveur du libre accès aux publications. Le libre accès aux données scientifiques connaît une évolution rapide dans un environnement où les citoyens, les institutions, les administrations publiques, les organismes à but non lucratif et les entreprises privées coopèrent avec souplesse en vue d'améliorer les infrastructures, les normes, les prototypes et les modèles commerciaux. Dans le cadre du programme Horizon 2020, le programme de l'UE pour le financement de la recherche et de l'innovation pour la période 2014-2020, la Commission prévoit également de mettre en place un projet pilote concernant le libre accès aux données collectées par la recherche financée par des fonds publics, en tenant compte des préoccupations légitimes liées au respect des intérêts commerciaux, de la vie privée et de la sécurité.

La Commission fera du libre accès aux publications scientifiques un principe général du programme Horizon 2020. À partir de 2014, tous les articles produits avec l'aide de fonds de ce programme devront être mis à disposition en libre accès:
  • soit immédiatement par l'éditeur, qui les publiera en ligne (approche dite de la «voie dorée» ou «voie hybride»); les coûts de publication engagés pourront alors être remboursés par la Commission européenne;
  • soit par les chercheurs, six mois au plus tard après la publication (12 mois pour les sciences sociales et humaines), via des archives libres d'accès (approche dite de la «voie verte»).

Liens

Liens vers les trois études:

http://www.science-metrix.com/pdf/SM_EC_OA_Availability_2004-2011.pdf

http://www.science-metrix.com/pdf/SM_EC_OA_Policies.pdf

http://www.science-metrix.com/pdf/SM_EC_OA_Data.pdf

Site Horizon 2020: http://ec.europa.eu/research/horizon2020/index_en.cfm


Contacts:

Michael Jennings (+32 2 296 33 88) Twitter: @ECSpokesScience

Inma Martinez Garcia (+32 2 298 73 03)


Télécharger le communiqué de presse:
DOC
PDF

Commission Européenne - IP/13/786 21/08/2013

Se former aux pratiques collaboratives.. et partager


 Posté le 25 août 2013 par Michel Briand
©© a-brest, article sous licence creative commons cc by-sa

Pour la première fois de son histoire, notre société est confrontée à la gestion de l’abondance. La création, la contribution, l’expression de millions de personnes est "maintenant sous la main" (M. Serres). Pour bénéficier de cette abondance rendue possible par le numérique, il nous faut apprendre non plus à cacher notre copie, mais à réutiliser, partager, enrichir, et échanger en réseau.

Voici "Autour des pratiques collaboratives", une collecte de références pour se former, échanger autour des pratiques collaboratives à compléter (wiki ouvert).

Petit à petit les principes de fonctionnement distribués où chacun-e peut contribuer diffusent dans la société au fur et à mesure de l’élargissement du champ des outils numériques.

Les développeurs du logiciel libre nous ont montré l’efficience de la co-production qui choisit de partager et de mettre en biens communs les outils logiciels dont nous avons besoin pour agir dans le monde du numérique.

Wikipedia nous a montré l’efficience de la collaboration à une large échelle où la contribution est d’abord reconnue par les pairs et non par les diplômes ou positions institutionnelles.

Openstreetmap a gagné le pari de cartes participatives reprises aujourd’hui par nombre de collectivités et font s’ouvrir les tiroirs jusqu’à peu fermés à clé de l’IGN dans un mouvement des données ouvertes qui s’est élargit depuis deux ans aux acteurs publics.

Les licences "Creative Commons" facilitent le partage des contenus dans un monde où prévalent les "interdits de réutilisation" si souvent présents sur les sites des services publics, des collectivités locales, universités et des, associations.

Les cours massivement ouverts (MOOC) posent la question à tous les enseignants auteurs de contenus pédagogiques de l’ouverture de leurs productions et de nouvelles formes pédagogiques à un moment où tant de savoirs sont "maintenant sous la main".

Les fablabs, tiers lieux, l’économie collaborative ouvrent à leur tour de nouveaux espaces dans le domaine de l’économie et de la consommation. Comme pour la musique, les vidéos de nouvelles pratiques sociales basées sur l’usage diffusent dans la société.

Tout autour de nous mais nous ne le voyons pas encore vraiment l’innovation sociale est abondante et d’autres transformations sociales que celles portées d’en haut par les décideurs publics sont en gestation pour répondre aux multiples crises écologiques, sociale et économique que nous traversons.

Toute cette évolution rendue possible par les outils collaboratifs souvent en logiciel libre ne peut se développer que si nous comprenons ce mouvement autour de la coopération et du partage qui nous concerne tous.

Qu’il s’agisse de la vie associative ou culturelle, des services publics, du lien social, des innovations sociales, de l’action politique nous pouvons aujourd’hui ouvrir de nouveaux espaces de possibles.

En donnant à voir, en reliant, en étant en attention, en partageant nous faisons vivre des relations sociales basées sur la coopération et la mutualisation qui démultiplie les capacités d’agir et créent de nouvelles opportunités.

Ainsi que l’explique Michel Serres, les ordinateurs et les réseaux formidables outils pour émettre, recevoir, traiter et stocker de l’information sont après l’értire et l’imprimerie une troisième révolution qui entraine une transformation profonde de nos sociétés.

Mais comme nous avons appris à l’école à cacher notre copie, que nombre de structures publiques, associatives, ou d’entreprises ne fonctionnent encore que dans un modèle hiérarchique et cloisonné, le chemin de cet apprentissage des pratiques collaboratives est long.

Pour contribuer à diffuser cette culture, voici un espace ouvert où sont référencés des articles, des documents, des formations, des acteurs qui participent à ce réseau des pratiques collaboratives.

Le wiki est ouvert et vous pouvez apporter de nouvelles références,corriger des erreurs en restant dans l’esprit de partage, indissociable. C’est pourquoi nous faisons le choix de référencer celles et ceux qui élargissent le droit de réutilisation de leurs contenus par des licences, dont la plus courante est ici la licence libre Creative commons by sa.

Ces pratiques collaboratives, nous en avons fait le choix localement à travers les sites participatifs, les wikis.

Cette culture de la coopération outillée par les formations animacoop favorise l’émergence de réseaux locaux tels la Maison du libre, Doc@Brest. et de multiples projets (wiki-brest, cartes ouvertes, fermes de services (inifini, libranet), Tyfab, openbidouillecamp, portail des savoirs,cantine collaborative .. ).

Tous ces petits pas nous les partageons lors de temps de rencontres à Autrans, Moustic, aux ETES TIC, et au sein de réseaux comme animfr, les fablabs en bretagne, Creatif, villes en biens communs. ou cet archipel de la coopération en émergence Kaléido-scop.

C’est cette dynamique que vous retrouverez sur ce wiki
"Autour des pratiques collaboratives"

parAn@é(son site)dimanche 25 août 2013