lundi 30 avril 2012

Mobile, réseaux sociaux et géolocalisation, terreau favorable à l'Open Data

A lire sur:  http://www.atelier.net/trends/articles/mobile-reseaux-sociaux-geolocalisation-terreau-favorable-open-data

Par L'Atelier - Paris 30 avril 2012 open data
L’école d’ingénieur Epita lance un appel à projets auprès des entreprises et des collectivités autour des données publiques. Ces projets seront réalisés par ses étudiants entre juin et novembre.
Depuis quatre ans, les étudiants de l’Epita, école d’ingénieurs en informatique, réalisent dans le cadre de leur cursus des projets de fin d’étude pour le compte d’entreprises. Mais cette année est un peu particulière : les projets devront tous exploiter les données publiques mises à disposition par le gouvernement via data.gouv.fr. Etalab, la mission « open data » placée sous l’autorité du Premier ministre et la communauté Dataconnexions sont partenaires de l’opération. L’école a lancé un appel à projets en direction des entreprises, start-up, grands groupes ou même collectivités locales. En juin, les dossiers seront sélectionnés et répartis entre les étudiants (par groupes de trois) et la réalisation des projets durera jusqu’à novembre. « Je pense que l’ouverture des données publiques peut créer de nouvelles entreprises, de nouvelles activités économiques en France » estime Cyril Reinhard, responsable de la majeure Multimédia et technologies de l’information à l’Epita.

L’avenir dans le mobile et la géolocalisation

Concrètement, à quoi cette thématique encore nouvelle peut-elle donner lieu ? « Une application de recherche de logement à louer ou acheter, à Paris ou ailleurs en France, permettant de croiser plusieurs autre données : des informations sur le marché de l’emploi de la zone de recherche, sur la sécurité, sur les services municipaux, les écoles à proximité » détaille Cyril Reinhard, citant un projet développé dans un autre cadre à l’école. Le dépôt des dossiers n’est pas encore bouclé, mais l’enseignant s’attend à des projets autour de l’écologie, de la pollution, thèmes fréquents dans l’utilisation des open data. Plus généralement, les appareils mobiles et la géolocalisation devraient démultiplier les possibilités. L’an dernier, des étudiants ont développé pour Logica une application de géolocalisation permettant de visiter, sous forme de jeu de piste sur mobile, Nantes en y intégrant les données publiques de la ville (http://colloque-ria.fr/uploads/slides/ea9297e3514180022c69d0f6942e46d01221239f.pdf)

Trouver des ressources techniques

Sans compter tout ce que l’on peut créer en croisant les données publiques et des données issues de plateformes telles Facebook ou Foursquare. Les étudiants devront non seulement réaliser un projet mais aussi « vendre » leurs compétences auprès des commanditaires afin de se faire attribuer celui qui les intéresse. Et enfin, en assurer la présentation finale sur un mode plus marketing. Pour les entreprises et organisation, cette opération est un moyen de trouver des ressources techniques (les étudiants ingénieurs) qu’elles n’ont peut-être pas. « Les collectivités locales n’ont pas beaucoup de moyens techniques mais elles ont des ressources en communication, en gestion de projet ». L’opération devrait servir à libérer les initiatives et faciliter l’appropriation de ces données.

Tata Consultancy Services annonce des chiffres en hausse

A lire sur:  http://www.ictjournal.ch/fr-CH/News/2012/04/30/Tata-Consultancy-Services-annonce-des-chiffres-en-hausse.aspx

30.04.2012 17:52  (Maryse Gros / LeMondeInformatique.fr)

Le chiffre d'affaires de la SSII indienne TCS a dépassé les 10 milliards de dollars US sur son exercice fiscal clos fin mars 2012. Le groupe de Mumbai voit progresser ses services portant sur l'infrastructure, les solutions d'entreprise et l'externalisation de processus métiers.
Le plus gros fournisseur indien de prestations informatiques en outsourcing, Tata Consultancy Services (TCS), a publié un chiffre d'affaires de 10,17 milliards de dollars US sur son exercice fiscal 2012 clos le 31 mars dernier. Cela représente une progression de 24% par rapport à l'exercice précédent. Son bénéfice annuel net s'est élevé à 2,2 Md$ US, en hausse de 15% par rapport à l'an dernier.
La SSII installée à Mumbai souligne qu'elle est la première société IT indienne à dépasser les 10 milliards de dollars annuels. Elle met en avant les performances de ses nouvelles lignes de services qui, pointe-t-elle, progressent à un rythme soutenu: les services d'infrastructure, les solutions d'entreprise et le Business Process Outsourcing (BPO), c'est-à-dire l'externalisation de services applicatifs, comme la gestion administrative des ressources humaines. Sur le BPO, la SSII met en oeuvre des processus métiers qu'elle a pré-configurés et localisés par pays.

BPO : plus d'un milliard de dollars en 2011/2012

Chacune des trois lignes de services récemment lancées (infrastructure, solutions d'entreprise, BPO) a enregistré un chiffre d'affaires supérieur à 1 milliard de dollars sur l'exercice 2011/2012. Les autres lignes ont également réalisé une croissance à deux chiffres, précise TCS. Le groupe a commencé à proposer ses services de gestion des processus métiers en Europe en 2011.
Les résultats de TCS ont été obtenus sur un marché difficile, fait remarquer Sudin Apte, analyste et CEO d'Offshore Insights, cabinet indien de recherche et de conseil basé à Pune. La croissance sur le marché des outsourcers indiens est lente, les clients restant inquiets en raison des conditions économiques. D'ailleurs, l'optimisme de TCS tranche notamment avec les estimations d'Infosys, la 2e SSII indienne sur les services outsourcés, qui considère que le marché de l'externalisation continuait à être incertain. 

50 000 recrutements prévus sur l'exercice 2012/2013

Le groupe indien compte 238 583 collaborateurs sur 42 pays, soit une augmentation nette de son effectif de 39 969 personnes en un an (dont 11 832 sur le quatrième trimestre de l'exercice). La moyenne d'âge de ses salariés est de 28 ans.
La SSII dirigée par N.Chandrasekaran prévoit de recruter environ 50 000 personnes au cours de l'année fiscale qu'elle vient de commencer, anticipant la poursuite de la croissance. Elle compte notamment augmenter ses embauches aux Etats-Unis.
  • Pages
  • 1
  • 2

Roland Moreno laisse la carte à puce orpheline

A lire sur:  http://www.histoire-cigref.org/blog/roland-moreno-laisse-la-carte-a-puce-orpheline/

Roland Moreno, inventeur français particulièrement créatif, parfois surnommé « Professeur Nimbus », est décédé hier, 29 avril 2012, il avait 66 ans. Atypique, autodidacte passionné d’électronique, il a inventé en 1974 une des technologies les plus utilisées au monde, la carte à puce. On retrouve cette discrète carte à puce dans d’innombrables technologies indispensables à nos usages numériques quotidiens, qu’elle s’appelle carte SIM, carte Vitale, carte bancaire, carte de stationnement, passe Navigo, ou autres décodeurs télé, Moneo ou Velib’… la carte à puce est partout !

Histoire secrète de la carte à puce

Roland Moreno a publié en 2001, l’histoire de son invention de la carte à puce, faite en découvrant dans la presse spécialisée comment stocker des informations sur un support, sans avoir à recourir à un apport d’énergie
« 28 janvier 1974… En fin de soirée, avec des amis, je tombe du ciel en parcourant Electronique-Hebdo : Harris Semiconductor, un petit fabricant de circuits intégrés, annonce la disponibilité prochaine de mémoires PROM 1024 bits. C’est ainsi que j’apprends (alors que ce n’était plus un scoop depuis un an ou deux) l’existence de mémoires dotées d’une propriété à mes yeux inouïe : conserver l’information enregistrée sans apport d’énergie… ».
Parcours d’un inventeur !
Roland Moreno a passé sa vie à « inventer » ! A l’exemple de sa « machine à tirer à pile ou face », ou encore un juke-box en ligne accessible via une carte à puce ! Pour matérialiser sa passion, il crée en 1972 la société « Innovatron » qui a déposé en 1974 les quelques 45 brevets successifs de la carte à puce. Autre invention à l’actif de Moreno, le « Radoteur », système algorithmique permettant la génération de mots nouveaux à partir d’une liste de mots issus du dictionnaire, système toujours utilisé, notamment par une société spécialiste de la génération de noms de marques.
A côté de sa passion de l’invention, Roland Moreno a publié en 1990  « La théorie du bordel ambiant » ouvrage dont il résume ainsi lui-même la philosophie : « Il s’agit de montrer qu’en n’obéissant pas à la convention, en ne faisant pas comme il faut, cela marche quand même. Cela marche peut-être mieux ! ». Dans cet ouvrage, il décrit également toute la séquence algorithmique du « Radoteur ».

Par : Histoire CIGREF 

Elysée 2012 : Le Collectif du Numérique fait débattre les candidats

A lire sur:  http://www.itespresso.fr/elysee-2012-le-collectif-du-numerique-fait-debattre-les-candidats-52908.html

Les treize associations réunies au sein d’un « collectif du numérique » (Afdel, Syntec, Renaissance Numérique…) ont rassemblé Fleur Pellerin (PS) et Nicolas Princen (UMP) pour parler high tech et économie numérique.
A l’appel du « collectif du numérique » réunissant 13 associations reconnues, comme Afdel, le Syntec ou Renaissance Numérique, Fleur Pellerin et Nicolas Princen sont venus présenter leurs propositions en matière de nouvelles technologies et d’économie numérique.
Ils représentent respectivement François Hollande et Nicolas Sarkozy, et ont discuté durant deux heures devant les caméras de Frenchweb et un parterre d’une centaine de personnes, réunies ce jeudi 27 avril à Paris, dont nos collègues de Silicon.fr.

Déploiement accéléré de la fibre optique, meilleures synergies entre recherche publique et jeunes pousses, nouvelle fiscalité du numérique, remplacement d’Hadopi par une autorité aux compétences élargies, pôles d’investissements stratégiques dans la e-santé ou le jeu vidéo…
Fleur Pellerin a égrené les propositions du candidat Hollande pour qui le numérique aurait un « rôle central, » affirme-t-elle.

De son côté, Nicolas Princen a pu s’appuyer sur le bilan du président sortant, comme l’organisation du E-G8, la création du conseil national du numérique, le Projet DataGouv.fr dans l’opendata ou la Hadopi.
Il a plaidé la poursuite des investissements dans le très haut débit, le maintien du statut de Jeunes Entreprise Innovante ou encore l’amélioration de la fiscalité dans le domaine.
Des positions communes sur la formation
Sur les 40 pages remises au collectif du numérique, on retiendra des propositions telles que la création d’un « bac numérique », la mise en place de filière spécialisées dans les universités (génie logiciel, big data, 3D, jeux vidéo, robotique, etc ….) et l’implication d’UbiFrance pour aider les start-up à s’internationaliser.
Ou encore la création, sur le plateau de Saclay, d’une Silicon Valley à la Française devant réunir plus de 15 000 chercheurs et près de 70 000 étudiants…
En dehors de la question symbolique de la Hadopi, les deux candidats semblaient donc partager la même volonté de développer l’économie numérique française et de faire émerger de véritables pôles d’excellence, dans le cadre de clusters réunissant universités, jeunes entreprises, grands groupes… et fonds d’investissement.
Une opposition sur la liberté et Internet
« Nous nous rejoignons peut être sur la question de la formation. Mais nous nous démarquons en matière de politique industrielle, avec une volonté de concentrer notre effort sur des secteurs stratégiques tels que la E-Santé ou la création, » a expliqué Fleur Pellerin.
« Nous n’avons pas non plus la même vision de l’internet. Sarkozy a une vision sécuritaire d’un web rempli de sauvageons. Il veut toujours plus de dispositifs répressifs, à l’image de la Hadopi, qu’il entend désormais étendre au streaming »
Nicolas Princen lui a rétorqué que « l’affaire Mohammed Merah nous a cruellement rappelé qu’il existait une cybercriminalité sur laquelle on ne peut pas fermer les yeux. » Les mystérieux faits de cybercriminalité attribués au terroriste n’ont pas été précisés.
« En matière économique, nous pensons également que les socialistes sont trop critiques envers des sociétés comme Google ou Facebook, qui sont en mesure de réaliser de grands investissements dans notre pays. Nous faisons confiance aux entrepreneurs et nous essayons de nous mettre au service de la compétitivité de la France en mettant de côté toute idéologie. »
Pointant avec amertume le manque d’intérêt des grands médias pour les questions numériques, Fleur Pellerin et Nicolas Princen auront en tout cas apprécié cet exercice démocratique.
Reste désormais à savoir si les Français tiendront compte de ces positions dans le choix du prochain président de la République Française.
Le débat intégral (2 heures), sur Dailymotion :

Logo : © kotoyamagami – Fotolia.com

Social Intelligence

A lire sur:  http://www.technologyreview.com/communications/40233/?nlid=nlcomm&nld=2012-04-30

Siri may not be the smartest AI in the world, but it's the most socially adept.
  • May/June 2012, By Will Knight
Me: "Should I go to bed, Siri?"
Siri: "I think you should sleep on it."
It's hard not to admire a smart-aleck reply like that. Siri—the "intelligent personal assistant" built into Apple's iPhone 4S—often displays this kind of attitude, especially when asked a question that pokes fun at its artificial intelligence. But the answer is not some snarky programmers' joke. It's a crucial part of why Siri works so well.
The popularity of Siri shows that a digital assistant needs more than just intelligence to succeed; it also needs tact, charm, and surprisingly, wit. Errors cause frustration and annoyance with any computer interface. The risk is amplified dramatically with one that poses as a conversational personal assistant, a fact that has undone some socially stunted virtual assistants in the past. So for Siri, being likable and occasionally kooky may be just as important as dazzling with feats of machine intelligence.
Siri has its origins in a research project begun in 2003 and funded by the U.S. military's Defense Advanced Research Projects Agency (DARPA). The effort was led by SRI International, which in 2007 spun off a company that released the original version of Siri as an iPhone app in February 2010 (the technology was named among Technology Review's 10 Emerging Technologies in 2009). This earlier Siri could do fewer things than the one that later came built into the iPhone 4S. It was able to access a handful of online services for making restaurant reservations, buying movie tickets, and booking taxis, but it was error-prone and never made a big hit with users. Apple bought the startup behind Siri for an undisclosed sum just two months after the app made its debut.
The Siri that appeared a year and a half later works astonishingly well. It listens to spoken commands (in English, French, German, and Japanese) and responds with either an appropriate action or an answer spoken in a calm, suitably robotic female voice. Ask Siri to wake you up at 8:00 a.m. and it will set the phone's alarm clock accordingly. Tell Siri to send a text message to a friend and it will dutifully take dictation before firing off your missive. Say "Where can I find a burrito, Siri?" and Siri will serve up a list of well-reviewed nearby Mexican restaurants, found by querying the phone's location sensor and performing a Web and map search. Siri also has countless facts and figures at its fingertips, thanks to the online "answer engine" Wolfram Alpha, which has access to many databases. Ask "What's the radius of Jupiter?" and Siri will casually inform you that it's 42,982 miles.
Siri's charismatic quality is entirely lacking in other natural-language interfaces. Several companies sell virtual customer service agents capable of chatting with customers online in typed text. One example is Eva, created by the Spanish company Indysis. Eva can chat comfortably unless the conversation begins to stray from the areas it's been trained to talk about. If it does, then Eva will rather rudely attempt to push you back toward those topics.
Siri also has some closer competitors in the form of apps available for iPhones and Android devices. Evi, made by True Knowledge; Dragon Go, from the voice-­recognition company Nuance; and Iris, made by the Indian software company Dexetra, are all variations on the theme of a voice-­controlled personal assistant, and they can often match Siri's ability to understand and carry out simple tasks, or to retrieve information. But they are much less socially adept. When I asked Iris if it thought I should go to sleep, "Perhaps you could use the rest" was its flat, humorless response.
Impressive though Siri is, however, the AI involved is not all that sophisticated. Boris Katz, a principal research scientist at MIT's Computer Science and Artificial Intelligence Lab, who's been building machines that parse human language for decades, suspects that Siri doesn't put much effort into analyzing what a person is asking. Instead of figuring out how the words in a sentence work together to convey meaning, he believes, Siri often just recognizes a few keywords and matches them with a limited number of preprogrammed responses. "They taught it a few things, and the system expects those things," he says. "They're very clever about what people normally ask."
In contrast, conventional artificial-­intelligence research has strived to parse more complex meaning in conversations. In 1985, Katz began building a system called START to answer questions by processing sentence structure. That system answers typed questions by analyzing how the words are arranged, to interpret the meaning of what's being asked. This enables START to answer questions phrased in complex ways or with some degree of ambiguity.
In 2006—a year before SRI spun off its startup—Katz and colleagues demonstrated a software assistant based on START that could be accessed by typing queries into a mobile phone. The concept is remarkably similar to Siri, but this part of the START project never progressed any further. It remained less important than Katz's pursuit of his real objective—to create a machine that can better match the human ability to use language.
To understand how difficult it is to get communication right, you need look no further than the infamous intelligent assistant Clippy, introduced by Microsoft in 1997.
START is just a tiny offshoot of the research into artificial intelligence that began some 50 years earlier as an attempt to understand the functioning of the human mind and to create something analogous in machines. That effort has produced many truly remarkable technologies, capable of performing computational tasks that are impossibly complicated for humans. But artificial-intelligence research has failed to re-create many aspects of human intellect, including language and communication. As Katz explains, a simple conversation between two people can tap into the full depth of a person's life experiences, and this remains impossible to mimic in a machine. So even as AI systems have become better at accessing, processing, and presenting information, human communication has continued to elude them.
Despite being less capable than START at dealing with the complexities of language, Siri shows that a machine can pull off just enough tricks to fool users into feeling as if they're having something approximately like a real conversation. To understand how difficult it is to get even simple text-based communication right, you need look no further than the infamous intelligent assistant introduced by Microsoft back in 1997. This annoying virtual paper clip, called Clippy, would pop up whenever a user created a document, offering assistance with a message such as the infuriating line "It looks like you're writing a letter. Would you like help?" Microsoft expected users to love Clippy. Bill Gates thought fans would design Clippy T-shirts, mugs, and websites. So the company was stunned, and confused, when users hated Clippy, creating T-shirts, mugs, and websites dedicated to disparaging it. The response was so bad that Microsoft killed Clippy off in 2007.
Before it did, Microsoft hired Stanford professor Clifford Nass, an expert on human-computer interaction, to investigate why the program had inspired so much unpleasantness. Nass, who is the author of The Man Who Lied to His Laptop: What Machines Teach Us about Human Relationships, has spent years studying similar phenomena, and his work suggests a fairly simple cause: people instinctively apply the rules of human social interactions to dealings with computers, cell phones, robots, in-car navigation systems, and similar machines. Nass realized that Clippy broke just about every norm of acceptable social behavior. It made the same mistakes again and again, and constantly pestered users who wanted to be left alone. "Clippy's problem was it said 'I'll do everything' and then proceeded to disappoint," says Nass. Just as a person who repeats the same answer again and again makes us feel insulted, Nass says, so does a computer interface—even if we know full well we're dealing with a machine.
Clippy showed that attempting more humanlike communication can backfire spectacularly if the subtleties of social behavior aren't understood and respected. Nass says Apple did everything possible to make Siri likable. Siri doesn't impose itself on the user at all. The application runs in the background on the iPhone, leaping to attention only when the user holds down the "home" button or puts the phone to his or her ear and starts speaking. It also avoids making the same mistake twice, trying different answers when the user repeats a question. Even the tone of Siri's voice was carefully chosen to be inoffensive, Nass believes.
Apple also limited the tasks Siri can perform and the answers it can give, most probably to avoid disappointment. If you ask Siri to post something to Twitter, for example, it'll sheepishly admit that it doesn't know how. But since the alternative could be accidentally broadcasting garbled tweets, this strategy is understandable.
The accuracy of Siri's voice recognition also helps avoid disappointment. The system does sometimes mishear words, often with amusing results. "I'm sorry, Will, I don't understand 'I need pajamas'" was a curious response to a question that had nothing to do with pajamas. But mostly the voice system works remarkably well. It has no problem with my English accent or with many complex words and phrases, and this overall accuracy makes the odd mistake that much more acceptable.
A key challenge for Apple was that soon after meeting Siri, a person may experience a powerful urge to trip up this virtual know-it-all: to ask it the meaning of life, whether it believes in God, or whether it knows R2D2. Apple chose to handle this phenomenon in an inventive way: by making sure Siri gets the joke and plays along. Thus it has a clever answer for just about any curveball thrown at it and even varies its responses, a trick that makes it seem eerily human at times.
This banter also helps lessen the blow when Siri misunderstands something or is stumped by a surprisingly simple question. Once, when I asked who won the Super Bowl, it proudly converted one Korean won into dollars for me. I knew this was just an algorithmic error in a distant bank of computer servers, but I also felt the urge to interpret it as Siri being zany.
Nass says the way Siri handles humor is inspired. Research has revealed, he notes, that humor makes people seem smarter and more likable. "Intermittent, innocent humor has been shown, for both people and computers, to be effective," Nass says. "It's very positive, even for the most boring, staid computer interface."
But Katz, as someone who has been striving for decades to give machines the ability to use language, hopes eventually to see something much more sophisticated than Siri emerge: a machine capable of holding real conversations with people. Such machines could provide fundamental insights into the nature of human intelligence, he says, and they might provide a more natural way to teach machines how to be smarter.
That might continue to be the dream of AI researchers. For the rest of us, though, the arrival of a virtual assistant that is actually useful is just as fundamental a breakthrough. In Katz's office at MIT, I showed him some of the amusing answers Siri comes up with when provoked. He chuckled and remarked at the cleverness of the engineers who designed Siri, but he also spoke as an AI researcher using meanings and words that Siri would undoubtedly struggle with. "There's nothing wrong with having gimmicks," he said, "but it would be nice if it could actually analyze deeply what you said. The conversations with the user will be that much richer."
Katz is right that a more revolutionary intelligent personal assistant—one that's capable of performing many more complicated tasks—will need more advanced AI. But this also underplays an important innovation behind Siri. After testing the app a while longer, Katz confessed that he admires entrepreneurs who know how to turn advances in computer science into something that ordinary people will use every day. "I wish I knew how people do that," he admits.
For the answer, perhaps he just needs to keep talking to Siri.
Will Knight is Technology Review 's online editor.

Le marché des logiciels de sécurité poursuit sa croissance malgré les restrictions des budgets IT

A lire sur:  http://www.itchannel.info/articles/131928/marche-logiciels-securite-poursuit-croissance-restrictions-budgets-it.html?key=862d53eea2c1d2fe

Vendredi 27 Avril 2012
En 2011, les revenus issus des ventes de logiciels de sécurité ont dépassé les 17,7 milliards de dollars. C'est 7,5% de plus qu'en 2010. Le marché reste porté par la demande des PME en outils de sécurité.

Malgré cette hausse de 7,5%, Gartner note que l'an dernier, le marché d'Europe de l'Ouest est loin d'avoir été aussi dynamique que des marchés comme celui de la zone Asie/Pacifique ou de l'Eurasie.

Cela dit, malgré les restrictions budgétaires des entreprises et malgré l'acquisition de McAfee par Intel en février dernier (ce qui peser sur le chiffre d'affaires global du secteur), le marché des logiciels de sécurité a tout de même poursuivi sa croissance.

Symantec est d'ailleurs resté le solide numéro 1 du secteur, à la fois sur le segment des particuliers et des entreprises, avec un chiffre d'affaires en hausse de 17% à 3,7 milliards de dollars. Symantec qui a d'ailleurs poursuivi le développement de son offre bien au-delà des logiciels de sécurité classiques, avec désormais des solutions de sauvegarde et de protection des données, des solutions DLP (data loss prevention) et des dispositifs de chiffrement.

McAfee conserve la seconde place, et ce, malgré des revenus en baisse de 27,5% à 1,22 milliard de dollars. Gartner pense pourtant que McAfee dispose d'une image de marque et d'une présence sur le marché suffisamment solides pour continuer à jouer les ténors. Avec Intel, McAfee aimerait maintenant profiter d'une meilleure intégration de la sécurité au niveau du hardware. DeepSAFE, le nouvel agent de sécurité "maison" fonctionnant avec des processeurs Intel Core i, est l'exemple typique de ce que la nouvelle entité aimerait proposer au marché.

Avec 1,2 milliard de dollars de chiffre d'affaires, Trend Micro se classe 3ème avec une croissance de 11,3%. Avec également une présence affimée aussi bien sur le marché des particuliers que des entreprises. Viennent ensuite IBM (+14,2% à 930 millions de dollars) et EMC (+14,3% à 716 millions de dollars). "Le marché de la sécurité a par ailleurs connu l'an dernier une véritable évolution avec l'apparition de nouvelles méthodes de distribution (le SaaS, par exemple, connaît une popularité grandissante) et de nouvelles technologies" conclut Ruggero Contu, Directeur de recherche chez Gartner.

Security Software Revenue Market Share Estimates, Worldwide, 2011 (Millions of Dollars)

Company
2011
Revenue
2011 Market
Share (%)
2010 Revenue 2010-2011
Growth (%)
Symantec 3,652.0 20.6 3,121.6 17.0
McAfee 1,226.0 6.9 1,691.6 -27.5
Trend Micro 1,205.1 6.8 1,082.5 11.3
IBM 930.1 5.3 814.7 14.2
EMC 716.1 4.0 626.6 14.3
Others 9,985.8 56.4 9,137.2 9.3
Total 17,715.1 100.0 16,474.2 7.5
Source: Gartner (April 2012)

Pour les données aussi, les derniers mètres sont les plus difficiles… Par Eric Wanscoor, Président Qweeby,

A lire sur:  http://www.infodsi.com/articles/131936/donnees-aussi-derniers-metres-sont-plus-difficiles-eric-wanscoor-president-qweeby.html?key=

vendredi 27 avril 2012
En ce contexte tendu, toutes les économies sont bonnes à prendre. Surtout si elles contribuent à réduire les temps de cycle et fiabiliser les processus. Les flux d’informations dans les interactions entre les entreprises sont un gisement insuffisamment exploité à cause d’aprioris de coût, de complexité ou de maturité. Pourtant, leur dématérialisation ouvre de réelles perspectives, à condition de penser autrement qu’en termes de fichiers transmis par e-mail ou d’extranets.

Le rôle des flux d’information dans la structure de coût et la vitesse d’exécution est évident. Qui oserait transmettre des informations urgentes avec un pigeon voyageur. C’est cependant ce que beaucoup font  régulièrement, en passant des PDF ou des fichiers bureautiques par e-mail.

PDF, extranet ou EDI ?

Oui, le mail est rapide : il va instantanément d’un bout du monde à l’autre. Mais après… comment sont exploitées les informations. Le mail qui arrive d’Inde en 7 secondes va attendre dans la boite de réception (ou stagner dans les « indésirables ») que le destinataire s’en occupe, c’est-à-dire d’intègre dans son système d’information les données enfermées dans le mail ou ses pièces jointes. Ce temps d’exploitation de l’information limite la performance du cycle global. Sans compter sur le risque d’erreur de destinataire, de raté, de perte… Un peu comme le camion qui est rapide sur l’autoroute et se retrouve englué dans la circulation urbaine ; or ce n’est pas parce qu’on a passé le péage que la livraison est effective.

Comment faire alors ? Une solution est l’EDI ou l’intégration technique. C’est coûteux et long, contraignant et pas forcément souple. Impossible donc de l’étendre à tous ses partenaires, sans parler de l’international. Les plus gros sont opérationnels ; restent les autres, plus modestes et plus nombreux… Or la performance globale n’est pas déterminée par celle des meilleurs, mais par les maillons faibles.

Autre possibilité, mettre en œuvre des portails et extranets où les partenaires viendront saisir leurs informations. Y’en a qui ont essayé… ils ont découvert la résistance de ces partenaires qui disposent de leurs propres outils de gestion et qui n’ont pas envie de passer leur temps à tout ressaisir dans N extranets différents ou de s’acquitter des droits de connexions à M outils spécifiques, souvent propriétaires (un par donneur d’ordres).

Sans compter que l’intégration, les portails ou les solutions tierces ne peuvent être déployées que lorsque le rapport de force le permet. Or il n’est pas nécessaire d’être un grand constructeur automobile ou leader de la distribution pour vouloir optimiser ses flux d’informations. Le sujet concerne tout le monde.

Le « PDF to XML » existe

Et si l’émetteur pouvait travailler avec ses propres outils pour réaliser le fichier, puis l’envoyer en quelques instants à son destinataire sous la forme d’un fichier structuré comme ce dernier le souhaite... ? Et si cela se passait via un protocole technique automatisé qui permette d’exploiter instantanément les informations, d’assurer la sécurité et la traçabilité des flux… ? Les bénéfices de l’intégration des données dans le système du destinataire, sans les contraintes de mise en œuvre chez l’émetteur. Les avantages de l’EDI sans les conditions de mise en œuvre.

Science fiction ? Non réalité. Le PDF to XML existe et facilite la circulation des informations entre entreprises. Pour l’émetteur il suffit de mettre au format PDF les informations issues de ses outils (état, facture, bordereau de livraison…), et hop, par la magie de l’opérateur, les informations sont livrées sous forme exploitable au destinataire. Tout le monde sait faire un PDF, donc tout le monde peut désormais faire un flux structuré. Même la plus petite entreprise.

Cette possibilité modifie les relations entre partenaires car elle fluidifie les échanges d’informations et leur traitement. Les informations sont traitées plus rapidement ; les tâches sans valeur ajoutée (saisie, impression...) disparaissent et le temps qu’elles requéraient est libéré pour faire d’autres choses. Dans la supply chain où les flux d’information sont nombreux et importants, et concernent de nombreux acteurs éparpillées entre de nombreuses organisations diverses, cette opportunité permet de repenser les échanges d’informations. Il devient possible d’exploiter, enfin, les poches de productivité importantes qui subsistent à cause des nombreuses manipulations manuelles d’informations. La limite que constituait le traitement de l’information saute, permettant au passage d’accroître la réactivité grâce à l’intégration directe, partout où c’est nécessaire, des données émises par chacun des participants au cycle opérationnel. Enfin, de la véritable dématérialisation… qui va au-delà de remplacer le papier par son succédané virtuel le PDF, et rend les données exploitables et interopérables.

Edition 2012 du World Retail Banking Report Les banques doivent améliorer l’expérience client

A lire sur:  http://www.infodsi.com/articles/131958/edition-2012-world-retail-banking-report-banques-doivent-ameliorer-experience-client.html?key=

vendredi 27 avril 2012
La fidélisation de la clientèle des banques est toujours problématique et ce même si la situation s'est légèrement améliorée. L'indice CEI* (Customer Experience Index) de la neuvième édition du « World Retail Banking Report », publiée par Capgemini et l'Efma (European Financial Marketing Association), révèle que 9 % des clients sont susceptibles de quitter leur établissement financier au cours des six prochains mois et 40 % ne sont pas sûrs de rester fidèles à leur banque à long terme. Au-delà d'une nécessaire optimisation de l'expérience client, le rapport révèle également que le potentiel des services bancaires mobiles n'a pas encore été pleinement exploité.
La nécessaire innovation
Le rapport indique que les banques qui ont opté pour une stratégie classique consistant à « tout mettre en oeuvre » pour améliorer le service client doivent plutôt se concentrer sur un ou deux de ses aspects seulement sur lesquels elles peuvent se différencier. Le rapport préconise de hiérarchiser les investissements afin de répondre aux besoins les plus urgents de leurs clients.
Pour Patrick Desmarès, secrétaire général de l’EFMA : « 23 % des banquiers estiment que leur banque propose une offre complète « de bout-en-bout », mais en période d’incertitude économique, poursuivre ce type de stratégie est très difficile. À l'heure actuelle, les banques doivent se concentrer sur des stratégies globales, hiérarchisées, souples et pérennes pour éviter de perdre davantage de clients ».
Le rapport a identifié trois modèles économiques potentiels développés par différents secteurs ey dont les les banques de détail devraient s'inspirer pour améliorer l'expérience client et limiter les risques d'une forte attrition :
1. Le fournisseur de produits innovants
Les banques qui proposent des produits innovants ont des compétences supérieures dans le développement, la combinaison et la tarification des produits. Elles gèrent également le risque client et ne sont pas focalisées sur le nombre de nouveaux clients à acquérir. Elles proposent une combinaison de produits au prix le plus avantageux en tenant compte de la demande, ainsi que du profil de risque, de la rentabilité potentielle et de la valeur du capital du client.
2. L’acteur du secteur énergie/télécom/média
Les acteurs de ce secteur excellent dans le traitement économique des transactions et exploitent pour leur propre activité des systèmes d’information efficaces et performants, ce qui leur permet de s'adapter à l'évolution des besoins de traitement au niveau local, régional ou mondial.
3. Le spécialiste de la distribution
Les acteurs de la distribution sont spécialisés dans la gestion des circuits de distribution et disposent d'une infrastructure de gestion de la relation client solide, qui leur fournit une vue cohérente des clients sur les différents canaux de communication. Outre une productivité commerciale supérieure, les distributeurs sont des experts de l'optimisation des différents canaux et offrent un libre-service sans équivalent.
Les banques doivent réévaluer leurs compétences de base et se concentrer sur une ou deux spécialités, puis adopter l'un de ces trois nouveaux modèles économiques. Ce faisant, elles seront en mesure d'améliorer leur indice de satisfaction, de renforcer leurs relations avec les clients et de les fidéliser.
Les services bancaires mobiles sont considérés comme le canal le plus porteur
Les services bancaires mobiles sont encore relativement récents, mais ils constituent un canal de distribution qui justifie des investissements plus importants pour améliorer l'expérience client. Selon le rapport, plus de 60 % des clients dans le monde devraient utiliser les services bancaires mobiles d'ici 2015. Si la technologie mobile appliquée à la banque est encore loin d’avoir convaincu les clients, c'est en revanche le canal qui a connu l’amélioration la plus spectaculaire. Pour réussir sur ce marché, les banques devront adapter leurs stratégies mobiles à la taille, au profil et à la région des clients ciblés.
____
*À propos de l'indice CEI (Customer Experience Index) de Capgemini
L'indice CEI (Customer Experience Index) de Capgemini mesure la satisfaction des clients sur 80 points de contact différents. Le CEI évalue l'écart entre la confiance, la fidélité et la satisfaction des clients en identifiant les facteurs qui comptent le plus pour eux et en mesurant la satisfaction en fonction de trois critères :
- les produits proposés (notamment les comptes chèques, d'épargne et de paiement, les cartes de crédit, les crédits et les prêts hypothécaires), les canaux de distribution (notamment les agences, Internet,
- les appareils mobiles, le téléphone et les DAB)
- et les étapes des transactions avec les banques (notamment la collecte d'informations, les transactions, la résolution des problèmes, ainsi que l'état des comptes et l'historique).
Il est fondé sur les résultats de l'enquête réalisée auprès de 18 000 clients répartis dans 35 pays.
 
_______
(1) L’expérience client désigne l’ensemble des émotions ressenties par un client avant, pendant et après l’achat d’un produit ou service. L’expérience client est donc une somme complexe d’éléments hétérogènes (ton publicitaire, ambiance point de vente, relation vendeur, expérience d’usage, relation support client, etc.) L’expérience client est considérée comme une source d’influence significative sur la satisfaction et la fidélisation.
 
(2) Filiales financières de groupes industriels ou de distribution

dimanche 29 avril 2012

Google lance sa solution de stockage en ligne grand public "Google Drive"

A lire sur:  http://www.lavienumerique.com/articles/131804/google-lance-solution-stockage-ligne-grand-public-google-drive.html?key=862d53eea2c1d2fe

Google annonce le lancement officiel de Google Drive, son service de stockage en ligne grand public. " Ces derniers temps, vous avez dû entendre des rumeurs sur Google Drive, un peu comme la chimère du monstre du Loch Ness, explique Sundar Pichai, SVP, Chrome & Apps. Aujourd’hui, l’une de ces deux rumeurs est devenue réalité. Nous lançons aujourd’hui Google Drive, votre espace pour créer, partager, collaborer et conserver tous vos documents. Travailler avec un ami sur un projet de recherche, préparer votre mariage avec votre moitié, suivre l'état de vos comptes avec vos colocataires : tout cela est possible dans Drive. Vous pouvez télécharger et accéder à tous vos fichiers, des vidéos aux PDF, en passant par vos photos et Google Documents ".

Avec Google Drive, il est possible de créer et collaborer. Google Documents est directement intégré à Google Drive, permettant ainsi de travailler en temps réel avec ses collaborateurs sur des documents, feuilles de calcul et présentations. Quel que soit le format du document que l'on souhaite partager (document texte, PDF, image, vidéo, etc.), il est possible d'y ajouter des commentaires et d'y répondre.

Google Drive permet de conserver ses documents en toute sécurité et d'y accéder surtout en déplacement. " Tous vos documents sont simplement... là. Où que vous soyez, accédez à tous vos documents : à la maison, au bureau, en faisant les courses, et depuis n'importe quel appareil. Vous pouvez installer Drive sur votre Mac, votre PC ou télécharger l’application Drive sur votre téléphone ou votre tablette Android. Nous faisons de notre mieux pour que la version iOS de l’application soit disponible dans les semaines à venir. Drive est également accessible aux personnes malvoyantes grâce à un outil de lecture d’écran ", poursuit Sundar Pichai.

Les recherches s'opère par mot clé et sont filtrées par type de document, propriétaire, etc. Drive peut même reconnaître le contenu texte d’un document numérisé grâce à la technologie de reconnaissance optique des caractères (OCR). Par exemple, si une image numérisée d’une vieille coupure de journal est téléchargée, on peut rechercher un mot cité dans l’article. " Nous avons même commencé à exploiter la reconnaissance d’images : si vous glissez-déposez une image de la Tour Eiffel dans Drive, la prochaine fois que vous rechercherez le terme [Tour Eiffel], cette image apparaîtra dans les résultats. Cette technologie est encore à ses débuts, et nous espérons pouvoir l’améliorer dans le temps ".

Il est possible de commencer avec 5 Go de stockage gratuit, un espace suffisant pour sauvegarder des photos en haute définition d'une visite de la Tour Eiffel, des exemplaires numérisés des déclarations d’amour de vos grands-parents ou des propositions commerciales clés pour votre carrière, et avoir toujours de la place pour le roman que vous êtes en train d’écrire. Si cela ne suffit pas, on peut porter cette capacité à 25 Go pour 2,49 USD par mois, 100 Go pour 4,99 USD par mois ou même 1 To pour 49,99 USD par mois. Quand l'utilisateur passe à un compte payant, l’espace de stockage de son compte Gmail sera également étendu à 25 Go.

Drive est conçu pour s'intégrer parfaitement aux produits Google. " Vous pouvez partager vos photos depuis Drive sur Google+ et pourrez bientôt joindre des documents de Drive directement dans vos messages Gmail. Drive étant une plate-forme ouverte, nous collaborons avec de nombreux développeurs d’applications tierces pour étendre ses fonctionnalités : envoyer des fax, éditer des vidéos et créer des maquettes de site Internet directement depuis Drive. Pour installer ces applications, rendezvous sur le Chrome Web Store et suivez les sorties d’applications encore plus utiles à venir.
Ce n’est que le début de Google Drive, de nombreux développements sont à venir
", conclut Sundar Pichai.
mardi 24 avril 2012

Dassault Systèmes : retour au Cloud ?

A lire sur: 

Après avoir annoncé son retrait de la course au projet de Cloud computing français Andromède, Dassault Systèmes indique qu'il pourrait proposer une nouvelle offre de Cloud. Par contre, cette proposition ne devrait pas être formulée dans un horizon proche.

Cloud France
« Refaire un autre projet Andromède dans l'immédiat ce n'est pas dans notre agenda ceci dit il faut jamais dire jamais. On va marquer une petite pause et on va réfléchir pour voir si on sait effectivement proposer une nouvelle idée ». Selon Reuters, Thibault de Tersant, directeur financier de Dassault Systèmes envisagerait de proposer une nouvelle structure d'offre Cloud.

Pour rappel, le projet Andromède est un consortium regroupant investisseurs privés et publics en matière de Cloud computing. La France a déjà annoncé que la solution défendue par Orange et Thales recevra bien les 75 millions d'euros promis par le Fonds national pour la Société Numérique (FSN).

Face à cet échec, Dassault avait alors expliqué qu'il se retirerait de ce projet. Pourtant, le groupe revient désormais sur sa position. La direction ajoute ainsi qu'elle souhaite : « structurer un projet qui ait toutes les chances de réussite et s'agissant en plus de l'argent public qui vient aussi aider à financer le projet, on a considéré qu'on devait se retirer ».

Par contre, le groupe devra trouver un nouveau partenaire (depuis le retrait de SFR) afin de l'accompagner dans cette nouvelle aventure. De leur côté, Capgemini et Atos ont expliqué qu'ils comptaient entamer des discussions avec le tandem Orange-Thales.

Le « mobile banking » va s'imposer aux banques

A lire sur:  http://www.lesechos.fr/entreprises-secteurs/finance-marches/actu/0202030452984-le-mobile-banking-va-s-imposer-aux-banques-316809.php?xtor=EPR-1500-[patrimoine]-20120427-[s=461370_n=3_c=306_]-409905656@1

26/04 | 07:00 | Rejane Reibaud
Ecrit par
REJANE REIBAUD
REJANE REIBAUD Journaliste

Aucune banque n'échappera à la révolution du « mobile banking », la banque par téléphone mobile. Un tiers des consommateurs dans le monde utilisent leur téléphone portable pour leurs services bancaires, ils seront 62 % dans moins de trois ans, selon la neuvième étude sur la banque de détail de Capgemini, qui paraît aujourd'hui. Le cabinet a interrogé 18.000 personnes, dans 35 pays.
«  Le « mobile banking » pourrait même devenir le canal de distribution principal utilisé par les clients, au détriment des agences. C'est un risque que les banques doivent prendre en compte dès aujourd'hui », explique Jean Lassignardie, directeur mondial des ventes et du marketing pour les services financiers chez Capgemini.
Le rapport s'est en effet penché sur le taux de satisfaction des clients utilisant le « mobile banking », par rapport aux autres canaux. Si les clients continuent de préférer les agences et Internet, la plus forte progression du taux de satisfaction l'an dernier est celle du mobile. Elle s'élève ainsi à 9 % en Europe centrale, de 4 % à 5 % en Europe de l'Ouest, en Amérique latine et dans la zone Asie-Pacifique. Elle est par contre en léger retrait aux Etats-Unis (- 2 %). «  Les banques américaines ont pu avoir des difficultés à satisfaire un niveau d'attente très important de la part d'une population déjà accoutumée à utiliser son téléphone portable pour une multitude d'occasions  », explique le rapport.
Progressivement, le téléphone portable gagne du terrain. A 30 %, le taux de satisfaction des clients utilisant le « mobile banking » ne cesse de se rapprocher de celui constaté dans les agences et sur Internet, qui se situe autour de 45 %. Et tout converge pour qu'il continue de croître. Les banques développent des solutions nouvelles comme la géolocalisation, qui permet de situer autour de soi une agence ou un distributeur. Les clients s'équipent en outre de plus en plus de smartphones qui facilitent l'usage des services bancaires, et les opérateurs téléphoniques renforcent la capacité des réseaux.
Dans les pays où les infrastructures sont peu développées, en particulier en Afrique, les banques positionnent même le téléphone mobile comme premier lien avec le client, favorisant ainsi la bancarisation. Selon l'étude, les trois quarts des souscriptions à un abonnement mobile l'an dernier ont eu lieu dans des pays en voie de développement.
Conclusion : les banques devront encore beaucoup investir pour ne pas céder des parts de marché aux acteurs non bancaires qui profitent de l'ubiquité des mobiles.
REJANE REIBAUD, Les Echos

Programme numérique : l'UMP et le PS répondent au Syntec Numérique

A lire sur:  http://www.linformaticien.com/actualites/id/24649/programme-numerique-l-ump-et-le-ps-repondent-au-syntec-numerique.aspx

Le 26 avril 2012 s'est tenu un débat organisé par le Collectif du Numérique à Paris, entre Fleur Pellerin (PS) et Nicolas Princen (UMP) sur la question des programmes numériques de leurs candidats à l'élection présidentielle. Guy Mamou-Mani, le président du Syntec Numérique, les a interpellés.
Pendant plus d'une heure, les représentants de Nicolas Sarkozy et de François Hollande ont présenté leurs projets à tour de rôle, sans débattre entre eux ni s'interrompre, et donc d'une façon assez "consensuelle", comme le dira Fleur Pellerin après coup.
Une fois leur temps de parole écoulé, le membre du Collectif du Numérique qui arbitrait le "débat" a permis à la salle de poser ses questions. Le premier a prendre le micro, d'ailleurs assis au premier rang, fut Guy Mamou-Mani, le président du Syntec Numérique.
Il a indiqué aux représentants des candidats qu'il souhaiterait vivement que le numérique soit mis sur la place publique et abordé lors du débat de l'entre-deux tours, et leur a demandé des précisions quant à leur vision de la modernisation de l'Etat et de la place du numérique dans l'économie. "Y aura-t-il un ministre de l'économie numérique ?", leur demande-t-il entre deux autres interrogations.
Découvrez les réponses que lui ont faites Fleur Pellerin et Nicolas Princen dans la vidéo ci-dessous :

E-commerce : 68% des femmes attendent un service de livraison plus intégré à l’expérience d’achat

A lire sur:  http://www.itrnews.com/articles/131785/commerce-68-femmes-attendent-service-livraison-plus-integre-experience-achat.html?key=862d53eea2c1d2fe

Alors que l’achat sur Internet explose notamment auprès des femmes, celles-ci se montrent de plus en plus exigeantes quant aux services offerts par les acteurs du e-commerce, selon l’Observatoire eBay-Terrafemina.com. Connaître les frais de livraison sans avoir à remplir de formulaire, une livraison plus rapide et à moindre coût ou encore la possibilité de pouvoir retourner la commande plus facilement : telles sont aujourd’hui les attentes de la majorité des cyber-acheteuses.

Alors qu’eBay annonçait récemment que les femmes passent en moyenne 5 heures par semaine sur les sites de e-commerce, le second enseignement de l’Observatoire eBay-Terrafemina sur les nouveaux usages du e-commerce révèle que pour 68% d’entre elles, l’étape livraison est perçue comme l’étape manquante des e-achats. Ainsi, deux réunions de femmes clientes de sites de e-commerce ont montré que les frais et les délais de livraison pouvaient conduire à l’abandon du panier : « On peut être attiré par une offre puis finalement on n’achète pas parce que c’est beaucoup plus cher avec la livraison », « Les délais de livraison ne sont pas toujours fiables, sinon il faut payer », « S’ils veulent attirer le chaland, faut avoir le retour gratuit. Je n’ai pas envie d’acheter si ça ne va pas ».

« Nous avons toujours été conscients que le niveau d'exigence pour les services allait être de plus en plus important, et c’est pour cette raison que l’innovation reste au centre de nos préoccupations afin de répondre toujours au mieux aux besoins futurs des consommateurs », souligne Gimena Diaz, Directrice des ventes Paypal France, qui met en avant l’attrait des femmes pour les pratiques hybrides où le shopping virtuel et le shopping réel se combinent. Ainsi, la mise à disposition de la commande passée sur Internet dans un point physique proche du domicile et la géolocalisation pour connaître les meilleures offres à proximité est déjà une tendance très forte et une réalité sur le marché américain et représentent les innovations les plus attendues pour plus de la moitié des femmes interrogées pour cette étude France.

Ces conclusions sont issues d’une étude eBay sur les femmes et le e-commerce, réalisée en partenariat avec Terrafemina.com.

« Êtes-vous un collaborateur 2.0 ? »

A lire sur: http://www.itchannel.info/articles/131919/etes-collaborateur-2-0.html?key=862d53eea2c1d2fe


Jeudi 26 Avril 2012
Comment sont perçus et utilisés les outils 2.0 en entreprise ? En veille sur les tendances et les besoins émergeants des entreprises, Aastra, spécialiste des communications d’entreprise, publie les résultats d'une étude réalisée en partenariat avec NotezIT. Cette enquête a été menée auprès des cadres dirigeants d’un large panel d’entreprises françaises de tous secteurs et toutes tailles confondus. Son objectif : évaluer comment les entreprises et leurs collaborateurs se situent face à ces nouveaux modes de communications (impact sur la compétitivité, sur l’équilibre vie personnelle/vie professionnelle, freins éventuels rencontrés, etc.).

« Le Web 2.0 est avant tout un nouveau monde où les notions d’« espace-temps » de travail sont complètement redéfinies. Ce qui bouleverse au passage les modes d’organisations hiérarchiques historiques et surtout nécessite une redéfinition du rôle du collaborateur qui introduise la notion de Collaborateur 2.0 », explique Jean-Denis Garo, Directeur Communication et Marketing Support d’Aastra France. Voyons cela à travers troiq questions posées au cours de l'enquête.



Selon vous, les outils 2.0 suivants font-ils partie de la stratégie de votre entreprise ?



Bien que l’utilisation de solutions de communications unifiées et de travail collaboratif ne soit pas encore totalement démocratisée dans les entreprises, ces dernières n’ont plus à faire leurs preuves. Pour la majorité des répondants, ces solutions - orientées vers la productivité et la réactivité - font partie intégrante (déjà en place ou en test) de la stratégie des entreprises. C'est le cas à 68% pour les communications unifiées (vidéoconférence, convergence fixe-mobile, etc.) et à 74% pour les outils de travail collaboratif (partage de documents, réunions virtuelles, etc.). En revanche, la notion d’e-réputation, pourtant vitale pour les entreprises, ne semble pas être entrée dans les mœurs ni dans les priorités stratégiques des sociétés (près de 60% des répondants estiment être très peu, voire pas du tout, familiers avec l’e-recommandation et 31% pour l’e-réputation).


Quels sont selon vous les bénéfices concrets que peuvent tirer l’entreprise et ses collaborateurs de la mise en place d’outils 2.0 ?



Fluidifier l’échange et le partage de connaissances d’une part, et favoriser l’intelligence collective et la co-innovation d’autre part ; tels sont les deux principaux bénéfices qui ressortent de la mise en place d’outils 2.0 à plus de 65%. Tandis que les bénéfices liés au cadre de travail, à la productivité ou encore à la gestion des compétences remportent moins de 30% des votes.


Quels sont les principaux obstacles à la mise en place d’outils 2.0 dans votre entreprise ?




Il s’avère que les freins au déploiement d’outils 2.0 sont en 1er lieu d’ordre culturel : 38% des sondés évoquent ainsi la difficulté pour l’entreprise de faire évoluer ses habitudes et ses process.

Viennent ensuite les facteurs techniques avec le manque de compétences en interne (34%) et les craintes quant à la sécurité et à la confidentialité des données (34%).
Le manque de visibilité en termes d’utilité et de RoI sont également pointés du doigt pour 32% des répondants.

Il est vrai que les outils 2.0 les plus connus sont ceux qui sont aujourd’hui largement diffusés auprès du grand public, et qui peuvent à ce titre être considérés comme des « gadgets » peu adaptés au monde de l’entreprise. En effet, le sondage met en avant une fréquence d’utilisation quotidienne plutôt élevée des services 2.0: mails personnels (83%), services Wikis / blogs (34%), LinkedIn / Viadeo (31%) puis Facebook (26%), MSN, Skype, Gtalk, (23%), Twitter (21%), YouTube (20%).

Les outils 2.0 interagissent sur les sphères privée et professionnelle ! E-réputation, chat, réseaux sociaux, web 2.0 ne sont pas encore totalement démocratisés en entreprise d’autant que 41% des répondants ne perçoivent personnellement pas les bénéfices au quotidien.

Peut-on donner de l'agilité à l'alignement stratégique des Systèmes d'Information ? Patrick Lemare, Président de Contextor

A lire sur: http://www.infodsi.com/articles/131890/peut-donner-agilite-alignement-strategique-systemes-information-patrick-lemare-president-contextor.html?key=

jeudi 26 avril 2012
La vocation structurante des stratégies informatiques ne conduit-elle pas à l'immobilisme, au manque de créativité et à l'absence de réactivité? Ou, "peut-on donner de l'agilité à l'alignement stratégique, qui a pour vocation à structurer lourdement une politique informatique ?". Au-delà des solutions classiques qui touchent aux moyens et aux hommes, des nouvelles offres logicielles apparaissent désormais sur le marché, et il est certain que c'est à partir de ces solutions, de type Smart Computing, que les directeurs des services Informatiques se transformeront plus encore plus en directeur des systèmes d'information.

"L'alignement stratégique" de l'organisation des systèmes d'information est le fait de mettre en cohérence la stratégie du système d'information avec la stratégie globale de l'entreprise. Ainsi la préoccupation de la maîtrise d'ouvrage de systèmes informatiques à vocation à s'inscrire au plus près de la logique des actes métiers de l'entreprise visant à produire des biens ou à rendre des services.
L'évidence du concept a permis sa popularité chez les cadres dirigeants, mais des voix s'élèvent désormais pour en décrire les limites et les échecs.

 La nature pluriannuelle des stratégies informatiques ne semble pas toujours être adaptée à des cycles produits courts et même ultra-courts. A contrario, elles peinent à s'adapter aux nouveaux besoins qui apparaissent, par exemple dans la gestion de la relation avec les clients (CRM). L'alignement stratégique fait souvent obstacle à un marketing relationnel qui exige personnalisation et agilité pour des offres de masse, réactivité dans la complexité, et a de plus vocation à perdurer pendant toute la durée de l'expérience client, c'est à dire bien au-delà de l'obsolescence même des équipements.

La bonne gouvernance des entreprises en général, et des DSI en particulier, consiste à arbitrer entre ces données contradictoires. La propension naturelle des organisations est de répondre à ces questions par des sollicitations de moyens et personnels. Beaucoup de dirigeants souhaiteraient continuer dans cette voie, mais elle est sans issue. Elle ne débouche en général que sur l'externalisation de fonctions à forts besoins de main d'œuvre, et à une quête éperdue et assez vaine de la puissance des processeurs et des serveurs.

Il existe toutefois une alternative. Il est possible de donner aux entreprises l'agilité opérationnelle et la performance économique dont elles ont besoin, tout en garantissant la bonne gouvernance de leur système d'information : le Smart Computing.

Celui-ci entend réduire la course à l'armement des SI, en offrant des solutions capables d'assurer des synergies nouvelles à partir des logiciels et des données déjà à disposition des organisations. Le concept se déploie dans une logique non structurante, qui optimise les processus de la DSI. Il respecte par exemple, l'intégrité de toutes les applications, ERP et métiers, préexistantes, cela sans intrusion dans les programmes, ni impact sur leur fonctionnement. Il intègre, comme éléments central de sa mise en œuvre, la prise en compte du contexte de travail et permet de rendre les applications existantes plus intelligentes avec une forte attention au bénéfice de l'utilisateur.

Le Smart Computing permet de générer des informations contextuelles additionnelles de type (vue 360°, next best action, up and cross selling). En définitive de créer une alternative agile, économique et robuste à l'intégration applicative classique ou aux demandes d'évolutions organisationnelles.
Ainsi, agissant comme véritable assistant virtuel numérique, ces nouvelles offres s'affirment comme des outils, simples et performants de gouvernance de l'entreprise. Ils peuvent rechercher et mettre en perspectives les données utiles, les vérifier, les transférer et les comparer pour assurer les cohérences, les proposer directement sur les postes de travail des opérateurs de manière appropriée à la nature du besoin du moment, cela en préservant l'architecture et l'histoire SI de la société.

A l'usage, ces automatisations applicatives se concrétisent par la réduction des coûts opérationnels et l’augmentation de la productivité de la DSI, sans en changer ou modifier la nature de l'alignement stratégique. Ces nouvelles offres sont aussi un nouveau pas vers une intégration des EPR dont l'avènement sonnera la fin des directeurs des services informatiques, alors mués en Directeurs des Systèmes d'Information. Ceux là inscriront l'agilité par le Smart Computing, comme l'un des fondements de leur alignement stratégique d'entreprise.

Dossier Gartner (3/3) Cinq tendances du cloud computing d’ici 2015

A lire sur:  http://www.infodsi.com/articles/131908/dossier-gartner-3-3-cinq-tendances-cloud-computing-ici-2015.html?key=

jeudi 26 avril 2012
Certaines tendances du cloud vont s'accélérer, changer ou atteindre un tournant au cours des trois prochaines années. Il est essentiel de surveiller continuellement les tendances du cloud computing et de mettre régulièrement à jour la stratégie cloud de l'entreprise afin d'éviter de coûteuses erreurs ou de manquer les opportunités du marché.

Dossier Gartner : 1ère partie
Dossier Gartner : 2e partie

Impacts
1.       Les structures de décision formelles facilitent l'optimisation des investissements dans le cloud computing.
2.       Le cloud computing hybride est un impératif.
3.       Le courtage facilitera la consommation du cloud computing.
4.       La conception centrée sur le cloud computing devient une nécessité.
5.       Le cloud computing influence les modèles opérationnels et centres de traitements futurs.

Impact 3 : le courtage facilitera la consommation du cloud computing

Le besoin d'une aide en matière de consommation augmente à mesure que l'adoption du cloud computing prolifère. Un courtier en services de cloud computing est un prestataire de services qui joue un rôle intermédiaire dans le cloud computing. Il réalise essentiellement trois fonctions : agrégation, intégration et personnalisation. Ces fonctions sont assumées par les prestataires de services informatiques, les prestataires de services entre entreprises et les nouveaux spécialistes du cloud computing.

En 2011, l'intérêt des utilisateurs (et des fournisseurs) de l'informatique envers le concept de courtage en services de cloud computing s'est accru, et le marché a vu une expansion des offres dans ce domaine, ainsi qu'une plus grande adoption des services de courtage en services de cloud computing.

Au cours des trois prochaines années, nous nous attendons à ce que cette tendance s'accélère, avec un éventail plus large de fournisseurs et d'offres. Le déploiement de services de cloud computing impliquera un travail d'intégration considérable, de sorte que de nombreux courtiers en services de cloud computing fourniront des services d'intégration et emploieront des suites de gestion des processus métiers pour faire face à cette complexité. Des investissements constants par les distributeurs informatiques et les prestataires de services de communication pour les offres de courtage en agrégation de services de cloud computing aideront les petites et moyennes entreprises à obtenir, exploiter et maximiser les investissements impliquant de multiples services de cloud computing.

Les individus, qu'ils appartiennent au département informatique ou à une unité opérationnelle, peuvent facilement consommer des services de cloud computing sans impliquer l'entité informatique. Bien que perçue comme une aubaine par bon nombre d'utilisateurs, cette approche pose des difficultés en matière de coordination des achats, de gestion de la relation avec les fournisseurs, de contrôle que la consommation des services ne pose pas de risque excessif, d'intégration des services disparates, etc. Les unités opérationnelles achètent de plus en plus des solutions de logiciels en tant que service et obligent les départements informatiques à réagir après coup.

Pour remédier à cette situation, les départements informatiques doivent étudier de quelle façon ils peuvent se positionner en tant que courtiers en services de cloud computing vis-à-vis de l'entreprise, en mettant en place un processus d'achat qui s'adapte à l'adoption du cloud computing et encourage les unités opérationnelles à s'adresser à eux pour obtenir des conseils et de l'aide. Cela permettra à l'entité informatique d'effectuer le suivi des services que les utilisateurs de l'entreprise achètent et d'apporter un degré de gouvernance au processus.

Toutefois, l'entité informatique doit faire très attention. Si ce processus sert simplement à dresser une barrière à l'accès aux services de cloud computing, les individus contourneront une fois de plus l'entité informatique. L'approche de courtage en services de cloud computing d'entreprise peut être mise en oeuvre en modifiant les outils et processus existants, tels que les portails internes et les catalogues de services. En outre, les éditeurs de logiciels de portail et de gestion des opérations, ainsi que les courtiers en services de cloud computing externes, proposeront des outils pour faciliter le processus.

Recommandations
- Positionnez l'entité informatique comme un courtier interne en services de cloud computing offrant des conseils et un service intermédiaire pour la consommation des services de cloud computing.
- Évaluez les courtiers en services de cloud computing tiers qui peuvent faciliter la consommation des services de cloud computing.
- Formez le personnel informatique à la gestion des relations afin qu'il puisse mieux gérer les relations et les contrats avec les fournisseurs de cloud computing.
- Les consommateurs des services de cloud computing doivent déterminer l'orientation stratégique d'un courtier en services de cloud computing parmi les trois différentes fonctions lorsqu'ils chercheront de l'aide pour leurs projets de cloud computing. Alignez leur orientation sur votre besoin le plus important ; agrégation, intégration ou personnalisation.
- Les clients du courtage doivent planifier toutes les éventualités (par exemple, le courtage interne et la négociation directe avec les fournisseurs de cloud computing), étant donné que le modèle de courtage en services de cloud computing est relativement immature et que l'écosystème des courtiers continuera d'évoluer au cours des cinq prochaines années à mesure que l'adoption de ce modèle prolifèrera.

Impact 4 : la conception centrée sur le cloud computing devient une nécessité
De nombreuses entreprises cherchent d'abord des opportunités de migrer leurs charges de travail existantes vers un système de cloud computing et/ou une infrastructure d'applications. Cette approche peut offrir des avantages lorsque la charge de travail présente un besoin en ressources extrêmement variable ou lorsque l'application se prête naturellement à l'évolutivité horizontale. Néanmoins, pour exploiter pleinement le potentiel d'un modèle de cloud computing, les applications doivent être conçues en ayant à l'esprit les caractéristiques, limitations et opportunités uniques d'un modèle de cloud computing.

Les principes de conception et d'architecture pour les applications optimisées pour le cloud computing incluent :
- les applications optimisées pour une utilisation dynamique des ressources, plutôt qu'une utilisation prévisible ;
- les applications sensibles aux défaillances conçues à des fins de résilience, plutôt que de supposer une infrastructure résiliente ;
- une architecture modulaire, asynchrone et sans état qui prend en compte la latence au niveau des services internes et externes ;
- l'exécution parallèle pour accroître les performances et éliminer les goulets d'étranglement ;
- l'exécution dynamique prenant en charge la reconfiguration en fonction des données d'exécution ;
- l'utilisation des réseaux de diffusion de contenu, de la réplication et la mise en cache des données, et d'autres approches nouvelles de la gestion des données optimisées pour le cloud computing.

Recommandations
- Outre la migration des charges de travail de l'entreprise, envisagez la création d'applications optimisées pour le cloud computing qui exploitent pleinement le potentiel du cloud computing afin de fournir des applications de catégorie mondiale.
- Au lieu de se reposer sur l'infrastructure sous-jacente pour offrir une disponibilité élevée, les applications optimisées pour le cloud computing doivent intégrer la résilience ou exploiter des services de plate-forme de cloud computing qui fournissent cette résilience.
- Prévoyez un investissement considérable dans les nouvelles architectures d'applications et les meilleures pratiques de conception d'applications. • Développez des compétences pour gérer les modèles de données supplémentaires au-delà des bases de données relationnelles dans le cloud computing (par exemple, les banques d'objets de valeur clés, les banques de documents et les réseaux de diffusion de contenu).

Impact 5 : le cloud computing influence les modèles opérationnels et centres de traitements futurs Dans le cloud computing public, une entreprise agit comme un consommateur de services, tandis que le prestataire des services de cloud computing gère les détails de l'implémentation, notamment le centre de traitements et les modèles opérationnels associés. Toutefois, dans la mesure où l'entreprise continue d'élaborer ses propres centres de traitements, ces derniers seront influencés par les modèles d'implémentation utilisés par les prestataires de services de cloud computing. Jusqu'en 2014, les entités informatiques dépenseront davantage en investissements dans le cloud computing privé que dans les offres des fournisseurs de cloud computing public. Avec le temps, l'entité informatique peut tirer parti des services de cloud computing public et privé dans des modèles hybrides. Toutefois, les applications des concepts du cloud computing ou des technologies habilitantes n'entraîneront pas toutes un environnement de cloud computing privé à part entière offrant tous les attributs du cloud computing et interagissant facilement avec les services de cloud computing public.

Recommandations
- Appliquez les concepts du cloud computing aux investissements futurs dans l'infrastructure et les centres de traitements pour gagner en agilité et en efficience.
- Faites en sorte que le département informatique ne fonctionne plus comme une entité de rationnement mais comme une entité habilitante dotée d'un modèle opérationnel de cloud computing, tarifant l'infrastructure en tant que service de manière transparente, et laissant l'entreprise justifier sa consommation en fonction de ses besoins.
- Ne laissez pas la dérive des objectifs vous empêcher de réussir votre projet ; obtenez un retour sur investissement et mettez en place une optimisation continue au fil du temps.
- Inspirez-vous des expériences basées sur les meilleures pratiques des grands prestataires de services de cloud computing public et explorez le concept du mouvement "DevOps", qui unit opérations et développement des services dans un partenariat plus étroit.
- Planifiez la personnalisation et l'intégration de votre plate-forme de gestion du cloud computing pour réussir dans votre environnement.

vendredi 27 avril 2012

La mise en œuvre efficaces de gestion des relations partenaires techniques

A lire sur:  http://translate.googleusercontent.com/translate_c?hl=fr&langpair=en|fr&rurl=translate.google.fr&twu=1&u=http://www.sooperarticles.com/business-articles/small-business-articles/implementing-effective-partner-relationship-management-techniques-919062.html&usg=ALkJrhhRYyKaxuSLqj2B_nXFm7p-yeMaNw

Par Dandy Rockwell sur
Définir le modèle partenaire approprié
En ce qui concerne la production de partenariats efficaces, tout d'abord, vous avez besoin de définir un modèle de partenariat afin qu'elle puisse être utilisée pour engager les fournisseurs de services externes. Pour l'organisation, il deviendra plus simple d'établir la fondation et à opérer des recommandations pour le choix et composer avec les partenaires de la prestation si le modèle est approprié.
Définissez vos objectifs de l'Organisation Vous aurez envie de définir clairement les objectifs de l'entreprise avec le modèle de prestation de partenaire. Cela peut vous aider à choisir le bon partenaire et la gestion de la performance globale efficace. Lorsque les objectifs sont définis, il devient alors plus facile pour les organisations en ce qui concerne l'établissement de directives quant au moment où les partenaires de prestation de services devraient vraiment être employée.
Choisissez le meilleur partenaire en matière de sélection du partenaire correcte qui se réunira la prestation des services, l'organisation doit avoir des critères de sélection appropriés à suivre. Il s'agit d'une belle pensée pour compléter une classification partenaire conformément à la nécessité d'examiner les besoins de livraison distinctifs après qui définissent les critères de choix. Il est peut-être des besoins variés tout comme la capacité de la gale des demandes de service à l'intérieur de durée cible de temps. En fonction de la disponibilité des technologies, des gammes de produits particuliers et des géographies particulières, cette obligation découle.
Gérez votre Partner Connection Pour la croissance régulière de son entreprise, vous avez besoin pour gérer votre relation de partenariat sur la base typique. Un particulier des plus belles méthodes pour faire contrat de partenariat utile est à travers la gestion de connexion partenaire. Pour cela, il est vraiment excellent à penser à trouver un parti fiable qui gérer efficacement la relation contractuelle. Lorsque vous administrer ces contrats de partenariat sur la base continue, il va vous aider à s'occuper des attentes de votre organisation ainsi que le partenaire. En outre, il devient plus simple pour vous de rencontrer d'affaires aussi désirs économiques pour maintenir la relation.
Faire une stratégie de préparation complet Une fois que vous choisissez un bon partenaire, vous pourriez avoir besoin d'obtenir votre partenaire sélectionné prêt pour la prestation de services en votre nom. Si vous voulez que votre partenaire à venir sur la ligne en temps opportun et est capable de fournir les services contractuels, alors vous devez faire une stratégie de préparation complète. En ce qui concerne la création d'un tel programme, assurez-vous que vous venez de consister en une analyse des lacunes des capacités des partenaires afin de déterminer ses prêts. En outre, il devrait y avoir accès pour les dernières informations de marchandises, de l'éducation en même temps que les spécifications d'infrastructure, les dossiers des clients, et d'autres éléments spécifiques au sein de la liste qui sont importants pour faire ressortir le partenaire sur Internet.
Rendre le modèle d'efficacité droit de gestion Pour ceux qui souhaitent pour la réussite de votre plan de prestation de partenaire, alors il est effectivement essentiel pour produire un modèle d'efficacité de gestion amende. Il faut vraiment être des indicateurs pour la performance monétaire trop que la prestation des services objectifs inclus dans votre modèle. C'est vraiment faisable uniquement si vous avez la critique persistante de la performance globale avec votre partenaire. Il est vraiment très critique à donner la priorité des méthodes efficaces qui pourraient améliorer les ventes supplémentaires de votre société et des revenus. Évaluer en permanence les principaux exige du fournisseur de tout premier, puis sélectionnez l'idéal technique approprié de gestion des relations et partenaire idéal remède adapté pour le fournisseur.
Auteur est un consultant en systèmes pour les industries de pointe et d'affaires en Amérique. Auteur est l'un des meilleurs écrivains sur des canaux de marketing partenaires des solutions.