jeudi 26 juin 2014

Regard sur le présent et le futur de l'analytique

A lire sur: http://business-analytics-info.fr/archives/6149/regard-sur-le-present-et-le-futur-de-l%E2%80%99analytique/

03/06/2014
Auteur du best-seller « Win with Advanced Business Analytics » et vice-président de Monster Worldwide, Jean-Paul Isson promeut une analytique intégrée, générant une connaissance pratique qui alimente les prises de décision des entreprises. Il décrypte les ressorts qui aident les entreprises à passer d’une culture de prise de décision basée sur l’intuition à une culture analytique centrée sur les données et basée sur des faits. Pour en convaincre la direction, il suffit de lui en présenter les bénéfices mesurables.
analytics temps
Jean-Paul Isson est Global VP Predictive Analytics & BI chez Monster Worldwide, le leader mondial de la gestion de carrière en ligne. A l’occasion de la conférence annuelle de l’Association canadienne du marketing, il a livré son point de vue sur le métier de l’analytique et son regard sur son avenir. Partant du constat que les entreprises les plus agiles s’efforcent d’étayer leurs prises de décision sur l’analyse de données plutôt que sur l’intuition de leurs managers, il considère que l’analytique va devenir la norme dans la grande majorité des entreprises, à condition de convaincre la direction de ses bienfaits. Et pour cela, quoi de mieux qu’une étude de ROI, qui met en relief les apports de l’analytique, au niveau de la fidélité des clients, de la productivité des campagnes marketing et le niveau de satisfaction des clients ?
Selon lui, les entreprises ne disposant pas de spécialistes de l’analyse de données ou des Big Analytics (analyse des big data) au mieux prendront du retard sur leur concurrence, au pire feront faillite. Jean-Paul Isson pense que dans un futur proche les entreprises se concentreront plus sur l’acquisition de connaissances directement exploitables dans un contexte opérationnel (« actionable insights ») que sur les données – big ou pas – elles-mêmes. Et pour y parvenir, il considère que la visualisation de données élargira l’accès aux analyses à des publics de plus en plus variés et nombreux. La science de la donnée se déploiera peu à peu dans les entreprises avec un département spécialisé, dédié à la résolution de problématiques sociales. Enfin, si la valeur des données elles-mêmes diminuera à mesure que celle de l’analyse augmentera, la modélisation prédictive sera bientôt un outil dont disposeront l’ensemble des entreprises.


En complément :

A lire sur Business Analytics Info :

dimanche 15 juin 2014

REGIONAL DIFFERENCES BETWEEN CIOS

A lire sur: http://www.itone.lu/article/regional-differences-between-cios

03-Jun-2014
CIOs around the globe may share common concerns, but there are considerable differences in their priorities, according to a global survey of CIOs by Gartner's Executive Programs.

Gartner's global survey of 2,339 CIOs showed that issues experienced by CIOs are far from universal and real differences exist at both a regional and country level. The worldwide survey was conducted in the fourth quarter of 2013, representing more than $300 billion in CIO IT budgets in 77 countries. The Gartner Executive Programs report "Taming the Digital Dragon: The 2014 CIO Agenda" represents the most comprehensive examination of CIO strategies and success behaviours.

Economic conditions vary considerably. For example, on average, global IT budgets are flat (0.2 per cent growth in 2013 to 2014, while CIOs in Latin America are looking at an average budget increase of 7.3 per cent. This is typically in line with macroeconomic conditions.

"The CIO survey results clearly show that as digital opportunities and threats pervade every aspect of business and government, the IT and digital agenda for each country, industry and enterprise is becoming more unique," said Dave Aron, vice president and Gartner Fellow. "The way businesses and public-sector agencies use information and digital technologies is getting more entwined with their economic, regulatory and competitive contexts, as well as with the state of their business and digital maturity. This is a function of every aspect of every business becoming digital — every process, every employee, every business leader, every customer, every interaction, every moment. Just as our businesses are unique, our digital footprints are becoming all the more unique."

North America
CIOs in North America report an IT budget increase of 1.8 per cent for 2014. This means that North American CIOs may have more room to manoeuvre than their counterparts in EMEA, where the average IT budget is down 2.4 per cent.

Sixty-two per cent of CIOs in North America are expecting to change technology and sourcing strategies in the next two to three years; however, this is the lowest percentage in any of the major geographies. For example, 82 per cent of CIOs in China expect to change their technology and sourcing approach in the next two to three years.

"North American CIOs should be careful not to become complacent, and they should instead keep a constant focus on optimising their sourcing mix, especially to ensure there is enough innovation," Mr Aron said.

In the use of the cloud, North American CIOs have a slightly larger focus on agility than their global counterparts and a slightly larger use of software as a service, as opposed to infrastructure as a service or platform as a service. However, only 26 per cent of North American CIOs report they have made significant use of public cloud offerings, so the majority of North American CIOs still need to venture into significant public cloud usage.

China
CIOs in China reveal a higher business focus on growth and innovation, and a significantly higher IT budget increase of 13 per cent this year, way above the global average of 0.2 per cent. However, at least 45 per cent of IT spending is outside the IT organisation, compared with the global average of 26 percent. China appears bullish on digital and cloud, with 39 per cent of CIO respondents from businesses in China identifying a C-level digital leader (such as a chief digital officer (CDO)) in their business, versus 7 per cent globally.

Sixty-one per cent of Chinese CIOs report that they have made a significant investment in public cloud, versus 25 per cent globally.

UK and Ireland
Globally, 25 per cent of CIOs have already made significant cloud investments. For Ireland and the UK, the move toward the cloud is even more aggressive than the global average. In the UK, for example, 28 per cent of CIOs report already making significant cloud investments.

Sixty-five per cent of CIO respondents in the UK and Ireland expect to increase their sourcing of IT in the near future. The desire to cut costs is traditionally one of the primary reasons behind this shift in sourcing strategy. However, there is also an increasing desire to achieve agility as well through partnerships with external service providers.

"With 78 per cent of CIOs expecting to change their sourcing approach in the next two to three years, a new set of capabilities will be required," said Mr Aron. "CIOs must be able to partner with a broader range of IT suppliers, not only the big vendors, and move beyond IT contracts that constrain their ability to innovate and adapt in response to changing business expectations. This change will be especially challenging for the public sector in the UK and Ireland, as the current rules and regulations favour large suppliers and long-term contracts."

Latin America
Most companies in Latin America are confident that they should take advantage of digital economy opportunities. Another relevant trend is that 25 per cent of IT spend is outside of the IT budget (26 per cent globally). For Brazil, it has reached 34 per cent. This means that business areas are increasingly driving budget decisions associated to their products and related IT support.

The survey also reveals growing digital confidence among CIOs in the region. While 42 per cent of global CIO respondents think they don't have the IT skills and capabilities to meet digital challenges, in Latin America only 26 per cent of IT organisations think they are not ready to "tame the digital dragon."

More detailed analysis is available in the report "2014 CIO Agenda: Global Perspectives." This collection of 22 research documents leverages the 2014 Gartner CIO Agenda Survey in order to contextualise and clarify the behaviours and decisions facing CIOs in a diverse range of industries and geographies worldwide. The report is available on Gartner's web site at http://www.gartner.com/doc/2687817.

Press release by Gartner

mercredi 11 juin 2014

Vers une DSI assembleur de composants ?

A lire sur: http://www.zdnet.fr/actualites/vers-une-dsi-assembleur-de-composants-39801977.htm

Tribune : Sous pression du marché, les directions métiers n'hésitent pas aujourd'hui à opter pour des services et applications externes, sans nécessairement faire appel aux DSI. Et si, avec les composants de services applicatifs, la DSI était en mesure de prouver à ses clients internes qu'ils ont tort ? s'interroge Nicolas Odet de Hardis.
Sous pression du marché, les directions métiers n'hésitent pas aujourd'hui à opter pour des services et applications externes, sans nécessairement faire appel aux DSI. Et les utilisateurs de penser que le moindre projet interne durera des mois. Et si, avec les composants de services applicatifs, la DSI était en mesure de prouver à ses clients internes qu'ils ont tort ?
L'IT, support de l’opérationnel et du business
La digitalisation des entreprises conduit les DSI à être (encore plus) sollicitées sur tous les fronts : marketing, ventes, relation client, fabrication, logistique, RH, etc. En parallèle, elles doivent répondre présentes aux demandes et besoins de directions opérationnelles dans des délais toujours plus courts. Avec, des outils qui permettent une expérience utilisateur ou client multicanal : web, mobile, bornes, tablettes, etc.
Toutefois le budget et les moyens humains de la DSI sont loin de connaître la même croissance que les exigences des collaborateurs, des clients, des partenaires ou du marché. Pour répondre plus vite et mieux aux demandes des directions opérationnelles, les directions informatiques n’ont aujourd’hui pas d’autre choix que de rationaliser et d’industrialiser leurs processus.
Les composants services, le trait d'union entre les applications et les données
Or jusque-là, quand un besoin opérationnel n’était pas couvert par une solution « best of breed » proposée par un éditeur, la solution la plus fréquemment mise en œuvre était le développement d’une application complète, dotée de ses propres interfaces et connectée aux autres applications du SI.
Cette façon de procéder est aujourd’hui incompatible avec la nécessité de concevoir et faire évoluer les applications rapidement. En effet, elle implique de nouveaux développements, nouvelles connexions et nouveaux tests à chaque évolution ou nouveau besoin, et toujours plus d’interfaces à maintenir. Sans compter que, la plupart du temps, ces différentes applications font appel aux mêmes données et/ou proposent des fonctionnalités similaires : obtention des coordonnées d’un client, validation d’un panier d’achat, consultation de l’historique des commandes…
La solution pour rationaliser les développements et accélérer le go-to-market des nouvelles applications ? Mettre en place un référentiel de composants de services applicatifs « prêts à l’emploi », qui agrègent les données en provenance de différents systèmes et intègrent des règles métier réutilisables d’une application à l’autre, quel que soit le canal (application web, mobile, tactile…).
Vers une DSI assembleur de composants ?
Il est possible de dédier une équipe à la création de ces nouveaux composants. Mais le plus efficace reste de les créer « à la volée » : pour chaque nouvelle application, il s’agit d'identifier les services ou fonctionnalités qui pourraient être réutilisables par ailleurs, et de les concevoir comme tels.
Cette nouvelle approche peut rallonger légèrement le délai de mise en œuvre des premiers projets, car il faut prendre le temps d’identifier et de concevoir les services applicatifs qui pourront être réutilisés. Mais au fil du temps, les nouvelles applications sont de plus en plus rapides à développer, car elles capitalisent sur une bibliothèque d’objets, de services métiers et d’éléments graphiques de plus en plus riche.
Dès lors, la DSI va-t-elle devenir un assembleur de composants ? Oui et non ! Oui, parce qu'il s’agit bien d’intégrer des composants pour créer de nouvelles applications. Non, parce qu'il n’y a rien de « magique » : la base y est certes, mais un minimum de développements reste nécessaire, notamment des couches de présentation (interfaces) qui diffèrent selon le terminal (PC, mobile, tablette, borne…).
Dans tous les cas, cette stratégie est payante à moyen et long termes : avec de plus en plus de services à disposition, la DSI est en ordre de bataille pour répondre rapidement et de manière adaptée aux besoins des métiers.
Nicolas Odet est directeur général adjoint du groupe Hardis depuis début 2013 et membre du comité exécutif.
Créé en 1984, Hardis exerce le double métier d'éditeur de logiciels et de société de conseil et de services informatiques.

mardi 10 juin 2014

Infographie Les clés d'un SEO réussi

A lire sur: http://www.ecommercemag.fr/Thematique/marketing-1012/sem-seo-10052/Infographies/Les-cles-SEO-reussi-237270.htm

Publié le  par 

Stratégie de contenu, construction des liens internes, backlinks, brique sociale, outils de suivi... tout ce qu'il faut savoir pour optimiser le référencement naturel d'un site.

[Publi] L'impact des images sur votre communication

A lire sur: http://www.ecommercemag.fr/Thematique/marche-prospective-1010/juridique-10045/Breves/Publi-impact-images-votre-communication-236948.htm

Publié le  par 

L'image s'inscrivant aujourd'hui dans le quotidien des marques, mieux vaut être vigilant quant au choix des photos ou des vidéos utilisées pour les incarner. Le point avec Karen Seror, directrice de la communication de Fotolia.

© Login
© © Login
© Login
Plan rapproché, produit mis en scène, personnages représentatifs de la cible en action ... il existe de nombreuses manières d'enrichir visuellement la communication d'une entreprise ou d'une marque. Pour faire mouche, l'idéal est de montrer aux consommateurs leur alter ego affirmant leur personnalité grâce au produit ou à la prestation proposée ! Qu'il s'agisse du print ou du numérique, l'image s'impose à tous les types de supports. " Avec l'émergence du picture marketing, cette tendance se renforce, d'ailleurs plus aucune marque ne peut animer sa présence sur les réseaux sociaux sans image " observe Karen Seror, directrice de la communication de Fotolia. Et si l'image prend de plus en plus d'importance sur les réseaux sociaux spécialisés dans le partage d'images (Pinterest, Instagram), elle s'impose aussi sur les réseaux classiques (Facebook, Twitter, Linkedin).

Une vraie valeur narrative

Aujourd'hui, le choix de l'image est donc primordial. Car selon son contenu, sa présence est plus ou moins impactante. " Une étude de Miratech a montré que les hommes sont plus visibles que les femmes et qu'une publicité avec une personne sensuelle (par exemple, un homme torse nu) sera 37 % plus visible qu'une autre image " explique Karen Seror. La présence d'un visage permet aux consommateurs de s'identifier. Le message gagne alors en pouvoir de séduction.
© Barbara Helgason
© Barbara Helgason
Il semble que la peau soit particulièrement persuasive : Selon l'étude de Miratech, il s'agit de l'attribut le plus impactant, car lorsque la peau est visible, le regard se fixe dessus. Une autre étude, réalisée sur près de 5 millions de lecteurs par le Gallup Research Bureau, propose un classement des types de photos qui attirent le plus l'attention. Ses résultats sont un peu différent mais confirment le pouvoir du modèle vivant. Avec en tête les photos représentant des bébés ou des enfants, devant, par ordre d'importance, les photos de mamans avec leurs bébés, puis des groupes d'adultes, des animaux (et notamment les bébés animaux), des scènes de sport, des célébrités et de la nourriture. Ces deux enquêtes montrent à quel point en jouant sur l'identification, sur l'émotion, l'image capte l'attention du lecteur, d'autant qu'elle se décrypte sans effort, contrairement au texte. " L'image a une vraie valeur narrative " résume Karen Seror.
A savoir !
L'ensemble des oeuvres proposées par Fotolia dispose du label offre légale, accordé par l'Hadopi à l'issue d'une procédure encadrée par les dispositions des articles R.331-47 et suivants du code de la propriété intellectuelle.

La solution des banques d'images

Mais comment disposer d'autant d'images que de produits, de typologie de clients, de scenarios à mettre en scène ? Avec un réservoir de plus de 28 millions d'images, une banque d'images comme Fotolia fournit aux marketers et aux e-commerçants une formidable source d'inspiration. "Les marketers ont besoin de photographies ou de vidéos qui témoignent d'un univers, et surtout qui sont en phase avec leur content marketing " précise Karen Seror d'où la diversité de l'offre et la profondeur des collections. L'offre de Fotolia, proposée à des coûts accessibles (lire encadré ci-dessous), permet en outre de changer les images fréquemment. Car l'image communicante n'est pas figée dans le marbre, au contraire elle évolue au gré des campagnes, surtout sur Internet.

Fotolia en chiffres (Pour en savoir plus www.fotolia.fr)
Date de création : 2004
Nombre de contributeurs (photographes, créatifs, vidéastes) : 200 000
Implantations locales : 23 pays
Catalogue : 28 millions de fichiers créatifs (images et vidéos libres de droits)
Clients : 4,8 millions d'utilisateurs
Prix des images : A partir de 0,16 € (par abonnement). Une nouvelle formule d'abonnement sans engagement démarre à 25 € HT par mois pour 10 images haute définition au format medium (pour une impression A5 par exemple) ou 5 images HD au format XXL pour de l'impression très grand format. A partir de 0,74 € pour un besoin ponctuel (via les pack de credits)

Know your risks to avoid IT security disasters

A lire sur: http://www.techrepublic.com/article/know-your-risks-to-avoid-it-security-disasters/#ftag=RSS56d97e7

By  June 3, 2014, 3:00 AM PST

IT risk management depends upon solid intelligence-gathering capabilities. Faulty data can lead to devastating results. 
it security lock.jpg
 Image: iStock
Avoiding security disasters often means knowing what your risks are to begin with - a process that is often referred to as risk management. However risk management doesn't come without some risks of its own. Especially when one considers that the primary risk of risk management comes in the form of bad data, or more specifically, data resulting from incorrect intelligence. That incorrect or false data can lead to very poor decisions being made and the consequences of those decisions can be devastating to business operations.
So how exactly does one avoid misleading information and false data? It comes down to the age-old process of vetting the data sources. In the security and IT risk management arenas that vetting process starts with identifying sources and progresses to building realistic baselines based upon verifiable facts. Simply put, creating risk management plans and planning for remediation is near impossible without the proper tools.

Building a baseline

Building a baseline starts with a process called network discovery, where the network, all of the connected devices, the software in use and internet connectivity is scanned to build an inventory. Additional scans are then performed to identify user accounts, rights, and access policies and so on. Administrators cannot determine risk without that information, and that information is impossible to gather unless automation becomes part of the discovery process.
However, network discovery is not without risks of its own, it is a process that has to be done correctly and with care, and more importantly, multiple times. Why? Simply because building a baseline takes making sure that a proper sample of activity is measured over a standard working period. What's more, networks constantly evolve, with devices coming and going, and user access changing, especially since many organizations have introduced BYOD (Bring Your Own Device) strategies. That near-constant flux of change means that automating discovery is a must have.
With the proper tools, auditing capabilities and traffic monitoring systems, the risk of bad data is vastly reduced, allowing administrators to create baselines that are based upon reality and not assumptions. With a baseline created, the next step is to interpret the data and then weigh the risks presented.

Using tools to reduce risk

Tools are an important part of the risk interpretation process, and those tools must be easy to use and offer cues that highlight risk. Those cues may come in the form of visual analytics or integrated reporting. Regardless, administrators must be comfortable with the tool and be able to leverage the data collected in such a fashion that analysis can be accomplished; otherwise, good data goes bad quickly when it can't be understood.
Although remediation is an important part of risk management, remediation cannot be fully effective is risk is not accounted for properly. Here, risk vs. benefit must be weighed, ideally to provide an access policy that enables productivity, without exposing organizations to unnecessary risk. The real trick is to identify what is considered unnecessary risk, a definition that can change from organization to organization. One powerful ally comes in the form of leveraging baseline information to detect anomalies. With an accurate baseline, built upon reliable data, anomalies become much easier to detect. After all, if you know what normal looks like, then it becomes easy to spot abnormalities.
Of course, there is a financial argument to all of this as well. Risk can be expensive to contain; however, failure to acknowledge risk can be much more costly, especially when one considers the ramifications of a security breach. Building repositories of connection data, paired with monitoring baselines and detecting anomalies can help organizations to determine what is safe and what is not.

Define Two Major Elements of Project Scope

A lire sur: Method123

Defining scope is perhaps the most important part of the initial definition and planning process. If you don’t know what you are delivering and what the boundaries of the project are, you have no chance for success. If you have not done a good job of defining scope, managing scope will be almost impossible.
Most people understand what scope means, but many struggle trying to actually define the scope of a project. It is easiest if you remember there are two major aspects of defining scope on your project – deliverables and boundaries.
  • The deliverables. All projects produce deliverables. (These are sometimes called the "products" produced by the project.) Even if you are not sure what else to include in your scope definition, you should always include your deliverables. Understanding the deliverables you are building goes a long way to understanding the scope of the project. There are many deliverables that could be listed, but you should focus on the final deliverables of the project - not necessarily the internal deliverables produced as a part of delivering the final solution.  
  • Project boundaries. The scope boundary statements are used to define what is within the boundaries of the project and what is outside those boundaries. The more boundaries you can identify, the better off your project will be. You would not need to state that some aspect of the project was in-scope unless you could also contrast that with some aspect that is out of scope. The nature of a true boundary statement is that there is both an in-scope and a relevant out-of-scope counterpart. For example.  
    • The major life-cycle processes that are in scope and out of scope.For instance, your project may include the Analysis Phase only and not the Design, Construct or Test Phases. Or perhaps your project is performing research, but you are not going to develop the results. These would be examples of using boundary statements to clearly state what your project is responsible for, and what is out of scope. 
    • The organizations that are in scope and out of scope. In some cases, the organizations involved in the project help to define the boundaries. For instance, your project may be applicable to the Human Resources and Accounting Departments, but the Manufacturing Division might be out of scope. Or perhaps your project is only impacting the corporate office while the field offices are out of scope.
    • The major functionality that is in scope and out of scope. This might be a good boundary if you were delivering less than full functionality. For instance, decision support and management reporting might be in scope, while overnight batch processing might be out of scope. Or perhaps financial reporting is in-scope for your project, but Human Resources reporting is out of scope.
What do you need to remember? First - scope is defined as deliverables and boundaries. Deliverables are the things you build during the project. Boundaries are statements that describe the project in terms of in-scope and out-of-scope.