Nouvelle mission chez EDF

Missions et références

Depuis juin 2012 : Architecture technique SAP chez EDF :

  • Etude de fusion des 8 instances SAP FI/CO pour la comptabilité EDF
  • Etude d’un parcours de migration vers une solution de Cloud Computing pour SAP
  • Rédaction de DATs (Document d'Architecture Technique) décrivant l'interface entre les besoins métier, les exigences de disponibilité/sécurité/confidentialité, les fonctionnalités du progiciel et les contraintes de production de l'infogérant
  • Migration de 90 instances SAP : ECC6, BW, Sap Content Server, SAP PI, SAP GRC, Solution Manager : Interface entre la MOA EDF, la DSI EDF et l'infogérant

 

De février à mai 2012 : Groupe Casino à Saint-Etienne avec les objectifs suivants :  

  • Rationaliser et améliorer les procédures de copie/refresh d'instances SAP
  • Gérer le projet de migration OS/DB de Windows/SQL Server vers Aix/DB2 de l'instance SAP orienté FI/CO
  • Mener des campagnes de mesure et d'amélioration de performances SAP
  • Qualifier et spécifier la mise en œuvre du monitoring des Business Processes avec Solution Manager
  • S'intégrer à l'équipe de support N3 et y apporter son expertise

 

Décembre2011-Janvier 2012 : OTAN CEPMA (Central Europe Pipeline Management Agency)

Mise en oeuvre d'un PRA pour la production Oracle/SAP

Réalisation technique :

  • Reprise de l’instance de production sur un serveur de secours
  • Import ZFS des volumes répliqués au niveau de la baie de disques Compellent
  • Paramétrage Oracle et SAP
  • Recette technique et fonctionnelle

 

De janvier à septembre 2011 : Tereos (Industrie du sucre et des céréales)

Définition de l'architecture technique permettant d'exécuter les nouveaux environnements de production

  • SAP ECC6 et Business Objects BI 4.0 : 40 000 SAPs
  • Autres environnements SAP : GRC, APO, TDMS
  • CI/DB Serveurs Sun M9000 + SAN HDS AMS2500

Gestion du projet de déploiement

  • Rédaction du Plan Qualité de Projet
  • Rédaction et suivi de planning
  • Coordination des intervenants

jeu.

07

mars

2013

Apprendre à écrire à l'école : en option

45 États américains vont rendre l'apprentissage de l'écriture manuscrite optionnelle à l'école.

C'est ce qu'on peut lire sur http://quoi.info/actualite-education/2013/02/21/apprendre-a-ecrire-a-lecole-bientot-demode-1161153/

 

Sur un sujet aussi sensible, la nouvelle n’a pas soulevé les polémiques habituelles. Pourtant, 45 États sur 50, c’est quasiment tous les États Unis qui s’apprêtent à abandonner l’écriture manuscrite. Car on connaît par avance ce que deviennent les options : le latin, la musique, l’éducation artistique. Sauf qu’il s’agit d’un savoir de base ; un des trois apprentissages des classes primaires : lire, écrire, compter. On se demande instinctivement comment une telle régression a pu être ainsi proposée aux enfants américains. On ne saura plus écrire alors ?

 

Si, mais plus de la même manière. Dans ces États américains, on n’apprendra plus à écrire à la main, au stylo ou au crayon. On apprendra à écrire sur un clavier : d’ordinateur, de tablette ou de tout autre dispositif. Au lieu de former les lettres par soi-même, on sélectionne la bonne touche pour que la lettre s’imprime à l’écran. Est-ce si important ? Y a-t-il un changement fondamental à taper une lettre à l’écran plutôt que de la former avec un stylo sur du papier ? Dans les deux cas, on passe par un outillage qui semble neutre. Certains se souviennent encore des regrets que l’on abandonnât la plume, puis le stylo plume, pour le crayon à bille. Cette fois-ci le changement est plus radical, mais devrait être encore un simple remplacement d’outil, qui ne change pas notre rapport à l’écriture. Sauf que celle-ci aura perdu au passage tout rapport avec la création artistique, en tous cas une certaine visée esthétique, pour ne rester qu’un simple support du mot et de la phrase.

 

Mais il n’y a pas que ça, car l’outil n’est pas si neutre que ça.

Dans son livre Internet nous rend-il bête (Robert Laffont), l'essayiste américain Nicholas Carr raconte l'achat par le philosophe Friedrich Nietzsche d'une machine à écrire :

"Une fois qu'il eut maîtrisé la frappe, il fut capable d'écrire les yeux fermés, utilisant uniquement le bout de ses doigts. Les mots pouvaient de nouveau couler de son esprit à la page. Mais la machine eu un effet plus subtil sur son travail. Un des amis de Nietzsche, un compositeur, remarqua un changement dans son style d’écriture. Sa prose, déjà laconique, devint encore plus concise, plus télégraphique. (…) 'Tu as raison, répondit Nietzsche, nos outils d'écriture participent à l'éclosion de nos pensées".


Quant à moi, je peux témoigner du contraire, car j’ai beaucoup plus de difficultés à écrire un texte un peu élaboré sur écran, que sur papier avec un bon vieux stylo. Et, dans mon travail quotidien,  je ne peux pas m’empêcher de crayonner des schémas et des morceaux de phrase, en élaborant des architectures techniques ou des procédures de production.

 

En plus, et chacun le sait, l’ordinateur ne se contente pas d’enregistrer la frappe. Le traitement de texte met en forme, numérote les paragraphes, génère la table des matières, et corrige l’orthographe. C’est ce que me disent mes enfants depuis qu’ils utilisent un clavier. A quoi bon se préoccuper de l’orthographe alors que Word le fait pour nous ? Sauf qu’il ne le fait pas parfaitement ; c’est vrai, mais faisons-nous tellement mieux ? Ce n’est pas si sûr, et dépend de notre propre attention à ce sujet, et de l’attachement presque pathologique qu’ont les Français vis-à-vis de leur orthographe.

 

A quoi bon calculer aussi ? Je peux démontrer à mes enfants que je vais plus vite que la calculette pour calculer 7x8=56, parce que j’ai la réponse instantanément, alors que sinon je suis obligé de taper les chiffres. En plus, mon cerveau est tout le temps et instantanément disponible, ce qui n’est pas le cas de l’ordinateur. Ils me disent que s’ils font le calcul mental, il faut qu’ils vérifient avec la calculette parce qu’ils lui font pas confiance. Ce qui fait qu’ils utiliseront la calculette de toute façon. Et c’est vrai, que pour une opération plus compliquée, comme 3462x765, l’ordinateur est beaucoup plus efficace et plus sûr qu’une opération à la main sur papier.

 

Quand on a acquis un certain savoir-faire, on y attache de la valeur et on se sent dépossédé par la machine, qui imite ce savoir-faire mais qui ne le reproduit jamais complètement, beaucoup plus efficacement la plupart du temps, mais différemment, et qui nous rend dépendant d’elle. C’est ce qu’ont pensé les marins qui se dirigeaient aux étoiles immuables quand ils ont vu arriver la boussole si fragile, les conducteurs avec le GPS (qui ne capte pas) quand le plan est toujours là (à condition que ce soit le bon). C’est déjà ce que disait Socrate dans le Phèdre, en parlant de l’écriture justement, qui remplace la mémoire orale : « Elle ne peut produire dans les âmes, en effet, que l’oubli de ce qu’elles savent en leur faisant négliger la mémoire. Parce qu’ils auront foi dans l’écriture, c’est par le dehors, par des empreintes étrangères, et non plus du dedans et du fond d’eux-mêmes, que les hommes chercheront à se ressouvenir. »


Socrate avait raison. C’est par le dehors, de plus en plus, que nous attendons des services plus efficaces que ce que nous pouvons produire par nous-mêmes. A quoi sert notre mémoire, si limitée et si imparfaite, quand Google est là ? Tout se passe comme si nous sous-traitions le maximum de tâches à la machine, pour pouvoir libérer de la place et de l’énergie pour des fonctions plus primordiales. Le problème est, souvent, que nous ne savons pas vraiment quelles sont ces fonctions primordiales, et que le temps et l’énergie ainsi libéré ne laisse place qu’à un vide que nous ne savons pas remplir, au chômage.

 

 

1 commentaires

mar.

12

févr.

2013

SAP HANA : 48000 fois plus vite

Voici les résultats d'un POC SAP HANA chez mon (très gros) client SAP. J'attendais des chiffres sur les véritables performances de cette architecture. Les voilà !

On passe de dizaines d'heures à quelques secondes. 

 

 

Lire la suite 6 commentaires

jeu.

06

déc.

2012

Big Data, sécurité, et Power7 chez Bull

Me voici de retour dans le monde des constructeurs, pour une journée en tous cas. Un peu de nostalgie peut-être, et aussi la confirmation qu'il ne restera plus, à terme, que deux Unix sur le marché. HP-UX et Solaris se marginalisent de plus en plus.

 

C'était à l'occasion d'un séminaire organisé par Bull qui présentait de nouveaux serveurs et quelques sujets "dans le vent".

Voici le contenu de mes notes sur quatre sujets qui ont été exposés lors de ce séminaire :

  • L’offre de serveurs Escala ;
  • La gestion de la sécurité avec Escala sous Aix ;
  • L’offre « Storage Shared Pool » ;
  • Présentation « Big Data » ;

Où en est Bull ?

Bull en 2011 a fait 1,3 Mds € de chiffre d’affaires avec 4,6 % de croissance sur l’année écoulée. Ce sont aujourd’hui 9000 experts au service des clients.

Bull fête son vingtième anniversaire de partenariat avec IBM sur sa gamme Escala. L’autre partenariat majeur continue avec EMC².

 

La gamme Escala

Parts de marché

Aujourd’hui, l’offre Aix Bull représente 30% du marché français, plutôt en croissance par rapport à HP UX à 15% et Solaris à 15% également.  Au niveau mondial Aix occupe aujourd’hui 50% du marché Unix.

Roadmap CPU Power

  • Power6 en gravure 65 nm : Processeur dual-core ;
  • Février 2010 Power7 45 nm : Multi-core ;
  • À venir  Power7+ 32 nm : C’est l’équivalent du Power7 avec des fonctionnalités de cryptage, de compression de mémoire, et plus de cache. Le Power7+ aura une performance globale de 25% meilleure que le Power7.

Annonce d’octobre 2012

Disponibilité de nouveaux serveurs :

  • M6-715 sur Power7+
    • 48 cores maximum sur P7+@4,25 Ghz
    • 64 cores maximum sur P7+@3,76 Ghz
    • 20 VMs par core
  • M7-715
    • 64 cores maximum sur P7+@4,25 Ghz
    • 128 cores maximum sur P7+@3,76 Ghz
    • 20 VMs par core
  • Évolution du serveur H9 (H9-700)
    • 256 cores maximum sur P7+@4,0 Ghz
    • 128 cores maximum sur P7+@4,25 Ghz
    • 1000 VMs maximum
    • 16 TB max

Gestion de la sécurité sur Escala

On appelle « Vulnerability Disclosure », la publication d’un problème de sécurité qui a été constatée. La personne ou l’organisation qui a découvert la faille de sécurité peut en faire part publiquement soit tout de suite, soit après avoir alerté le fournisseur matériel ou logiciel de telle manière que celui-ci puisse régler le problem avant la publication. Le nombre de « Vulnerability Disclosure » augmente de façon continue.

  • 3000 Vulnerability Disclosure en 2002
  • 9000 Vulnerability Disclosure en 2012 (Source X-Force)

Conscient de cette hausse, Bull se positionne comme pouvant gérer la sécurité à tous les niveaux de manière coordonnée.

  • Niveau Hardware et processeur ;
  • Niveau O/S sur Aix ;
  • Niveau disque avec les outils EMC.

Niveau Hardware et processeur

Les processeurs Power7 gère le cryptage des données par un co-processeur dédié. L’algorithme de cryptage se base sur un générateur de nombre aléatoire (Random Number Generator) VRAIMENT aléatoire en se basant sur des données électriques relevées en certains points du processeur. Les fluctuations de l’électronique, n’étant pas prévisibles, permettent ainsi de mieux garantir l’initialisation de la clé de cryptage qui, en principe, ne peut pas être retrouvée par programme.

Sécurité avec Aix

Aix propose en standard un grand nombre de packages de sécurité :

  • RBAC (Role Base Access Control) : Une norme Unix permettant d’exécuter un grand nombre de tâches d’administration sans passer par le compte root.
  • Encrypted File System : Cryptage des données, y compris pour le compte root.
  • Trusted Aix Execution : Signature et scellement des exécutables Aix + lock down qui empêche de les modifier.
    • Technique évitant de modifier le nom et le contenu d’un exécutable (Exemple trivial : renommer la commande ls en rm –r ou la remplacer par un script qui fait toute autre chose qu’un listing de fichiers).
  • Aix runtime expert : Création et gestion de profils (au format XML) qui peuvent être comparés à un modèle de référence qui aura été préalablement certifié conforme aux normes de sécurité de l’entreprise.
  • Aix Security Expert : Profils préconfigurés avec différents niveaux de sécurité.
  • Secure by default : Environnement Aix minimal durci, bloquant les points d’entrée les moins sécurisés (telnetd, ftpd, etc..).

Sécurité sur la baie de disques EMC²

  • Technologie RSA native sur les baies EMC².
  • Symmetrix audit log : Enregistrement de toutes les actions sur la baie Symmetrix en garantissant l’intégrité des fichiers de log.
  • Data at Rest Encryption : Protection des données liée à la position physique du disque dans la baie.  Si le disque est sorti de sa baie d’origine, les données deviennent inexploitables et illisibles.

 

Sécurité sur PowerSC

  • Trusted Boot : Démarrage de LPAR sur un boot certifié. Toute modification du boot et/ou du kernel  génère un message d’alerte et une demande d’approbation ou de rejet de la séquence de boot.
  • Trusted Firewall : Échange sécurisé entre LPAR d’un même châssis à travers les VIOS sans sortir sur le réseau.
  • Trusted Logging : Centralisation des syslogs de chaque LPAR sur un seul FileSystem (/var/vio/vlogs/lpar-[01-xxx].
  • Trusted network and patch management : Garantie qu’une nouvelle installation respecte bien les règles en cours avant qu’elle puisse se connecter au réseau sécurisé.
  • Trusted Surveyor  (option) : Topologie de la correspondance entre les LPARs et les différents VLANs de l’entreprise.

Toutes ces fonctionnalités sont incluses dans PowerSC Standard Edition à l’exception de Trusted Surveyor en option.

Storage Shared Pool

  • L’objectif de cette technologie est de permettre aux administrateurs système d’être plus autonomes par rapport aux équipes SAN. Elle permet de s’affranchir des spécificités propres à chaque fournisseur de stockage (EMC², HDS, IBM, NetApp).
  • Le Shared Storage Pool est une couche de virtualisation qui utilise des fonctionnalités de Aix Custer Aware en mappant les devices natifs par une arborescence de devices homogènes sous /dev qui masquent la diversité des différents LUNs.
  • Le Shared Storage Pool supporte le thin provisionning (Surbooking des ressources disque). En revanche, il ne gère pas la redondance RAID qui reste du domaine des sous-systèmes disque.
  • Le Shared Storage Pool facilite le transfert des données (Storage Live Mobility) entre baies de disques en permettant d’apparier en arrière-plan des LUNs de même dimension. Cette fonctionnalité est supportée en baie de disques de différentes origines (IBM vers HDS, ou autre type de combinaison).

Big Data

Une présentation très décevante parce que très confuse. On en retiendra une définition :

Définition

Big Data : Technique qui promet l’analyse de données de toute sorte, structurées et non structurées, avec des promesses de valeur ajoutée

Trois piliers

Le Big Data repose sur trois piliers :

  • Reporting : Questions préformatées sans possibilité d’interaction ;
  • Analytics : Possibilité de data discovery et de visual Interaction ;
  • Statistics : Ce qui caractérise le Big Data par rapport au data mining. Possibilité de travailler sur la totalité des données plutôt que sur un échantillonnage.

Les quatre Vs (ou cinq)

Les 4 Vs : Big Data se caractérise par les 4 Vs :

  • Volume important ;
  • Variété : Données de toutes sorte, structurée et non structurée ;
  • Vélocité : Accès aux données en temps réel ;
  • Variabilité : Évolution des données non prévisible ;
  • Certains ajoutent un cinquième V qui représente la Valeur apportée par cette technique.

Les technologies

  • Technologies traditionnelles sur SQL. C’est LE MESSAGE qui n’a pas cessé d’être martelé. On peut faire du Big Data sur les architectures traditionnelles Aix/Oracle. Visiblement Bull craint que l’on fasse l’association entre Big Data et les nouveaux modes de gestion des données (Hadoop, Map Reduce)
  • NOSQL : Not Only SQL et non pas No SQL. Il y a deux types de technologie NOSQL
    • La technique KeyValue/Store à base de clé de hashage permettant d’accélérer l’accès aux données. C’est une technique plutôt orientée OLTP.
    • Le framework Hadoop développé par Google et Yahoo ! Les données sont réparties sur un FileSystem distribué (Google File System devenu HDFS ou Hadoop File System). Par défaut, les données sont triplement répliquées sur des équipements différents.
    • L’algorithme MapReduce découpe la recherche de données en sous-recherches récursives vers les nœuds de l’arbre de recherche puis les remontent au nœud maître.
    • Deux langages de programmation sont associés à cet ensemble :

 

0 commentaires

jeu.

15

nov.

2012

Prince2 en 1000 mots

Prince2 est la méthode de gestion de projet que j'utilise. J'y vois deux avantages principaux :

- La justification  business continue (le business case)

- L'accent mis sur le produit

 

Cela répond aux deux causes principales qui sont les moteurs de tout projet :

- Premièrement, une fonctionnalité métier dont on attend qu'elle améliore le service rendu ou qu'elle permette de lever certaines limitations

- Deuxièmement, cette fonctionalité se traduit par la livraison d'un produit final qui répond à ce besoin initial.

 

Trop souvent, les projets se perdent dans la gestion de planning et l'accomplissement de tâches qui n'ont plus qu'un lointain rapport avec les prévisions. Prince2 est là pour nous ramener sans arrêt à ces deux moteurs essentiels.

 

Il faut néanmoins mentionner que Prince2 est une méthode générique qui n'est pas spécialisée dans les projets informatiques. C'est donc à nous d'amener le lien entre des principes généraux et la spécificité de chaque projet.

 

Andy Murray qui est le rédacteur principal du manuel Prince2 en a rédigé un résumé en 1000 mots (je n'ai pas compté). C'est disponible ici (en français pdf)

 

 

1 commentaires

ven.

09

nov.

2012

La vraie raison qui nous fait aimer l'E-mail

J'ai précédemment essayé d'expliquer pourquoi le mail, malgré tous les défauts que certains lui trouvent, n'était pas près de disparaître. Une série de raisons rationnelles qui passent peut-être à côté de l'essentiel.

 

Car, ce qui rend sans doute cet outil si addictif, est la reconnaissance qu'il apporte à chacun d'entre nous. Chaque fois que l'on reçoit un mail, c'est le signe que l'on existe, que l'autre a pensé à nous mettre dans la liste des destinataires, qu'il a jugé important de nous mettre au courant, ou de nous demander notre avis. Chaque mail reçu est une petite piqûre qui nous confirme que nous existons aux yeux de l'autre. Plus de mail, plus de téléphone, et c'est vite l'angoisse d'être mis hors circuit. Chacun est un petit "people" qui se plaint (très sincèrement) d'être harcelé par les paparazzi, et qui souffre (tout aussi sincèrement) de l'indifférence, quand l'engouement se dissipe.

 

Quand par ailleurs, on nous explique qu'il faut construire son image sur Internet, faire son « personal branding ». Je trouve curieux que l’on combatte ce qui permet aussi de le construire et de se rassurer quant à son influence.

1 commentaires

mar.

06

nov.

2012

Mais pourquoi le mail a la peau si dure ?

Depuis le temps que que certains dénoncent le mail, il devrait être mort depuis longtemps. Une recherche rapide m'a fait retrouver un article de 2006 qui se battait déjà contre le mauvais usage du mail : http://www.duperrin.com/2006/10/30/mauvais-usages-du-mail-une-demonstration-rationnelle/. Et on en parlait déjà avant. 6 ans c'est une période très longue en informatique. Combien y avaient-ils d'utilisateurs de Facebook en 2006 ? Une petite dizaine de millions, contre un milliard aujourd'hui. Entre les deux, MySpace a disparu, et SecondLife, et d'autres encore. Skyblog, sur lequel tout adolescent français se devait d'avoir son espace, ne fait plus partie du paysage. Autrement dit, si le mail devait disparaître, il aurait déjà disparu.

 

Des amis, qui travaillent chez Atos, me disent qu'ils l'utilisent toujours, malgré les déclarations tonitruantes de Thierry Breton. Et que de toute façon, la disparition annoncée du mail ne concerne que les échanges internes. On le gardera pour l'extérieur. Heureusement pour Atos, qui n'allait quand même pas se couper du reste du monde.

 

Et pourtant, "l'email est une plaie, tout le monde le sait" décrète Fred Cavazza, "l'e-mail n'est pas mauvais que pour la productivité" renchérit Bertrand Duperrin en février 2012, six ans après son premier article cité plus haut. A partir de ce constat - c'est une plaie - qu'il estime démontré, Fred Cavazza propose rien moins que comme il  "serait extrêmement traumatisant d’envisager une suppression. Qu’importe, l’objectif que l’on peut fixer sera alors de réduire la dépendance en rééduquant les collaborateurs." Et que propose-t-on à la place ? Toute une série d'outils : epaces collaboratifs, messagerie instantanée, microblog, blog internes, visio-conférence, dont je ne vois pas bien en quoi ils corrigeraient le principal reproche que l'on fait au mail, le surnombre de mails parasites et inappropriés. Qu'est ce que ça changerait d'utiliser la messagerie instantanée ou le microblogging, en terme de temps gagné et d'efficacité ? Le mail a au moins l'avantage d'être un point de contact unique, au lieu de forcer les collaborateurs à se rééduquer pour jongler entre ces divers outils. Et on ne voit pas pourquoi ils seraient mieux utilisés. Là où on accuse le mail de disperser l'information entre les différentes boîtes, on la disperse encore un peu plus !!

 

Mais que reproche-t-on finalement au mail ?

1 - Les Spams, les publicités : ils sont éliminés très facilement, soit par gestionnaire de spam soit à la main. Personnellement, ça me prend à peine 5 minutes par jour pour éliminer les quelques dizaines de mail résiduels qui n'ont pu être triés automatiquement.

 

2 - Le phénomène de RE-RE-RE-RE-RE-RE-RE-RE....., ou la discussion qui n'en finit pas et qui ne nous concerne pas, ou plus. Ça débute en général par un sujet, avec un grand nombre de personnes concernées. Petit à petit la discussion se poursuit, souvent de manière assez polémique, entre deux d'entre elles, et qui continuent à mettre tous les autres en copie.

Je ne vois guère moyen de s'en débarrasser sinon de les considérer comme Spam à partir du moment où l'on n'est plus concerné (voir plus haut). Si l'on fait partie de cette polémique, prendre son téléphone ou aller voir l'autre, pour régler le problème en face à face.


3 - La gestion de document en attachement :

C'est, de mon point de vue, le seul et vrai problème d'une mauvaise utilisation du mail, qui n'est clairement pas fait pour ça. Qui n'a jamais vécu un travail d'équipe, avec un document à rédiger par divers spécialistes, et qui envoient à tous le document entier, avec leur partie revue et corrigée. Au bout d'une semaine, plus personne ne sait quelle est la version active. A cela s'ajoutent des commentaires dans le texte du mail, qu'il faudrait éventuellement reprendre dans le document. On n'oubliera pas non plus la surcharge réseau, ainsi que des boîtes mail qui se trouvent encombrées de dizaines de versions d'un même document, pesant souvent plusieurs Mo.

A cela, on peut répondre que le mail n'est pas un gestionnaire de configuration, mais qu'il suffit de l'interfacer avec de tels outils. Il est très facile d'insérer un lien vers le gestionnaire de configuration, plutôt que d'envoyer le fichier en attachement. Le fichier pourra alors être appelé directement depuis le corps du mail. Les récalcitrants seront bien obliger de s'y faire en posant des limites à la taille du-dit fichier.

 

Face à ces inconvénients très faciles à contourner, que d'avantages ! Et ce n'est pas pour rien que toutes les croisades anti-mail échouent depuis si longtemps :

1 - Le mail est asynchrone. Alors qu'on l'accuse de faire perdre du temps, il a toutes les qualités qui permettent d'en gagner. N'est interrompu que celui qui veut bien l'être, car je ne connais pas d'entreprise qui impose de répondre instantanément. Et dire que certains proposent de le remplacer par une messagerie instantanée !

 

2 - Le mail est une écriture, avec tous les avantages qui y sont attachés : Obligation de formuler clairement ce que l'on veut dire, concision, prise de distance avec les réactions émotives, possibilité de relecture.

 

3 - Traçabilité. Là encore, Fred Cavazza se distingue en considérant que le fait d'utiliser le mail comme preuve est "abject". On dirait qu'il n'a jamais fait de projet en clientèle ! Mais, oui le mail, utilisé en compte-rendu, fait preuve que l'on a dit, et écrit, relatif à tel fait du projet. Il prouve qui l'a écrit, quand et à qui.

 

4 - Enfin, et peut-être même surtout, c'est un excellent outil de stockage. Depuis la généralisation du Webmail (Google, Yahoo, ou ce que vous voudrez), on peut accéder à son mail "anywhere, anytime, with anydevice", ce qui est une partie du Web 2.0 dont nos ennemis du mail sont les chantres émerveillés par ailleurs.

 

A titre personnel, il y a longtemps que j'utilise mon mail (Yahoo!) pour stocker des documents que je sais pouvoir retrouver très facilement. L'explorateur PC est vraiment trop mauvais, et de toute façon il ne trouvera que ce qui existe sur ce PC. Le cerveau humain est sans doute fait de telle manière que l'on arrive à retrouver la trace d'un mail ou d'un document attaché, très facilement, en l'associant à son envoyeur, à son titre, ou à une date approximative. Tout ceci est possible grâce à l'outil de recherche associé au mail. Et j'avoue qu'il m'arrive de m'envoyer des mails, avec un document en attachement, pour le sauvegarder sur ce cloud ou je suis assuré de ne pas le perdre, de le retrouver très facilement et de l'éditer. La dernière fois que j'ai mis un fichier Excel sur Google Drive, je n'ai jamais pu l'éditer !! Je préfère encore me l'envoyer sur mon Yahoo!Mail.

 

1 commentaires

ven.

26

oct.

2012

SAP HANA : Témoignages client

Pour compléter cette série sur SAP HANA, on peut aller voir des témoignages de clients. Les vidéos proposées par SAP sont disponibles sur :

 http://www.sap.com/community/ebook/2012_03_in_memory/en/index.html#/page/1

 

On y trouvera dix entreprises américaines, six allemandes, trois chinoises et deux indiennes. Seulement une française (une seule anglaise aussi d'ailleurs). Ce qui donne une idée finalement assez exacte de la puissance de ces différentes économies.

Saurez-vous retrouver la seule entreprise française ? Pour vous aider, il y a un indice dans l'article précédent.

11 commentaires

ven.

19

oct.

2012

SAP HANA va-t-il tuer SAP BW (2ème partie)

Après une première partie qui relate des travaux de recherche académiques qui sous-tendent et justifient l'appartion de SAP HANA. Nous allons décrire comment ces travaux de recherche se déclinent en pratique à travers l'offre SAP 


 

Et SAP HANA dans tout ça ?

Tout ce que je viens de décrire provient, pour une bonne part, des travaux de l’Institut Hasso Plattner, et la solution SAP HANA s’est inspirée de ces recherches, à la fois d’un point de vue de la conception du produit et de la stratégie globale SAP :

-          D’un point de vue technique en orientant sa gamme logicielle vers une fonctionnalité de traitement de l’information en temps réel sans passer par l’étape parasite du Dataware House 

-          D’un point de vue commercial en promouvant sa propre solution de base de données qui évite de rétribuer son premier concurrent : Oracle, mais aussi les autres éditeurs de base de données (Microsoft pour SQL Server et IBM pour DB2) qui tirent parti du marché SAP sans apporter de valeur ajoutée pour l’utilisateur. En effet, du point de vue de SAP comme de l’utilisateur final, il n’y a pas de valeur ajoutée spécifique à avoir un SAP sur Oracle plutôt que sur SQL Server ou DB2. Les performances et les fonctionnalités de la solution globale sont équivalentes.

Les travaux de recherche de l’Institut Hasso Plattner, les évolutions technologiques, les tendances du marché des composants (la baisse de prix de la mémoire),  et la stratégie concurrentielle de SAP l’ont conduit à développer sa plate-forme du futur qu’il est maintenant possible de commencer à expérimenter. Pour un acteur du marché aussi présent que SAP, la difficulté est de proposer de nouvelles solutions qui tirent parti de travaux de recherche tels que ceux que nous venons de parcourir, tout en préservant les investissements de ses clients et donc en définissant une évolution sans rupture. On ne s’étonnera donc pas que SAP HANA ressemble plus à un compromis et un assemblage de technologies déjà existantes, plutôt qu’à une plate-forme révolutionnaire. De plus, on a vu que sur les quatre piliers qui soutiennent la vision de Hasso Plattner, trois d’entre eux souffrent de contreparties dont il faut réduire les effets,  en face des avantages qu’ils apportent :

-          La base de données orientées colonnes est nettement avantageuse en lecture. Elle le paie par des performances moins avantageuses en écriture

-          La base de données « insert only database » n’est pas adaptée à une activité de forte écriture. Les chiffres produits par SAP ne sont pas représentatifs d’une activité composite

-           La base de données en mémoire doit pouvoir être sécurisée sans que le prix à payer soit pénalisant pour sa performance globale.

 

Les CPUS multi-cœurs qui forment le quatrième pilier sont d’ores et déjà la norme des microprocesseurs et constituent une base solide sur laquelle SAP peut s’appuyer pour construire ses nouvelles architectures.

SAP HANA est donc un compromis entre ces différents facteurs. Sa  définition officielle est : “The SAP HANA database is a hybrid in-memory database that combines row-based, column-based, and object-based database technology. It is optimized to exploit the parallel processing capabilities of modern multi-core CPU architectures. With this architecture, SAP applications can benefit from current hardware technologies.” Comme il est difficile de trouver sur les sites SAP sur quelle base technologique il repose, on se contentera de ce que nous dit Wikipédia à ce sujet :

 

SAP HANA is the synthesis of three separate products – TREX, P*Time and MaxDB.

-          TREX (Text Retrieval and Extraction) is a search engine and began in 1996 as a student project at SAP in collaboration with DFKI. TREX became a standard component in SAP NetWeaver in 2000. In-memory attributes were added in 2002 and columnar data store was added in 2003, both as ways to enhance performance.

-          In 2005 SAP acquired Menlo Park based Transact in Memory, Inc. With the acquisition came P*Time, an in-memory light-weight online transaction processing (OLTP) RDBMS technology with a row-based data store.

-          MaxDB (formerly SAP DB), a relational database coming from Nixdorf via Software AG (Adabas D) to SAP, was added to TREX and P*Time to provide persistence and more traditional database features like backup.


Ces informations nous suffisent pour comprendre comment SAP HANA a été conçu et quel est son avenir prévisible :

-          Le mélange de base de données en colonne et en ligne indique un compromis entre les ambitions de performance en lecture et les contraintes en écriture. Il est probable que cette division entre deux types de table et la technique de partition de tables, dont on a vu l’intérêt, va conduire les équipes de développement SAP à réviser profondément le schéma de leur base de données ;

-          Le mélange de MaxDB et de Transact In Memory est également un compromis entre les attentes espérées d’une base de données en mémoire et les contraintes de continuité auxquelles ce type de technologie ne permet pas encore de répondre. Ce mélange de deux types de bases de données ressemble à ce que fait Oracle avec  la base de données mémoire Timesten  acquise en 2005 ;

-          La technique de base de données « insert only » a disparu et n’est pas utilisée pour l’instant ;

 

On a donc un schéma et une organisation des données hybride, en quatre parties, gérées par un processus nommé « index server » :

-          Les données au format « ligne » optimisées pour les opérations en écriture, et entièrement chargées en mémoire ;

-          Les données au format colonne, manipulées par le troisième composant cité plus haut, c'est-à-dire TREX, qui, d’un moteur de recherche, a évolué vers une base de données orientée colonne ;

-          Les données objet, qu’il est difficile de qualifier plus précisément, et qui seraient exploitées par un mécanisme dérivé du SAP Live Cache ;

-          Des données sur disque pour celles qui sont plus anciennes et moins appelées.

 

Ajoutons à cela l’architecture matérielle qui doit être certifiée par SAP et qui repose sur des processeurs Intel  Xeon de la famille E7. Certaines présentations avant-vente de SAP affirmaient que SAP HANA avaient l’exclusivité d’instructions CPU spécifiques et présentes uniquement sur cette Appliance.  Je n’ai pas eu confirmation de cette information. Les documents Intel  font état d’un jeu d’instructions permettant d’optimiser la recherche et la décompression de données. Les développeurs SAP ont pu tirer parti de ce jeu d’instructions pour développer des algorithmes efficaces. Nulle part, il n’est question d’exclusivité.

 

Les constructeurs certifiés par SAP sont : Cisco, Dell, Fujitsu, Hitachi, HP, IBM et NEC. Chacun propose des configurations de différentes puissances. Voici, à titre d’exemple, la gamme SAP HANA de IBM :

Lire la suite 6 commentaires

lun.

15

oct.

2012

SAP HANA va-t-il tuer SAP BW (1ère partie)

La montée en puissance de SAP HANA est le résultat de travaux de recherche au niveau de la base de données ainsi que de l’arrivée de nouvelles possibilités offertes par les évolutions du matériel. Dans une première partie, je passe en revue ces travaux de recherche. Une deuxième partie sera consacrée à SAP HANA en tant qu’il tire parti de ces travaux tout en tâchant de conserver la compatibilité avec les plates-formes existantes.

Pourquoi le datawarehouse ?

Aujourd’hui les données de l’entreprise sont réparties sur plusieurs systèmes et base de données. Leur cohérence est menacée et l’on sait comme il est difficile de mener au bout un projet d’unification des « master data ». Ne parlons pas des données transactionnelles qui bougent sans arrêt avec l’activité de l’entreprise. De plus, et depuis les travaux de Bill Inmon, qui a popularisé le concept de datawarehouse, les données fraîches et transactionnelles sont localisés dans des systèmes de type OLTP alors que les données d’analyse et de décision en sont extraites pour être retravaillées, transformées et chargées dans des systèmes OLAP. Le schéma classique de ce chemin de données est représenté ci-dessous :

 

Lire la suite 1 commentaires

mer.

03

oct.

2012

ITIL V3 et la disponibilité

        ITIL apporte tant de progrès à la qualité des services informatiques que l’on rend à nos clients qu’il faut commencer par lui reconnaître cette avancée. C’est d’ailleurs à l’occasion de la suite de mon parcours de formation que me sont venues d’autres types de remarque.

Je viens en effet de suivre un module de formation intitulé PPO  (Planification, Protection et Optimisation). On y traite de 5 processus Itil : la gestion de la demande, la gestion de la capacité, la gestion de la disponibilité et la gestion de la continuité. Ce sont de ces deux derniers que je veux parler maintenant.


Je ne sais pas si c’est ITIL qui a inventé la notion de SLA, mais c’est sûrement l’une de ses notions clé qu’il aura réussi à populariser largement. On peut d’ailleurs en discuter certaines limites comme je l’ai fait récemment . J’attendais donc avec intérêt de rentrer dans le détail du processus de gestion de la disponibilité. De plus, d’un point de vue de ma carrière professionnelle, cela fait sans doute plus de 15 ans que j’ai eu affaire à ce genre de question. C'est-à-dire, comment ajuster au mieux le compromis entre une demande souvent excessive  (24/24 7/7), des technologies parfois défaillantes, des équipes à former et de nouvelles habitudes à prendre.

Chez Sun, comme chez d’autres sans doute, on appelait ça les 3 Ps : People, Process, Product. Et comme l’on vendait des « products », on était très fier d’insister sur le fait que c’était le moins important des 3 Ps. J’ai été heureux de retrouver cette notion dans l’introduction au livre ITIL consacré à la conception de services (Service Design). Les 3 Ps y sont maintenant 4 puisque ITIL y ajoute le Partner. Et si l’on insistait sur le People, c’est bien que les statistiques de notre support démontrait que la plupart des pannes provenait de fautes humaines ou de procédures et documentations mal rédigées ou mal comprises. Autrement dit, les défaillances matérielles ou logicielles ne représentent que 20% des causes de panne. Il m’aurait paru intéressant de décliner les 3, devenus 4Ps tout au long des différents processus du service design. Au lieu de cela, on a droit à un ensemble d’activités à mener qui n’ont rien de spécifique à la question de la disponibilité. 

 

Lire la suite 9 commentaires

dim.

16

sept.

2012

La théorie de l'information (Aurélien Bellanger)

Aurélien Bellanger aurait dû se contenter de la première partie de son roman : Minitel. Il y a là un vrai roman à écire et il l'a écrit. Après, ça devient n'importe quoi. 

 

Le Minitel, ou l'ascension de Pascal Ertanger dans cette nouvelle industrie : son alliance avec Houillard, comptable et blanchissseur d'argent de la pègre corse dans l'industrie du sexe, son amour avec Emilie, stripteaseuse, sa lutte contre l'emprise de France Telecom. Tout ça n'est pas indigne du roman balzacien qu'Aurélien Bellanger a voulu écrire. On pense parfois aux "Illusions perdues" et aux personnage de Lucien Chardon, futur Rubempré, et à David Séchard qui voulait révolutionner l'imprimerie. On trouve alors des personnages, une intrigue. Le personnage d'Emilie n'est pas indigne de la Coralie de Balzac. Ce que fut le Minitel, comment des entrepreneurs détournèrent l'objectif très fade de pouvoir disposer d'un annuaire électronique, vers la mise en conversation de millions de Français, tout ça est réussi et l'on se dit qu'on tient là, enfin, un roman qui nous parle de notre époque, et de nous, au lieu des sempiternelles confessions autobiographiques ou des réglements de compte familiaux Et puis le Minitel fut alors la grande aventure française, où l'on ne se contentait pas d'essayer de suivre. 

 

Pourquoi Steve Jobs est-il un personnage de roman et non pas Bill Gates ? Parce qu'il s'est fait viré de sa propre boîte, que NeXt fut un échec, qu'Apple a failli disparaître, qu'il l'a fait renaître, et qu'il est mort jeune d'un cancer. On n'oubliera pas qu'il était totalement caractériel, excessif en tout, et pouvait se montrer un vai salopard. De Bill Gates, on ne peut rien dire, si ce n'est qu'il est parti au bon moment de Microsoft, qu'il se consacre aux bonnes oeuvres, et qu'il est sans doute très heureux. Un modèle de réussite et de sagesse, mais sûrement pas un personnage de roman.

 

Pascal, notre héros, est un Bill Gates à la française. Il prend le bon virage Internet jusqu'au 2.0. Tout lui réussit. Ses accointances avec l'industrie du sexe, finissent bien par lui coûter un procès, et même de la prison avec sursis. Ca n'a pas l'air de l'avoir marqué plus que les amendes qu'a dues payer Microsoft à l'époque où ils étaient encore hémégoniques. Le livre n'est plus alors qu'une série de rencontre avec les grands noms d'Internet, prétexte pour en parcourir les différents épisodes et avatars.

 

On enjambe les deux dernières parties du roman, en diagonale, de plus en plus vite, sans parvenir à distinguer la part du roman, de la science-fiction la plus enivrée d'un assemblage de mots dénué de sens : "Le projet, tel que le lui avait présenté Vinski, consistait à implanter des ordinateurs sur la courbe hyperbolique de l'espace-temps pour qu'il dessinent ensemble un graphe aux arêtes exponentielles : plus l'on s'approchait des limites du monde, plus le réseau permettrait d'effectuer des calculs distribués efficaces [..] Si l'on disposait un filet d'ordinateurs sur l'horizon des événements d'un trou noir, la distorsion de l'espace-temps qu'il subirait augmenterait la puissance de traitement du réseau, qui serait déchiré en son centre par un puits nodal de dimension infinie, d'où s'échapperaient des jets d'information continus."

 

C'est alors que le lecteur a bien l'impression d'un trou noir, où cette théorie de l'information devient un tourbillon de mots posés là par hasard, et qui disparaissent sans laisser de sens ni d'envie d'aller plus loin. Il y a pourtant bien des choses à dire sur le 2.0 et comment toutes nos vies sont effectivement capturées dans les trous noirs nommée Google ou Facebook sans que l'on sache ce qu'elles deviennent, une fois absorbés par ces aimants. Mais, Auréline Bellanger ne domine alors plus du tout son sujet, se contentant de divaguer autour des théories de Shannon et de la machine de Turing. Visblement il ne sait plus de quoi il parle. Ce n'est plus que du bruit, sûrement pas de l'information, et plus du tout un roman.

2 commentaires

jeu.

02

août

2012

Nouvelle certification ITIL V3 (Operational Support and Analysis)

Comment dit-on que les cordonniers sont les plus mal chaussés en anglais ? The cobbler's child is always the worst shod. C'est l'enfant du cordonnier, plus que le cordonnier lui-même qui est mal chaussé. 

Je ne sais si c'est le père ou le fils, mais dans le monde très britannique de ITIL, où l'on apprend à gérer efficacement une production informatique, on a bien du mal à délivrer les diplomes dans un délai raisonnable. Des diplomes que l'on paie fort cher, non pas pour les obtenir, mais pour suivre les formations obligatoires pour pouvoir les passer. Mon objectif étant d'obtenir l'expertise ITIL V3, il faut passer toute une série de certifications intermédiaires et passer par les chemins représentés sur le schéma suivant :

Lire la suite 0 commentaires

jeu.

15

mars

2012

Pour le groupe Casino

Je suis depuis le début mars 2012 chez  Casino à Saint-Etienne avec les objectifs suivants :  

  • Rationaliser et améliorer les procédures de copie/refresh d'instances SAP
  • Gérer le projet de migration OS/DB de Windows/SQL Server vers Aix/DB2 de l'instance SAP orienté FI/CO
  • Mener des campagnes de mesure et d'amélioration de performances SAP
  • Qualifier et spécifier la mise en œuvre du monitoring des Business Processes avec Solution Manager
  • S'intégrer à l'équipe de support N3 et y apporter son expertise
0 commentaires

jeu.

01

mars

2012

Les classes moyennes face à l'ordinateur

Dans le cours de ma lecture de « Race against the machine », dont j’ai rendu compte récemment, j’ai rencontré une explication à ce creusement des écarts que l’on observe depuis près de 30 ans. Creusement des écarts de revenus, creusement des écarts à l’intérieur même de ceux qui réussissent financièrement et socialement, creusement des écarts entre les revenus du capital et les revenus du travail. Les trois phénomènes semblent d’ailleurs s’alimenter mutuellement pour se renforcer encore. Tout se passe comme si une minorité, de plus en plus faible en nombre, arrive à tirer parti du système en capturant l’essentiel des fruits de la croissance ; quand il y en a !! « According to economist Emmanuel Saez, the top 1% of US households got 65% of all the growth in the economy since 2002. In fact, Saez reports that the top 0,01% of households in the US , that is the 14588 families with income above $11,477,000 saw their share of national income double from 3% to 6% between 1995 and 2007.” On pourrait trouver des chiffres comparables en Europe, peut-être moins accentués, mais avec la même tendance de creusement des écarts.

 

Lire la suite 0 commentaires

jeu.

23

févr.

2012

Moore's Law applied to chess

Everybody knows the famous story of the inventor of the game of chess asked by the emperor to choose a gift for his invention. The man asks for a quantity of rice calculated following this rule: One grain of rice on the first square, 2 on the second, 4 on the third and so on until the 64th. The emperor was astonished of this demand, thinking this was a ridiculously small reward. But square after square, he realized his error. We know that (2^64) -1 is a huge number, and even if this number counts grains of rice, this approximately makes more than 3 centuries of the current annual production of rice worldwide. But if we stop the count at the 32th square, the number is more reasonable for a human scale and is equivalent to 200 tons of rice.


 

Lire la suite 5 commentaires

lun.

20

févr.

2012

Comment gagner 3,5 millions d'Euros

En faisant le ménage parmi les applications et ne gardant que celles qui sont vraiment utilisées et qui participent aux objectifs de l'entreprise.

C'est ce veut nous démontrer ce white paper, promu par Computer Associates, où comment la gestion du portefeuille d'applications peut aider à se débarasser du syndrome "ça peut toujours servir", qui encombre nos placards et les datacenters.

0 commentaires

mar.

14

févr.

2012

Pourquoi le SLA ne suffit plus

Dans la pratique,  le SLA tend à se confondre avec un niveau de disponibilité exprimé en pourcentage de temps.  Et l’on parle de 99,xxx avec le plus de « neuf » possibles. Les derniers « neuf » sont les plus difficiles à atteindre. 

 

Lire la suite 0 commentaires

mar.

31

janv.

2012

Gestion de communication dans un projet

« Faire ce qu’on dit et dire ce qu’on fait », c’est une règle de base pour la gestion de projet dans le domaine de la communication. . Ce qui est vrai pour un texte, d’après Jean Guitton « Le secret de tout art d'exprimer consiste à dire la même chose trois fois: on dit qu'on va la dire, on la dit, on dit qu'on l'a dite » est vrai aussi pour une tâche d’un projet : « On dit qu’on va la faire, on la fait, on dit qu’on l’a faite ». Est-ce que ça suffit à résumer la communication au sein d’un projet ? Évidemment non. Ça répond juste au besoin de cohérence entre les faits et ce que l’on en rapporte. Mais ça ne répond pas suffisamment au QQOQCCP :

  •  Qui communique et à qui ?
  • Quoi : doit ou peut être communiqué aux autres acteurs du projet ?
  • Où déposer l’information ? Où est-elle ?
  • Quand : à quelle fréquence ?
  • Comment : Par écrit, par oral, lors d’une réunion ?
  • Combien : Quel est le niveau de  détail requis ?
  • Pourquoi : Quel type d’événements mérite une communication spécifique ?

Le plan de communication d’un projet ne peut pas, ne doit pas, chercher à couvrir tous les cas de figure. Il peut poser un certain nombre de règles, par exemple celles-ci que l’on peut trouver sur http://www.gestiondeprojet.net/articles/plan_communication.html

  • « Les méthodes utilisées pour collecter et conserver différents types d’informations. Les procédures doivent également préciser les modalités de collecte et de diffusion des mises à jour et des corrections apportées à des documents précédemment diffusés.
  • Les destinataires de l’information en fonction de la nature des informations (rapports d’avancement, données, calendrier, documentation technique...), les méthodes utilisées pour diffuser les divers types d’information et les diffuseurs de ces informations.
  • Une description de l’information à diffuser : le format, le contenu, le degré de détail, les conventions et définitions à utiliser.
  • Les calendriers d’émission qui précisent à quel moment chaque type d’information est émis
  • Les méthodes pour accéder à l’information entre deux communications prévues
  • Une méthode de mise à jour et de redéfinition du plan de communication au cours du projet »

Il est d’ailleurs rare qu’un plan de communication puisse atteindre ce degré de précision,  et surtout  être appliqué à ce même niveau.  À ce plan de communication formelle, il faut rajouter des techniques, plus informelles, et qui relèvent plus de la conversation que de la communication :

  • L’organisation en plateau projet où l’ensemble des acteurs partagent un même espace propice aux échanges de tous ordres
  •  La machine à café, les pots, les événements festifs,
  •  Les réunions, qui mélangent les genres entre communication formalisée et discussion libre, voire confrontation et affrontement

Mais de quel moyen le chef de projet dispose-t-il pour s’assurer que son plan de communication est respecté, et surtout s’il est efficace ?

 

Lire la suite 1 commentaires

jeu.

26

janv.

2012

La valeur de l'IT : verre d'eau ou Saint Emilion

Quelle est la différence entre, disons, un verre d’eau et un verre de Saint-Emilion ? En plein désert, et proche de mourir de soif, il n’y en a pas. Les deux vont étancher la soif et c’est tout ce qu’on demande à ce moment-là. Dans des conditions moins extrêmes, on sait bien que l’un et l’autre ne réponde pas du tout à la même demande. L’un sert juste à maintenir le bon niveau d’hydratation, un besoin vital auquel on pourvoit habituellement sans même y penser, quand l’autre est bu pour le plaisir. Le pouvoir hydratant du vin est réel, mais il est très accessoire.  Voilà à quoi me fait penser cette vidéo : « Communication gap between IT and the business ». 

Lire la suite 0 commentaires

jeu.

19

janv.

2012

Togaf et les autres standards

Comment s'y retrouver dans tous ces standards ? Et le DSI de poursuivre : «  J'ai formé mes équipes à ITIL, et maintenant vous venez me parler de Togaf, je n'y comprends plus rien. »

Et c'était aussi un sujet proposé chez Arismore à l'occasion d'une réunion d'architecte d'entreprise à laquelle je participais récemment. Comment intégrer Togaf avec les autres standards ?

J'ai proposé ce schéma qui a reçu un accueil très positif. Je vais donc le commenter : Lire la suite

 

Lire la suite 0 commentaires

lun.

16

janv.

2012

PRA SAP sur ZFS

ZFS est apparu avec Solaris10. Le but est d'intégrer, dès la conception, les fonctionnalités d'un File System avec un gestionnaire de volumes : Mirroring, Raid, Snapshot,.. Le tout est livré avec Solaris10 sans coût de licence supplémentaire.

Voici une procédure de PRA avec SAP sur ZFS, et réplication de données pilotée par les outils de la baie de disques. C'est une de mes dernières réalisations (Les noms ont été anonymisés)

 

Lire la suite 0 commentaires

ven.

13

janv.

2012

Une nouvelle certification

Avec Togaf9 pour l'architecture d'entreprise, je m'intéresse aussi à la "soute", autrement dit au monde de la production. J'ai donc entamé un cursus ITIL en V3. Et ça commence par les fondations, avec un nouveau diplôme : ITIL V3 foundation "with a score of 88% where 65% is needed". Pas mal non !!

 

Lire la suite 0 commentaires

mar.

27

déc.

2011

Essai

Essai de blog pour Landaile Consulting

1 commentaires