Overblog
Suivre ce blog Administration + Créer mon blog
24 juin 2013 1 24 /06 /juin /2013 16:45

ICAPS (Integrated Commissioning And Progress System) est un logiciel permettant de gérer, entre autres, la phase commissioning d’un projet en s’appuyant sur la méthodologie OPERCOM développée par TOTAL.

Les fonctionnalités d’ICAPS :

  • Génère les fiches de tests de vérification mécanique
  • Génère les fiches de préparation à la mise en route
  • Calcule le temps de réalisation des tests
  • Assure le suivi des non-conformités
  • Assure la traçabilité des actions effectuées
  • Permet de connaître à chaque instant l’avancement du projet.
Partager cet article
Repost0
25 janvier 2009 7 25 /01 /janvier /2009 18:05

Le droit de retrait permet au salarié de cesser son travail en présence d'un danger grave et imminent pour sa vie ou sa santé (art. L. 231-8-1 du Code du travail)


Qu'est-ce qu'un danger grave et imminent ?

C’est le cas où le risque est susceptible de se réaliser brusquement et dans un délai rapproché.




Quelles sont les formalités ?

-         Le danger doit être grave et imminent,

-         Le retrait ne doit en aucune façon créer pour les autres travailleurs une nouvelle situation de risque grave et imminent.

Comment s'exerce le droit de retrait ?

Le salarié doit signaler immédiatement l'existence d'une situation de travail dangereuse :

-         A son responsable hiérarchique

-         Au service HSE

-         A un membre du CHSCT (en cas de difficulté)

Rappel : L'exercice du droit de retrait pour une raison non fondée peut constituer une cause réelle et sérieuse de licenciement.

Quel est le rôle des parties informées (Responsable hiérarchique, service HSE, CHSCT) ?

Les parties informées, après enquête :

-         Avisent immédiatement l'employeur ou son représentant et

-         Consignent cet avis par écrit sur le registre « déclaration des dangers graves et imminents » disponible au service HSE.


§         Cet avis, daté et signé, comporte :

·        L’indication de l’emplacement des postes de travail concernés,

·        La nature du danger et de sa cause,

·        Le nom du salarié(s) exposé(s).


L'employeur informé est alors tenu de prendre les dispositions nécessaires pour remédier à cette situation.

Partager cet article
Repost0
25 février 2008 1 25 /02 /février /2008 19:09
 
undefinedJusqu'à présent il a été question de maintenance sans en aborder l'aspect pratique.
La signification de la TPM, Maintenance Productive Totale s'explique ainsi :
  • Maintenance : maintenir en bon état = réparer, nettoyer, graisser et accepter d'y consacrer le temps nécessaire.
  • Productive : essayer de l'assurer tout en produisant ou en pénalisant le moins possible la production.
  • Totale : considérer tous les aspects (même repeindre la machine) et y associer tout le monde.
 
Les idées de base :
La propreté et l'ordre : c'est la première phase nécessaire à la TPM; pas de gain de temps possible en fouillant dans le désordre, pas de détection facile des signes précurseurs de pannes, les fuites par exemple, dans un environnement sale... Ces pré requis sont les 5S, qu'il faut appliquer avant tout. 
Connaître les machines : leur fonctionnement (de façon précise), leurs performances et leurs faiblesses.
Suivre quotidiennement les performances des machines, des ateliers, fixer un objectif (très) ambitieux et essayer de l'atteindre, puis de conserver ces performances.
Associer tout le monde : pour relever les données, suivre les évolutions, générer des idées, accroître les connaissances, garder la motivation.


N'oublions pas que les opérateurs connaissent leurs machines de manière intime. Ils développent une relation presque affectueuse pour leur outil de travail et sont de merveilleux capteurs à cinq sens pouvant détecter une anomalie à l’odeur, aux bruits, couleur ou encore vibrations inhabituelles...
Partager cet article
Repost0
22 février 2008 5 22 /02 /février /2008 15:04
                                   Six_sigma.jpg
Introduction
• Qu'est- ce- que " 6 Sigma ":
– une notion statistique
– une méthode d'amélioration des processus
– le mode de management de GE et son "slogan"
 
• mais aussi…..:
– un emballage "marketing" remarquable de principes et d'outils classiques
– une mine d'or pour les consultants...
 
Historique
• En 1931 Walter SHEWHART ingénieur des Bell Labs publie une première approche de l'utilisation de la statistique en milieu industriel, il est entouré de deux " stagiaires "Joseph JURAN et Edward DEMING qui deviennent ses disciples.
• En 1945 un jeune ingénieur démarre sa carrière chez Général Electric il se nomme Armand FEIGENBAUM, il devient en 1958 directeur mondial des opérations de fabrication et de contrôle qualité et le reste jusqu'en 1968.Il définit les principes de base de la Qualité Totale.
• En 1981 Bob GALVIN Président de MOTOROLA lance une démarche de maîtrise de la dispersion de la production afin d'accroître les performances financières.
• En 1985 un ingénieur de MOTOROLA Bill SMITH, pose les bases de la démarche 6 Sigma par extension de l'usage des statistiques.
• Le déploiement ultérieur:
– 1993/1994: ABB
– 1994/1996: Allied Signal, General Electric
– 1996/1997: Bombardier, Nokia
– 1997/1999: Loockeed Martin,Sony,Polaroid,Dow,DuPont,AMEX, Toshiba,Ford Motor
Partager cet article
Repost0
21 février 2008 4 21 /02 /février /2008 09:43
undefinedTechnique spécifique de la sûreté de fonctionnement, l'Analyse des Modes de Défaillance, de leurs Effets et de leur Criticité (AMDEC) est avant tout une méthode d'analyse de systèmes (systèmes au sens large composé d'éléments fonctionnels ou physiques, matériels, logiciels, humains ...), statique, s'appuyant sur un raisonnement inductif (causes conséquences), pour l'étude organisée des causes, des effets des défaillances et de leur criticité. 
L'AMDEC a été employée pour la première fois à partir des années 1960 dans le domaine de l'aéronautique pour l'analyse de la sécurité des avions. La mise en oe uvre s'est longtemps limitée à l'utilisation dans le cadre d'études de fiabilité sur du matériel.
 
Bien qu'ayant subi de nombreuses critiques dues au coût et à la lourdeur de son application, elle reste néanmoins une des méthodes les plus répandues et l'une des plus efficaces. Elle est en effet de plus en plus utilisée en sécurité, maintenance et disponibilité non seulement sur le matériel, mais aussi sur le système, le fonctionnel et le logiciel. 
Aussi est-elle maintenant largement recommandée au niveau international et systématiquement utilisée dans toutes les industries à risque, comme le nucléaire, le spatial et la chimie, dans le but de faire des analyses préventives de la sûreté de fonctionnement.
 
Dans le ferroviaire, la méthode a été expérimentée sur le logiciel critique dans le cadre des projets SACEM de la RATP et MAGGALY de SEMALY.
Une adaptation de cette méthode a donné naissance à la méthode AEEL (Analyse des Effets des Erreurs du Logiciel) qui ressemble beaucoup à l'AMDEC.

 

Partager cet article
Repost0
12 février 2008 2 12 /02 /février /2008 19:24
  Pour aider les professionnels à faire leurs Evaluation de Risques et à rédiger leurs Document Unique, j’ai crée cette base de données Evaluation des Risques Professionnels qui permet de répondre aux exigences réglementaire imposées par la législation française.

Elle est composée des rubriques suivantes:

1.    ACCUEIL
undefined
2.    FICHE D’IDENTITE
a.     INFORMATIONS CONCERNANT L’ENTREPRISE
undefined
b.    COMMITE D’ENTREPRISE
c.     GROUPES DE TRAVAIL
 
d.    IDENTIFICATION DES RISQUES
undefined
e.     IMPRESSION DU RAPPORT INITIAL
f.      INFORMATION TECHNIQUE ET JURIDIQUE
3.    ANALYSE PAR RISQUE
a.     DECLARATION INITIAL /GLOBALE DES RISQUES
undefined
b.    DECLARATION DETAILLEE DU RISQUE
                                                            i.     DELIMITATIONundefined
                                                         ii.     EVALUATION
undefined
 
 
                                                      iii.     SUPPRESSION
undefined
                                                      iv.     PREVENTION
1.PROTECTION COLLECTIVE
undefined
2.PROTECTION INDIVIDUELLE
undefined
 
3.FORMATION
4.PROCEDURES
5.ORGANISATION
6.SURVEILLANCE MEDICALE
7.SECOURS
  
                                                         v.     IMPRESSION DU RAPPORT D’ANALYSE PAR RISQUE
4.    ANALYSE PAR POSTE OU PHASE DE TRAVAIL
undefined
5.    CROISEMENT ENTRE RISQUES
 
6.    RECAPITULATIF DES RISQUESundefined
  
7.    DECLARATION DES MOYENS MIS EN OUVRE POUR LIMITER LE RISQUE
undefined
 
 
8.    GRAPHIQUES DES RESULTATS PAR PHASE DE TRAVAIL
clip_image003-copie-1.jpg
 
 
9.    REDACTION DU PLAN DE PREVENTIONclip_image004-copie-1.jpg
 
                  
10.                      IMPRESSION DU PLAN DE PREVENTION
clip_image005-copie-1.jpg
    
Partager cet article
Repost0
12 février 2008 2 12 /02 /février /2008 16:52
undefinedL’évaluation des risques professionnels est obligatoire depuis le 31 décembre 1992, date de l’entrée en vigueur de la loi de 1991 (L. n°91-1414, 31déc. 1991) transposant la Directive-cadre du Conseil du 12 juin 1989 (Dir. 89/391/CEE du Conseil, 12 juin 1989), qui constitue le socle de la politique sociale de l’Union européenne en matière de conditions de travail.
 
L’évaluation des risques professionnels constitue l’élément central d’une démarche fondée sur l’obligation générale de sécurité de l’employeur ; en effet, celui-ci est tenu de prendre  « les mesures nécessaires » pour assurer la sécurité et protéger la santé physique et mentale des travailleurs de l’établissement. Ces « mesures nécessaires » étant définies comme « des actions de prévention des risques professionnels, d’information et de formation ainsi que la mise en place d’une organisation et de moyens adaptés ».
 
Le décret du 5 novembre 2001 est venu donner l’élan rendant obligatoire et en sanctionnant pénalement la transcription des résultats de l’évaluation des risques professionnels dans un document unique. Ce document doit permettre de matérialiser de façon synthétique et lisible les données issues de l’évaluation des risques.
Principes généraux de prévention:
  1. * Eviter les risques
  2. * Evaluer les risques professionnels qui ne peuvent pas être évités
  3. * combattre les risques à la source
  4. * Adapter le travail à l’Homme
  5. * Tenir compte de l’état d’évolution de la technique
  6. * Remplacer ce qui est dangereux par ce qui n’est pas dangereux ou par ce qui est moins dangereux
  7. * Planifier la prévention
  8. * Prendre des mesures de protection collective
  9. * Donner les instructions appropriées aux travailleurs
 
Pour aider les professionnels à faire leurs Evaluation de Risques et à rédiger leurs Document Unique, j’ai crée une base de données Evaluation des Risques Professionnels qui permetde répondre aux exigences réglementaire imposées par la législation française.
Partager cet article
Repost0
11 février 2008 1 11 /02 /février /2008 15:17

 
undefinedL’effet néfaste d’un produit dangereux en milieu de travail peut se faire ressentir immédiatement ou très peu de temps après l’exposition de l’opérateur à ce produit.Il
peut aussi se faire ressentir longtemps après une exposition plus ou moins prolongée, parfois jusqu’à plusieurs dizaines d’années après la fin de l’exposition .

Par ailleurs, un même produit peut avoir, et des effets immédiats, et des effets différés, mais de nature différente, sans qu’il soit possible d’extrapoler sa toxicité prolongée à partir de sa toxicité immédiate.
Autrement dit, la toxicité immédiate d’un produit ne dit rien de sa toxicité à long terme, cette dernière mettant en jeu des mécanismes de nature différente de la première.
On opère donc une distinction entre toxicité aiguë (ou toxicité à court terme) et toxicité chronique (toxicité à long terme). On parle également de toxicité subaiguë.

Toxicité aigue
La toxicité aiguë est définie comme celle qui résulte de l’exposition unique et massive (ou de doses ramassées dans le temps) à un produit chimique entraînant des dommages corporels pouvant conduire à la mort.
Elle introduit la notion de dose « absorbée » ( par ingestion, inhalation ou contact cutané) et se mesure par la DL 50 (dose létale, ou dose provoquant la mort de 50% des animaux exposés à une dose unique du produit incriminé), exprimée en mg/kg de l’animal d’expérience retenu, par exemple le rat mâle par voie orale (per os) .
C’est ce critère de DL50 qui permet aujourd’hui de procéder au classement des substances chimiques en vue de leur étiquetage réglementaire toxique, corrosif, nocif ou irritant.
La notion de DL 50 est remplacée par celle de CL 50 ( concentration létale) lorsque la toxicité étudiée est celle qui est liée non pas à l’ingestion du produit mais à son inhalation.
Pus la DL50 (ou la CL 50) est basse, autrement dit plus le produit testé produit des effets néfastes à faible dose, plus sa toxicité est grande.
La toxicité aiguë, extrêmement variable d’un produit à l’autre, peut se manifester par :
- une dépression du système nerveux central (perte de connaisance, coma…, arrêt cardiaque),
- des effets cutanés (dermite, allergie, brûlure…)
- un accident pulmonaire (oedème aigu du poumon)
- des atteintes oculaires (irritation, lésion de la cornée, cécité,
- etc…
Exemples de toxicité aiguë exprimée en mg/kg chez le rat mâle par voie orale :
Produit chimique DL 50
Ethanol : 7060
Chlorure de sodium : 3000
Cyanure de potassium : 50
Anhydride arsenieux : 1,5
Dioxine (TCDD) 0,02

Toxicité chronique
La toxicité chronique est le résultat de l’exposition prolongée à plus ou moins faible dose à un xénobiotique toxique dont les effets néfastes ne se feront sentir que quelques mois à quelques années voire dizaines d’années plus tard.
Les pathologies peuvent apparaître durant l’exposition ou bien après la cessation de celle-ci. Elles peuvent être le résultat d’une exposition conjuguée à plusieurs toxiques, parfois difficile à déceler. Le mécanisme d’action du toxique lui même peut être complexe et indirect. Il peut se traduire par l’apparition d ‘asthmes, de pneumoconioses, d’encéphalopathies, de paralysies, de cancers…
On peut citer comme exemples d’agents connus pour leur toxicité chronique l’amiante, le plomb, le benzène, la silice, le mercure, les solvants chlorés, certains éthers de glycol…Mais il en existe de très nombreux autres.
A la différence de la toxicité aiguë, la toxicité chronique ne se propose pas de déterminer un seuil de mortalité mais plutôt la dose quotidienne administrée en dessous de laquelle n’apparaissent pas d’effets sur la santé.
Cette notion de seuil doit permettre d’élaborer des valeurs limites d’exposition des opérateurs, leur garantissant l’absence de risque lorsque leur travail s’effectue largement en dessous des limites fixées (cf. fiche N°49 ).
Cependant, la toxicité chronique fait entrer en jeu de nombreux facteurs susceptibles de faire varier la réponse de l’organisme en fonction des individus. On parle de susceptibilité individuelle : l’âge, le sexe, les habitudes alimentaires, le tabagisme, l’alcool, les facteurs génétiques…Ces éléments rendent difficiles la détermination de seuils d’innocuité.
Par ailleurs, la notion de seuil d’exposition apparaît inadaptée en matière de cancers car, même s’il est admis que dans la pratique une certaine quantité de produit est nécessaire pour initier un cancer, il est en théorie possible que la mutation d’une seule cellule normale par une molécule cancérogène entraine la transformation de cette cellule en cellule maligne.

Toxicité subaiguë
 
La toxicité subaiguë enfin, correspond à un stade d’exposition intermédiaire de l’ordre de trois mois. A la différence de la toxicité aiguë elle permet d’identifier et donc de prévoir les organes cibles sur lesquels un produit exercera également une action en cas d’intoxication chronique. 
Ainsi par exemple, un produit exerçant une toxicité sur le foie après trois mois d’exposition (hépatite…), sera probablement également responsable de pathologies sur ce même organe en cas d’exposition à long terme (cirrhose ou autre pathologie hépatique…) 
En résumé, l’action des toxiques peut se manifester à court, moyen ou long terme mais cette action varie notamment en fonction de la dose à laquelle la personne est exposée.

 

Partager cet article
Repost0
22 janvier 2008 2 22 /01 /janvier /2008 17:23

undefined« OHSAS Health and Safety Assessment Series » est l’abréviation anglaise de «  Sécurité et Santé au travail ou Bien-être au travail ».
Ce référentiel permet à une organisation de gérer ses risques en matière de bien–être au travail, d’améliorer ses prestations et de structurer sa politique interne et externe. En aucun cas, il ne vise la sécurité des produits ou des services.
L’entreprise est libre de ses choix dans la mise en place de ce système ; en effet, il n’existe ni critère de performances, ni directive pour sa création. Retenons simplement que le principe de base du référentiel repose sur la roue de Deming : Planifier-Faire-Vérifier-Agir.
Si le contenu de l’OHSAS 18 001 est fort différent de celui de l’ISO 14 001, sa forme et sa structure sont en revanche fort similaires. Le référentiel OHSAS 18 002 apporte des explications et décrit les entrants et sortants typiques.
 
Intérêt de l’OHSAS
Ce référentiel ne présente aucun caractère innovant spécifique sur le plan de la sécurité. Il recherche plutôt un consensus international en matière de sécurité et de santé dans le cadre duquel l’organisme qui recherche la conformité réglementaire définit lui-même une plate-forme de départ qu’il améliore ensuite continuellement grâce au contrôle opérationnel de ses activités : il n’y a pas de conditions d’entrée.
La certification OHSAS 18 001 offre une plus value plus importante dès lors qu’elle est délivrée par un organisme accrédité.
OHSAS suscite déjà l’intérêt de l’industrie en Europe, où l’industrie est considérée comme la plus sûre, en Asie ou en Amérique du Sud.
 
Exigence de l’OHSAS
Ce référentiel nécessite :
- L’engagement de la direction ;
- L’engagement de la ligne hiérarchique en matière de sécurité et de santé ;
- La désignation d’un coordinateur chargé d’une fonction consultative au niveau de la direction ; c’est le conseiller en prévention interne ou le responsable HSE ;
- L’analyse du risque en temps que moteur d’une politique de prévention effective permettant d’apprécier l’efficacité des mesures correctives et préventives.
Partager cet article
Repost0
18 janvier 2008 5 18 /01 /janvier /2008 16:09
DSC.JPG Frédéric Winslow Taylor - 1856-1915 - fondateur du management scientifique du travail.


son principe est le suivant : 

SAVOIR FAIRE
:
Art de réaliser un petit nombre 
                        ce qui implique
SAVOIR RE FAIRE : Science de réaliser le plus grand nombre

Taylor en arrive à mettre en évidence quatre grands principes qui caractérisent son système de management :
  1. Il appartient aux membres de la Direction (comprenez du management, de l'encadrement), de mettre au point la technique d'exécution de chaque élément du travail, les ouvriers ayant seulement à perfectionner les outils et les conditions de travail. Les membres de la Direction doivent donc réunir toutes les connaissances empiriques, les classer et les transformer en lois scientifiques. C'est à eux que revient la définition des conditions optimales d'exécution d'une tâche et la fixation des normes du travail acte pièces.
  2. Les ouvriers doivent être sélectionnés puis entraînés, afin de perfectionner progressivement leurs qualités et leurs connaissances.
  3. Les ouvriers doivent suivre les directives données sur la façon d'exécuter le travail. Taylor a la certitude que le travail doit être exécuté conformément aux règles découvertes par la Direction qui a dû mettre au point les meilleures méthodes (the one good way) avec les outils les plus appropriés.
  4. Dans ces conditions, la responsabilité du travail est donc vraiment partagée entre les ouvriers et les membres de la Direction.
Transformant progressivement des méthodes de travail empiriques et amenant ses ouvriers, grâce à des incitations financières allant de 30 à 50% d'augmentation des salaires, à changer leur manière de faire en accomplissant les tâches fixées pour eux, Taylor obtient que la production de l'atelier double.
Pendant les années de cette dure expérience, il suit des cours du soir et devient ingénieur. Devenu chef de son atelier, il le quitte, passe au Bureau d'étude de la Midvale et est nommé, en 1884, ingénieur en chef. Il n'a que 28 ans.
En 1890, il quitte la Midvale Steel Cie et devient consultant en organisation scientifique.
Après plus de vingt ans de recherches et d'expérimentation, il accepte, en octobre 1911, de faire une conférence au Congrès portant sur les principes du management scientifique. Le texte de son importante communication va être la matière de l'ouvrage, devenu célèbre, qu'il publie en 1912 avec ce titre précisément : "Principles of scientific management".
Les principes du management scientifique peuvent être résumés par :
  • Utiliser la Science, pas les méthodes empiriques
  • Chercher l'harmonie et non la discorde
  • Chercher la coopération plutôt que l'individualisme
  • Chercher le maximum de productivité
  • Promouvoir le développement de chaque employé pour sa plus grande efficacité et prospérité
Des idées aussi neuves semblent un défi à beaucoup. Une commission de membres du Congrès américain est chargée d'enquêter sur le système de Taylor. Celui-ci en profite pour exposer devant eux ce qu'il considère comme l'essentiel de la méthode de management scientifique, explique les quatre avantages qu'apporte ce système :
  1. Le prix de revient de fabrication diminuant grâce à une production améliorée, l'industriel peut réaliser de meilleurs bénéfices.
  2. Les consommateurs en profitent, puisqu'ils peuvent acheter moins cher des produits dont le prix de vente doit diminuer de façon sensible.
  3. L'ouvrier reçoit un salaire supérieur à celui qu'il recevait antérieurement, et ceci sans que ses horaires de travail augmentent.
  4. Le climat de l'entreprise doit être transformé, la coopération étant préférable au conflit permanent, la considération réciproque préférable à la méfiance.
Considéré, de son vivant, par certains, comme un bienfaiteur de l'humanité, ayant accru le bien-être des travailleurs, diminué la fatigue humaine et avoir contribué à la paix sociale. Cependant Taylor n'a pas eu les résultats qu'il avait espérés. Il a été le plus souvent mal compris et l'esprit de sa méthode complètement déformé. Il eut ainsi notamment contre lui la puissante centrale syndicale American Federation of Labor.
Partager cet article
Repost0