follow

lundi 27 février 2012

Nouvelles énergies mythes ou réalité ?


Énergie : Se chauffer pour 20 euros/an dès 2013 ?


Les 5 technologies utilisant l’énergie libre en train de devenir disponibles ???

 

Nous attendons tous une alternative au nucléaire, cet article nous donne un petit espoir de concrétisation. Comme tout ce qui touche à ces énergies est « impossible » pour les uns, de la fumisterie pour les autres, ou bientôt la réalité, vous avez le choix et la liberté de penser! servez vous en……..Merci à Befree56
Hors des circuits des médias traditionnels, de nombreuses technologies futuristes de l’énergie sont en train d’émerger pour changer le cours de la civilisation humaine. Ces innovations technologiques sont porteurs d’un fantastique espoir pour le futur où la pénurie énergétique ne sera plus qu’un mauvais souvenir.
Hank Mills, Nouvelles concernant les Systèmes d’Energie Pure (PESN).
http://pesn.com/2012//21/9602018_Top_5_Free_Energy_Technologies_Unfolding_Now/

Une ère d’énergie libre s’ouvre. Au moment où nous vous parlons, de nombreuses entreprises sont en train de développer les technologies qui rendront l’énergie à produire abondante, abordable et peu coûteuse. Les plus originales de ces technologies mettront fin à l’ère du combustible fossile et ce en permettant à l’énergie d’être produite de façon totalement novatrice. Tout cela se déroule actuellement, sans la moindre couverture médiatique. Elles arrivent sans bruit et très peu de gens y prêtent attention.
Au cours des 10 dernières années, nous, au sein de PESN, avons suivi la piste et le développement de ces innovations qui vont changer la face du monde ; nous avons fait des reportages au fur et à mesure où elles arrivaient sur le marché. Nous avons établi une liste des 5 meilleures et plus prometteuses d’entre elles que nous avons suivi avec attention. En ce soir du 21 janvier 2012, Allan Sterling (fondateur de PESN) présente les toutes dernières versions de ces technologies aux millions d’auditeurs de ce programme radio.
De toutes les technologies émergeantes dont le public devrait être au courant, les 5 énumérées ci-dessous sont considérées comme la « crème de la crème” et méritent une attention particulière. De notre point de vue, ces technologies sont celles qui se développeront le mieux et qui auront un impact durable sur notre civilisation. Dans la suite de cet article, nous les présenteront dans le détail et nous expliquerons pourquoi les personnes désireuses de voir se produire une révolution énergétique devraient suivre au plus près leur évolution et leur arrivée sur le marché.
1. Le catalyseur d’énergie d’Andrea Rossi (Andrea Rossi’s E-Cat “Energy Catalyzer”)
Le catalyseur d’énergie d’Andrea Rossi est peut être le dispositif technologique le plus connu de cette liste. Il utilise la « fusion à froid » ou « faibles réactions d’énergie nucléaire (LENR) ». Par des procédés nucléaires novateurs, il permet le dégagement de grandes quantités de chaleur, entre une poudre de nickel ordinaire et de l’hydrogène sous sa forme gazeuse.
Il est de petite taille mais est capable de produire une grande quantité d’énergie. D’ordinaire, il se compose d’un petit tube en métal (bien que d’autres formes soient également utilisées) qui agit comme le cœur d’un réacteur. Une fois scellé, de la poudre de nickel spécialement traitée, de l’hydrogène sous forme gazeuse et un catalyseur breveté sont introduits dans ce tube. Soumis à une combinaison de pression et de chaleur, un surplus d’énergie thermique se dégage. Un volume d’eau ou de tout autre liquide refroidissant circule autour du cœur du réacteur et en extrait la chaleur, tout en refroidissant en même temps le cœur même de ce réacteur.
A partir d’un petit système qui tient sur une table, on peut générer beaucoup de kilowatts d’énergie thermique. Après des tests effectués en laboratoire, il s’est avéré qu’un cœur de réacteur de la taille d’une pile peut produire en toute sécurité 10 kW de chaleur. Cette énergie thermique est produite sans l’aide d’aucun matériel radioactive, elle ne génère aucun déchet nucléaire et n’émet aucune radiation néfaste pour l’environnement, ne relâchant aucune pollution dans l’atmosphère.
Aussi, cette technologie peut être considérée comme un moyen sûr et propre de produire de l’énergie nucléaire, sans rencontrer aucun des inconvénients que représente la fission nucléaire telle que nous la pratiquons de nos jours. Même dans le pire des cas, comme celui d’une catastrophe naturelle, le catalyseur d’énergie d’A. Rossi ne peut pas entrer en fusion et ainsi produire une situation dangereuse. Dans le cas où un catalyseur se mettrait à surchauffer à cause d’un dégât matériel ou d’une fuite du liquide de refroidissement, la poudre de nickel se solidifiera en un bloc et le procédé nucléaire s’arrêtera de fait.
Le 28 octobre dernier, A. Rossi a permis à son premier client de tester une usine d’un mégawatt implantée à Bologne, en Italie. Ce fût un succès. En effet, pendant un peu plus de 5 heures et demi, le système a produit de façon constant un peu moins d’un demi mégawatt de chaleur, sans aucun apport d’énergie. Le client a tout de suite été conquis par le procédé et l’a acheté.
En ce moment, A. Rossi travaille avec son premier client, ainsi qu’avec l’entreprise assez connue la National Instruments, pour développer des contrôles électroniques plus complexes pour ses systèmes. Bien que l’usine soit toujours implantée à Bologne, en Italie, les consommateurs devraient les voir arriver sur le marché d’ici 2 à 3 mois.
Récemment, il a également annoncé qu’il espérait pouvoir bientôt produire une quantité d’un million de catalyseurs de 10 kW pour une utilisation domestique. Ces unités fourniraient à la fois du chauffage pour la maison et de l’eau chaude. Pour produire de façon efficace un million de ces procédés au prix de vente le plus bas, il a conçu une usine automatisée en se servant de la technologie robotique. Il espère pouvoir mettre son catalyseur sur le marché d’ici la fin de l’année, début de 2013, au prix de 500 dollars l’unité. Il espère aussi être en mesure d’offrir des kits qui pourraient améliorer ces systèmes afin de produire de l’électricité, en plus de la chaleur.
Si l’utilisation de ce procédé se répand rapidement, cette technologie aurait la capacité de réduire dramatiquement, voire même de faire disparaitre, notre besoin en combustible fossile. Pour toutes ces raisons, nous en avons fait notre numéro 1 de cette liste.
2. Le générateur d’état solide ou “ générateur de champ électrique sans fin”
Le numéro 2 de notre liste peut être décrit comme un “générateur d’état solide”; nous lui avons également donné le surnom de “générateur de champ électrique sans fin”. L’entreprise qui assure son développement souhaite pour l’instant rester anonyme. Elle a déjà développé de nombreuses technologies et compte sur un portefeuille important de brevets.
Cette technologie repose sur la production d’un champ électrique permanent (le contraire d’un champ magnétique permanent dans un aimant permanent) qui ne s’arrête jamais et qui génère un flux constant d’électricité. Actuellement, la production de ces prototypes reste assez modeste, car ils ne sont capables que d’alimenter une lampe ou une autre petite charge similaire. Cependant, l’entreprise est en train d’essayer d’introduire des nouvelles méthodes afin d’augmenter la superficie de l’appareil et ainsi générer un courant plus important (la tension est déjà présente). Un associé de confiance, Mark DANSIE, s’est rendu sur place et en a conclu que la technologie est réelle et qu’elle fonctionne bien.
Le potentiel à venir de cette technologie est stupéfiant. En effet, selon les fabricants, qui souhaitent la faire évoluer encore plus, un appareil de la taille d’un timbre poste sera alors en mesure de produire environ un watt de puissance électrique constante (ce qui est assez pour faire fonctionner un téléphone portable) et ce pendant une période de 20 ans, voire peut être plus, sans consommer aucune sorte de combustible. De plus, ces appareils sont construits avec des matériaux non toxiques et ne sont pas dangereux même s’ils venaient à être ingérés.
Finalement, cette technologie pourrait être adaptée pour produire de l’électricité pour n’importe quelle application: des téléphones portables, des voitures électriques, des maisons, etc.
La recherche continue et nous espérons prochainement vous faire part des ses avancées. Lorsque cette technologie arrivera sur le marché, d’ici 18 à 20 mois, elle deviendra très certainement notre numéro 1 de la liste.
3. Le moteur à gaz noble de PlasmERG.
PlasmERG est une entreprise qui est en train de construire un moteur révolutionnaire, qui n’utilise que de petites quantités de gaz noble inerte comme combustible. John ROHNER, le fondateur de l’entreprise, soutient que le moteur sera capable de produire un rendement constant de plus de 100 chevaux, et ce pendant des mois et des mois, en n’utilisant que pour quelques dollars de carburant.
De plus, il ne rejette aucune pollution dans l’atmosphère, ne fait aucun bruit et ne nécessite aucun système de refroidissement. Il peut servir pour les voitures et permettre aux générateurs de produire de l’électricité. Il pourrait aussi remplacer les moteurs électriques dans beaucoup d’applications. Du fait de sa simplicité, il nécessite beaucoup moins de composants qu’un moteur à combustion interne et, de fait, moins d’entretien. Avec ce moteur dans une voiture, les vidanges d’huile, les surchauffes de radiateur et les replacements de filtre à huile ne seraient plus qu’un souvenir … ainsi que les pleins d’essence à la pompe !
L’inspiration de ce « procédé de transmission plasmique » provient du “moteur Papp”. Joseph PAPP, son inventeur, était un immigré qui a maintes fois essayé de commercialiser son moteur à gaz noble. Cette histoire s’est déroulée sur plusieurs décennies et a connu beaucoup drames. Bien qu’il n’ait jamais réussi à le commercialiser et qu’il soit mort sans avoir vu son invention sur le marché, il semblerait que PlasmERG (et son partenaire, l’entreprise Inteligentry) soit bientôt prêt, dans un futur assez proche, à lancer sur le marché une version améliorée du moteur, sans doute au cours du premier trimestre de cette année 2012.
Une fois le moteur testé (fabriqué avec des pièces conçues sur mesure) et capable de fonctionner comme promis, il pourrait bien aussi devenir le numéro 1 de cette liste.
4. De l’énergie à partir du CO2 et de cendre industrielle.
Les nouveautés technologiques offertes par l’entreprise MP BioMass sont clairement un peu moins ‘exotiques’ que celles présentées dans cette liste ; cependant, elles sont suffisamment significatives pour que nous en bénéficions à plusieurs niveaux dans un avenir proche. En effet, celles-ci ont la capacité de gérer les déchets produits par la fumée de charbon, empêcher les émanations de CO2 et, en même temps, produire du combustible et de l’énergie.
Une solution technologique offerte par MP BioMass consiste à retenir le dioxyde de carbone contenu dans les gaz effluents, afin d’éliminer totalement les émanations de CO2. Cela est accompli avec un procédé breveté au niveau mondial qui, selon les dires de l’entreprise, reproduit une forme de photosynthèse artificielle.
Le procédé de ‘pyro gazification de la nano membrane’ n’extrait pas seulement le dioxyde de carbone contenu dans les gaz effluents mais empêche également les autres polluants de s’échapper dans l’atmosphère. Le procédé retient aussi l’oxygène (niveau 5) et isole l’hydrogène de ces gaz. Ce qui permet la production de méthanol et d’électricité, dont une infime partie est réutilisée pour faire fonctionner le système. La quantité produite de méthanol est impressionnante : 2085 litres (551 gallons) produits à partir de chaque tonne de dioxyde carbone capturée.
Le méthanol produit par cette technologie aurait un taux de cétane de 60 ou plus, ce qui équivaut à un taux élevé de supercarburant sans plomb ; il pourrait faire fonctionner n’importe quel véhicule sans avoir besoin de procéder à des modifications.
Une autre technologie offerte par l’entreprise est celle d’une meilleure gestion des quantités énormes de gaz effluents renvoyés dans l’atmosphère par les usines fonctionnant au charbon. En effet, elle est capable d’extraire l’énergie restante contenue dans ces gaz ainsi que les métaux ferreux et non ferreux de valeur. Elle en retire également les toxines et réduirait de beaucoup la quantité de ces déchets déversés dans les décharges.
Cette technologie a été prouvée et est actuellement utilisée, l’étape du prototype étant largement dépassée. Des millions et des millions de dollars ont déjà été dépensés dans son développement et une usine a été construite en Serbie en 2003. L’entreprise possède également 3 autres usines plus petites en Italie. Une usine de 10 mégawatt est en prévision dans le nord de l’état de New York et une autre de 2 gigawatt a été achetée et sera construite en Arabie Saoudite ; elle sera achevée en 2015.
Même si l’entreprise MP BioMass ne propose pas une technologie qui fasse voler en éclats les lois de la physique ou qui fasse disparaitre notre besoin en énergie fossile, elles est tout de même capable de nous offrir de nombreux bénéfices. Je pense qu’elle pourrait nous permettre de progresser en tant que civilisation et nous faire patienter avant que de nouvelles technologies n’émergent.
Beaucoup d’usines qui fonctionnent encore au charbon, et qui s’apprêtent à fermer car elles ne peuvent s’offrir d’effectuer les modifications pour être en règle avec les nouvelles normes d’émission, pourraient ne pas fermer et même tirer profit de ces émissions tout en assainissant l’environnement.
5. Defkalion
Defkalion est une entreprise grecque qui était associée à A. Rossi avant que celui ci ne mette fin à leur partenariat au cours de l’année 2011. Ils avaient l’intention de développer et de lancer sur le marché mondial sauf en Amérique la technologie de fission à froid révolutionnaire de Rossi.L’entreprise affirme maintenant qu’elle a développé sa propre technologie autour du nickel et de l’hydrogène qui est censé ne pas utiliser les secrets industriels de Rossi.
Contrairement à la technologie mise au point par ce dernier, qui a été testée de nombreuses fois –et qui a à chaque fois démontré une production importante de surplus énergétique- ils n’ont jamais permis un essai public de leur procédé. Pour l’instant, tout est maintenu secret.
S’ils pouvaient produire la preuve qu’ils possèdent une technologie autour du nickel et de l’hydrogène qui soit robuste et efficace, ils pourraient se rapprocher de la première position, dans notre liste. Même s’ils vont concurrencer A.Rossi, il reste de la place sur le marché pour une autre technologie de fusion à froid. Dit simplement, ils pourraient tous les deux développer leur appareil pendant des années et ne même pas être en mesure de répondre alors à la demande.
Leur principal argument est de dire que leur technologie ‘Hyperion’ est supérieur à celle d’A. Rossi. Cela peut être ou non le cas et seul le temps nous dira s’ils pourront apporter la preuve de ce qu’ils disent. Ceux qui ont visité les locaux de l’entreprise Defkalion (même s’ils n’ont pas eu la preuve que cela fonctionnait réellement) ont mentionné l’existence d’un laboratoire dernier cri, d’ingénieurs professionnels et d’une quantité importante de matériel très coûteux.
Il reste cependant un point d’inquiétude pour certains : la possibilité (non confirmée) qu’ils utilisent une partie de la technologie d’A. Rossi sans sa permission. Nous ne savons pas si cela est le cas mais pour l’instant, nous n’avons pas d’autre choix que d’espérer qu’il s’agisse de personnes parfaitement honnêtes. Cependant, s’ils pouvaient fournir une explication sur la différence qu’il existe entre leur procédé et celui de Rossi (par exemple, les catalyseurs utilisés), cela permettrait de nous rassurer.
Espérons que tous leurs arguments soient fondés. En effet, un monde disposant de 2 technologies de fusion à froid serait bien meilleur qu’avec une seule.
http://pesn.com/
Traduit par Delphine Alemany tradanglesp@hotmail.fr pour LaPresseGalactique.com
Article partagé en toute transparence n’oubliez pas de citer les sources et de reproduire en intégralité. Merci
http://www.2012un-nouveau-paradigme.com
http://lespasseurs.com/chroniques_arcturius/?p=7799

 source

ATTENTION  AUX ARNAQUES.

Rossi est connu pour être déjà l’auteur de plusieurs arnaques, dont l’une sur la transformation de pneus en pétrole qui a laissé un site pollué de façon irréversible en Italie. Il a aussi fait de la prison.
Les infos sérieuses sur ce fake dont le scandale éclatant est proche ici (c’est un site spécialisé sur ce qu’autrefois on appelait la « fusion froide »).
http://blog.newenergytimes.com/
et notamment:
http://blog.newenergytimes.com/2012/02/18/national-instruments-denies-relationship-with-rossi/
on y voit notamment que Rossi a refusé un challenge à 1Million de dollars pour refaire son expérience qui l’a rendu célèbre il y a un an, et dont le mode opératoire commence à être percé à jour (eau cachée qui disparaît dans un mur pour faire croire que toute l’eau se transforme en vapeur, ce qui est faux).
La NASA a aussi annoncé qu’elle ne souhaitait plus collaborer avec lui.
ça ne remet pas forcément en question la forme d’énergie nouvelle que constituerait la technologie « LENR », mais il ne faut rien en attendre de positif avant des dizaines d’années.

 Une critique argumentée ici :
http://newenergytimes.com/v2/news/2012/Report-4-Rossis-NASA-Test-Fails-to-Launch.shtml
 ( Rossi n’est pas un « savant » il a obtenu ses « diplômes » dans une école privée américaine qui depuis a été identifiée comme étant une « usine à diplôme » (on payait pour obtenir des diplômes sans valeur). Elle a été fermée depuis pour cette raison. )

D’accord avec les sceptiques, ce Rossi est probablement un escroc.
Beaucoup d’infos intéressantes ici, pour ceux qui lisent l’anglais :
http://www.esowatch.com/en/index.php?title=Focardi-Rossi_Energy-Catalyzer

 Un complément d’infos pour ceux qui seraient intéressés :
http://www.youtube.com/watch?v=Cu8H1JNJLa0
- D’après l’exposé fait dans cette vidéo, le procédé est loin d’être établi, on n’arrive pas à reproduire l’expérience, quand aux applications civiles et commerciales, elles sont encore dans les limbes.
La machine qui est montrée comme illustration, c’est quoi exactement ?

En France, il y a un Géo Trouvetou nommé Jean Louis Naudin qui travaille sur le sujet par le biais d’expérimentations: http://jnaudin.free.fr/




En conclusion : même si Rossi est un escroc, rien n’empêche d’espérer que ce genre de solutions se développeront dans le futur et qu’elles seront sures et approuvés !!!

( Je me méfie comme beaucoup des formes d’énergie « miracle » qui consomment peu, ne sont pas chères, sont recyclables et très productrices.
Surtout quand je lis ça
« de même que des radiofréquences permettant de faire travailler les forces de répulsion (Coulomb) entre particules subatomiques de façon avantageuse, un peu à l’image de ce qui se passe dans les arts martiaux orientaux. » )

PS :
Si on sait où chercher, on peut trouver des dizaines de brevets non exploités.
http://fr.espacenet.com/searchResults?ST=advanced&compact=false&TI=fusion+froide&locale=fr_FR&DB=fr.espacenet.com
ITER ne poura jamais marcher, c’est impossible. On le sait et l’on continue à dépenser des milliards. Nous sommes loin de disposer des matériaux nécéssaires à sa fabication.
Si vous voulez faire des expériences, des milliers de brevets téléchargable.

 ( pour en finir :

Le « savant  » à l’origine de cet engin est un escroc multirécidiviste, c’est (au moins) la quatrième fois qu’il présente un procédé révolutionnaire (transformer les déchets en eau, des mini-générateurs de 100MW…), et à chaque fois il s’est enfuit à l’étranger/a brûlé l’usine/ a fait de la prison (rayer la mention inutile).
Concernant cette expérience, les impossibilités physiques sont détaillées ici : http://scienceblogs.com/startswithabang/2011/12/the_nuclear_physics_of_why_we.php
Pour les non-anglophones :
- la réaction nickel+hydrogène ->cuivre est possible sur le papier, mais est empêchée par la barrière de Coulomb (répulsion entre les noyaux de nickel et d’hydrogène) nécessitant une telle quantité d’énergie que même l’explosion d’une supernova n’en est pas capable…
- quand bien même cette réaction aurait lieu « par magie », elle émettrait des rayonnements gamma mortels pour l’homme et capables de traverser un mètre de béton. Avec la piètre isolation de la machine, les observateurs devraient souffrir de graves lésions cutanées rien qu’en étant dans la même pièce, voire le même bâtiment.
- l’engin était relié tout du long à une prise électrique, « soit-disant » juste pour le démarrage…
Bref, un attrape-gogo de plus qui rejoindra les moteurs à eau et autres énergies libres. A oublier au plus vite. °

DE PLUS :

C’est une anarque car pour être sans danger le dispositif nécessite un blindage pesant des tonnes de plomb
Rayons gamma (énergie) de 511 keV :
Concentrez suffisamment d’énergie en un point et vous verrez, en véritable génération spontanée, apparaitre une paire, deux particules symétriques, la « vraie » et l »anti ». Annihilation et création de paires sont les deux manifestations de l’antimatière dans notre monde de matière. La création de paires est une façon « naturelle » de faire apparaitre de l’antimatière au sein de la matière ordinaire. Mais une « antiparticule » ne peut exister de façon stable car dès qu’elle rencontre la particule de matière opposée, elle s’annihile en énergie. L’antimatière est ainsi continuellement produite et détruite dans notre Univers proche. Dans le cas du positon [2], l’anti-particule de l’électron, la désintégration mutuelle produit une quantité d’énergie bien précise. L’ensemble de la masse des deux particules est transformée en énergie, sous forme de deux photons ou particule de lumière ayant chacun une énergie de 511 keV . L’annihilation « positon-électron » se traduit donc par un excès de lumière, à une énergie très précise de 511 keV, appelé aussi « raie d’annihilation ».
Rayon gamma est le nom donné au rayonnement électromagnétique produit, par la désexcitation d’un noyau atomique résultant d’une désintégration, ou par des phénomènes subatomiques comme l’annihilation d’une paire électron-positon. Ils ont une énergie qui varie dans une plage allant de la centaine à plusieurs centaines de gigaélectron-volts. Leurs longueurs d’onde est inférieure à 5×10-12 m.
Le blindage contre les rayons gamma requiert des grandes quantités de matière. Par exemple un blindage qui réduit de 50 % l’intensité de rayons gamma de 1 MeV nécessite 1 cm de plomb, 6 cm de béton ou 9 cm de terre. Aucune épaisseur de plomb n’arrête à 100% les rayons gamma. La formule d’atténuation d’un pourcentage de X% (inférieur à 1), correspond a une épaisseur E (en cm), selon la formule : E=[Ln(1/1-X)]/µ (Ln, logarithme népérien) où µ=0,693147 (coefficient d’absorption du plomb, pour les rayons gamma. Pour éliminer 99%, il faut 6,6 cm. Pour 99,99% 13 cm. Pour 99,9999% 19,9 cm (ce qui atténue l’énergie des gamma de 10^6 (un million de fois moins). Plus le numéro atomique (Z) est élevé, plus l’atténuation est forte. Pour le plomb Z=82. Pour les blindages au béton, selon la même formule, avec µ=0,1155. Il faut 19,9 cm de béton pour éliminer 90% des radiations gamma. 99,6 cm pour 99,999%. 1,20 m pour 99,9999%. 1,30 m pour 99,99999% (radiations gamma divisées par 10 millions).
Les rayons gamma provenant de retombées radioactives seraient probablement le plus grand danger dans le cas d’une guerre nucléaire. Si les rayons gamma sont moins ionisants que les rayons alpha ou bêta, ils demandent des épaisseurs de blindage beaucoup plus importantes pour s’en protéger (de l’ordre de quelques mètres d’épaisseur de béton armé). Ils peuvent produire des dégâts similaires à ceux produits par les rayons X et les autres rayonnements ionisants, tels que brûlures (effet déterministe), cancers et mutations génétiques (effets stochastiques).

 

jeudi 16 février 2012

I. L'ACOUSTIQUE

Qu’est ce que le son ?
Comment se propage-t-il ?
Quelques questions fondamentales.

1.1 l’onde sonore

1.1.1 Nature de l’onde
Une onde sonore est de nature mécanique. C’est le mouvement des molécules dans un fluide ou un solide qui permet au son d’exister et de se propager.
Par conséquent le son ne peut pas se propager dans le vide.
Terminologie : On parlera de "source" ou d’ "excitateur" pour ce qui produit le son, de "milieu" pour le fluide ou le solide dans lequel se propage l’onde sonore, de "récepteur" pour ce qui capte l’onde. On utilisera aussi "signal" pour "onde".

1.1.2 L’onde sonore dans un fluide
L’onde sonore dans un fluide est similaire à la houle. La position moyenne des molécules du fluide est constante, au contraire du vent.
Lorsqu’un son est émis, la source peut par exemple se contracter et se dilater ou vibrer comme une corde. Le fluide autour de la source est alternativement compressé et dilaté par le changement de volume ou de position de la source. Les zones de surpression et de dépression sont alternées. Une zone de surpression va tendre à retrouver sa pression de repos.
Pour cela des molécules vont se déplacer vers les zones avoisinantes, celles-ci vont alors être en surpression et le phénomène se propage. Inversement une zone de dépression va, pour retrouver sa pression d’équilibre, attirer des molécules proches et créer une dépression qui va ainsi se propager de proche en proche.
On dit que l’onde acoustique est un signal longitudinal puisque les variation de pression sont dans le même axe que celui de la propagation.

1.1.3 L’onde sonore dans un solide
Dans un solide la propagation se fait aussi par des mouvements infinitésimaux des molécules. La nature "incompressible" des solides rend la propagation encore plus rapide que dans les fluides.

1.2 Caractérisation d’une onde

1.2.1 La période
La période d’un signal est la durée du motif élémentaire d’un signal.

1.2.2 La fréquence
La fréquence correspond au nombre de périodes par unité de temps. Mathématiquement, c’est l’inverse de la période.
L’unité est le Hertz (Hz)
1 Hz = 1 s-1
1.2.3 La vitesse de propagation
La vitesse de propagation est la vitesse à laquelle se déplace l’onde acoustique. Elle dépend de la nature du milieu : peut être plus ou moins importante selon sa viscosité, son élasticité notamment.

1.2.4 La longueur d’onde
C’est la distance que parcours l’onde pendant un cycle. La longueur d’onde dépend du milieu.
Remarque :
Lorsque la source est en déplacement, la vitesse de propagation résultante est égale à la vitesse de propagation ajoutée (vectoriellement) à la vitesse de déplacement de la source. Cette vitesse de déplacement fait varier la hauteur du son. C’est l’effet Doppler qu’on a déjà tous entendu quand une ambulance passe près de nous à toute vitesse.

1.3 Signaux complèxes

1.3.1 Définition
Un signal complexe est une onde qui est constituée que de plusieurs partiels. C’est le cas de la plus part des sons communs.

1.3.2 Analyse d’un son complèxe
Il est possible de décomposer mathématiquement une onde complexe en une somme de sons purs élémentaires. Il existe de très nombreux algorithmes de décomposition qui donnent des résultats plus ou moins justes selon la nature du signal à analyser. On peut citer la Transformée de Fourrier, les décompositions en polynômes de Chebychev, en ondelettes, etc...

De façon générale, ces analyses mathématiques sont des "projections" de la fonction que représente le signal complexe sur un ensemble algébrique de fonctions.

On parle de fréquence des partiels d’un son complexe dans le cas particulier d’une analyse en fonctions sinusoïdales (Transformée de Fourrier).

1.4 Propagation d’une onde dans l’espace

1.4.1 Direction de propagation
En théorie, une source ponctuelle émet de façon égale dans toutes les directions. En réalité, de telles sources sont très rares, et chaque source va projeter le son de façon différente. La facture d’un instrument de musique, la conception d’un haut-parleur se font en intégrant les données d’acoustique instrumentale pour modeler la projection du son de telle ou telle manière.

1.4.2 Ondes sphériques, ondes planes
Le front d’onde est une surface qui représente l’avancement d’une onde dans l’espace. C’est la perpendiculaire à la propagation.
Pour une source ponctuelle, ce front d’onde est sphérique, centré sur la source. Au fur et à mesure que l’onde s’éloigne de la source, la courbure de la surface tend vers zéro (surface plane).
On peut fait l’approximation au-delà d’une certaine distance que le front d’onde devient plan. Ceci permet de simplifier pas mal de calculs.

1.4.3 Dispersion de l’énergie acoustique
L’énergie totale sur le front d’onde diminue à cause de la viscosité du fluide dans lequel se propage le son.
Si on néglige dans une première approche cette diminution, on constate que l’énergie par unité de surface sur le front d’onde diminue selon le carré du rayon du front d’onde. En d’autres termes à chaque fois que la distance double l’énergie par unité de surface du front d’onde est divisée par quatre.

1.4.4 Lentilles acoustiques
Certaines irrégularités du milieu de propagation peuvent ralentir localement ou dévier la propagation du son.
Parmi les phénomènes les plus communs on citera les gradient de températures qui entraînent un changement de la densité et de la viscosité de l’air et un courant de convection.
Par exemple lors d’un concert si l’air au dessus du public est frais, la chaleur dégagée par les spectateurs va créer un courant ascendant. Il y aura un vent très lent qui va déplacer les molécules qui constituent l’air vers le haut et va dévier la propagation du son vers le haut.

1.5 Réflexion, diffusion et absorption

Quand une onde arrive d’un fluide sur une surface solide une partie peut être transférée à la surface, mais que devient le reste ?

1.5.1 La réflexion
Si la surface est dure, de grandes dimensions et plutôt plane l’onde sera réfléchie. Comme en optique, l’angle de réflexion est donné par l’angle d’incidence et la normale à la surface.

1.5.2 La diffusion
Si la surface est dure, de grandes dimensions et poreuse, l’onde est diffusée. La réflexion se fait dans toutes les directions d’espace à cause des irrégularités de la surface.
1.5.3 L’absorption
Si la surface est poreuse et souple sur une grande épaisseur, l’onde sera sans doute absorbée. L’onde pénètre dans les cavités à l’intérieur du matériau. L’énergie est dispersée dans le solide.
Selon le rapport de la longueur d’onde et de l’épaisseur de matériau, les fréquence aiguës seront plus atténuées que les graves.

1.5.4 Les ondes stationnaires
Entre deux parois parallèles, certaines ondes peuvent être exagérées si la distance qui sépare les parois est un multiple de la longueur d’onde. On parle alors d’onde stationnaires. Dans un lieu voué au son, on évitera la disposition des murs de façon trop rectangulaire pour éviter ces phénomènes.

1.5.5 La réverbération
La réverbération est due à la multiplication des signaux réfléchis et diffusés par les parois d’un lieu. Certaines composantes peuvent aussi être amorties par l’absorption donnant une coloration à la réverbération.
La réverbération se décompose essentiellement en "premières réflexions" et en "son diffus". Les premières réflexions sont les ondes réfléchis peu après l’émission du son qui reste assez distinct. Le champ diffus est dû aux multiples réflexions et à la diffusion. On considère en général qu’en dehors des parois le champ diffus est homogène dans le lieu.

La réverbération peut être quelque chose de recherché ou de gênant. On peut essayer de la modeler un peu avec des panneaux acoustiques réfléchissants, diffusants ou absorbants.

lundi 6 février 2012

alternative écologique à la résistances aux antibiotiques !!! La phagothérapie

Piqûre de rappel du problème ;


Il existe bien une solution contre la multi-résistance aux antibiotiques :

Les Phages.
video


À (Re)Voir : " virus contre bactéries " arte TV

Documentaire allemand réalisé par Stefanie Schmidt en 2009



Les bactériophages sont la seule alternative efficace et surtout relativement rapide pour faire face au problème : en bonne partie parce que cette technologie est préexistante. L’utilisation intensive des antibiotiques pour l’agro-alimentaire notamment, en complément d’une sur-prescription de ceux à large spectre (plusieurs classes en même temps au lieu d’un antibiotique ciblé) ont favorisés la résistance biologique.
À l'Institut Elavia (Tbilissi, Géorgie, Europe de L’Est), demeure le dernier bastion en activité de cette ancienne technologie, qui commença à être développée partout dans le monde avant l’apparition et la généralisation des antibiotiques. Abandonnée après, elle continua d’être utilisée par cet institut. C’est finalement la guerre froide et le défaut d’accès aux antibiotiques en Union Soviétique qui a permis pendant longtemps à cette technologie de survivre. Néanmoins, la réduction des moyens financiers a eue raison d’une partie de ce savoir. Fort heureusement, l’essentiel des collections de phages et des connaissances acquises ont perdurés.
Avec la recrudescence des maladies nosocomiales, ces connaissances sont en passe d’être cruciales pour sauver l’humanité devant les multi-résistances aux antibiotiques. Pour ceux qui auraient manqué l’information, un bref rappel…
Les phages sont des virus très particuliers spécifiques qui s’attaquent en prédateurs aux bactéries (et qu’aux bactéries), en disparaissant naturellement (du corps) une fois l’éradication complète de la souche infectieuse. Ils sont (fait exceptionnel)  sans danger pour l’être humain, car trop spécialisés pour pouvoir par mutation avoir la possibilité de s’attaquer aux êtres vivants (leur cible n’est en effet pas les cellules comme la plupart des virus, mais les bactéries car tout virus a besoins pour se reproduire d’un Adn hôte, et, dans ce cas l’ôte sera les bactéries et non les cellules, ce qui est très différent).
Utilisés surtout pour des traitements locaux et la désinfection des lieux opératoires et des plaies, ils constituent un moyen privilégié contre la lutte des résistances des bactéries en milieu hospitalier.
Malheureusement, la rigueur des protocoles Européens d’utilisation des médicaments constitue un obstacle au développement de cette technologie, en tout cas telle qu’elle est pratiquée en l’état en Géorgie.
La spécificité des phages est un atout en même temps qu’un problème pour leur utilisation, car cela nécessite une recherche au préalable pour extraire une souche exploitable. Ce n’est pas que dans la théorie il soit difficile d’en trouver : une bonne source d’eau croupie (égouts d’hôpitaux par exemple) suffit !.
Toutefois le processus d’extraction est lent et couteux sans méthode industrielle (ce qui avait été presque fait en Europe de l’Est, mais qui est toujours actuellement –hélas !- hors du champ des méthodes codées des protocoles dans la production pharmaceutique moderne).
Mais peut-être que cela va commencer à changer bientôt (d'après le reportage). A bruxelle, à l'hopital militaire, au centre des grands brûlés, on travaille déjà depuis plusieurs années sur les phages : mais c'est une exception en Europe, et en coopération avec l'Institut Elavia.
la Déclaration d'Helsinki http://www.wma.net/fr/30publications/10policies/b3/ prévoit qu'un traitement de dernier recours alternatif puisse être utilisé. C'est donc ce qui se pratique là-bas. Une initiative qu'on aimerait voir se développer...
D’autres problèmes pour les phages comme la résistance virale du corps humain qui peut développer des anticorps spécifiques viennent compliquer la chose. On peut aussi citer le fait qu’il existe deux classes de phages identifiés à Elavia : Les phages virulents qui répondent efficacement aux infections, et ceux plus modérés, qui ont la fâcheuse tendance à copier une partie du matériel Adn des bactéries, propageant ainsi involontairement les infections en même temps que les éradiquant. Ils sont bien moins efficaces et plus risqués (et qu'on évitera d'utiliser).
Toujours est-il que la spécificité des phages est à la fois un avantage pour la sécurité de leur usage et un inconvénient en regard du travail que demande leur utilisation. En plus le phage s’adapte tout seul aux résistances naturelles de leur ôte vivant : il suffit donc seulement de trouver la souche parade en théorie. Et Pour finir, vient le problème des brevets du vivant en la matièrequi en complique l’aspect de la rentabilité de l’exploitation en regard de la charge en recherches et développements.
Bref, une alternative, oui, mais hélas pas pour demain, alors que le manque de nouvelles classes d’antibiotiques devient une catastrophe sanitaire. Mais à Elavia on se contente d’agir en sautant les protocoles, utilisant les phages en appoint à la pharmacopée traditionnelle, alors qu'ailleurs, on continue de palabrer sur le problème...
Car dans ce "ailleurs", pendant ce temps-là on pratique des amputations, des enterrements... A quand un peu de raison quand il existe le moyen d'éviter tant de douleurs ?
Toujours en cause, en réalité, l’appât du gain de l’industrie pharmaceutique, qui, frileuse en investissements moins rentables, préfère ignorer les problèmes de santé causés par leur propre manque de recherche.
Cela dit, il existe bien d’autres alternatives dans les complexes issus du vivant en phytothérapie et compagnie, utilisant cette science naturelle. Nombre d’insectes, mammifères, plantes, (et autres), recèlent en eux des alternatives naturelles, qui n’attendent que leur exploitation, à condition de n’avoir pas exterminé les espèces avant même d'en découvrir l'utilité !.
C’est toujours les mêmes et éternels problèmes : le pillage de la planète, le souillage de l’environnement, l’appât du gain, qui font que finalement l’homme se met en danger, entraînant avec lui dans son délire toute la planète...



L'évocation des phages se multiplie de par le monde actuellement ...

Santé à la portée ( facebook )

Virus contre bactéries - Une solution à la crise des antibiotiques ?

Source: http://mega-dl.org/documentaire/documentairevf/16937-virus-contre-bactries-une-solution-la-crise-des-antibiotiques-tvrip-ul.html
COPYRIGHT WWW.MEGA-DL.ORG
Virus contre bactéries - Une solution à la crise des antibiotiques ?

Source: http://mega-dl.org/documentaire/documentairevf/16937-virus-contre-bactries-une-solution-la-crise-des-antibiotiques-tvrip-ul.html
COPYRIGHT WWW.MEGA-DL.ORG
Virus contre bactéries - Une solution à la crise des antibiotiques ?

Source: http://mega-dl.org/documentaire/documentairevf/16937-virus-contre-bactries-une-solution-la-crise-des-antibiotiques-tvrip-ul.html
COPYRIGHT WWW.MEGA-DL.ORG



remarques et interrogations diverses :
L’utilisation des phages en lutte biologique en agriculture, et en traitement thérapeutique, est effectivement une "vieille idée" ce qui ne veut surtout pas dire une mauvaise idée. 
La prédominance de ces virus de bactéries dans l’environnement marin où ils constituent la une des premières biomasses " vivantes" (ouh là, je lance ici un débat sur le fait de savoir si les virus et les phages relèvent du domaine du vivant ou non, et cela peut durer des heures entre scientifiques !) atteste de leur importance écologique.

Leur utilisation est en revanche délicate et pourrait trouver des limites d’utilisation. En effet, pour traiter des infections autres que celles localisées à la surface de la peau, comme peuvent l’être des brulures (d’où la possibilité d’emploi dans ce cas), il faut que ces phages passent la barrière intestinale pour se retrouver dans la circulation sanguine, ce qui à mon avis est peu probable. En effet, les protéines dont leur enveloppe est constituée devraient être détruites en (grande ?) partie lors du passage dans l’environnement acide de l’estomac. Et même si elles n’étaient qu’altérées, il se pourrait que le phage ne soit plus actif car elles sont indispensables à l’accrochage du phage sur la bactérie cible et toute modification les rendraient probablement inactives.
On pourrait bien sur envisager d’injecter les phages directement dans la circulation sanguine, voire de les faire respirer dans le cas d’une infection pulmonaire. Attention dans ce cas à d’éventuelles réactions immunitaires, voire allergiques, car ces protéines seront reconnues comme étrangères à l’organisme dans lequel elles seront injectées.
Ceci n’est qu’un aperçu des difficultés probables. On peut en résoudre une partie sans doute, mais il y a loin de la coupe aux lèvres.
Enfin, notez que les bactéries cibles peuvent facilement développer une immunité (une résistance si vous préférez) au phage lui même, rendant ainsi le traitement totalement inactif.

En effet, les virus ne sont finalement que des véhicules nanotechnologiques incapables de se reproduire seuls (des machines finalement), donc du débat en perspective... !!!
Ils peuvent en effet être rapidement éliminés par les défenses immunitaires. ce qui en place les limites. en revanche, j’ai vu un reportage récent sur les nanotechnologies où il était question de camouflage des véhicules nanos par une membrane hydrophile pour tromper les défenses de l’organisme... bref on va développer la parade dans le futur que le phage n’a pas ! (recherche pour le cancer).
Ensuite, le phage s’adapte tout seul dans la nature à ses bactéries en cible. problème : il faut régulièrement actualiser les collections. Certains phages sont plus génériques que d’autres en revanche, et évidemment c’est les plus intéressants (d’une durée utile plus importante comme une trithérapie il doivent en effet avoir plusieurs clés protéiques d’arrimage tel un passe ! c’est les plus recherchés !). Hélas, en général du temps et des moyens en contrepartie... surtout pour les plus spécifiques !.
Mais ils sont déjà utilisés dans les cas de résistances antibiotiques avec succès. c’est déjà ça. par contre, il ne faut pas attendre la septicémie...
Dommage que le reportage ne soit déjà plus en ligne sur arteTV ,il montrait des détails intéressants.  Résistances aux antibiotiques, il faudrait aussi pensé à arrête de manger des viandes d’élevages industriels. Car ce que fait d’un coté pour lutter reviens par nos assiettes. 
Related Posts Plugin for WordPress, Blogger...