Bio-sciences

Anniversary issue of the Bioremlab magazine, School of Biological Sciences, Universidad Autonoma de Coahuila, Torreon, Coahuila State, Mexico
View more...
   EMBED

Share

Preview only show first 6 pages with water mark for full document please download

Transcript

January 2011. Vol 2. No. 1. Diseño y edición: Montserrat Atilano y Alejandra Alvarado Vol 2. No. 1 January, 2011 4 6 8 10 12 14 16 18 20 Dye Decolorization (Montserrat Atilano) Biodiesel Production (A. Alvarado) Rumen (A. Alvarado) Polímeros… síntesis de poliuretanos basados en ácidos grasos modificados de aceite de algodón (Ilse Novoa) Celdas de combustible microbianas (Montserrat Atilano) Bioetanol a partir de residuos agrícolas (José de Jesus Morales) Biohidrógeno a partir de termitas: una alternativa de energía limpia (Obed Pérez) Estrés en ambiental en plantas (Nayeli Ortíz) La creación de un genoma sintético… es posible (A. Alvarado y A. Almeida) 22 Virus en plantas (Raziel Sosa) 24 Biofertilizantes (Alan Quezada) 26 29 31 La inmortalidad se alcanzó hace siglos (Aldo Almeida) Highligted (A. Alvarado) Rumbo a la COP 16… (Melisa Hermosillo) 37 Sobre humedales artificiales-estado del arte (Melisa Hermosillo) 40 Una célula a la vez (Sarahí L. García) 41 Biopolímeros a partir de microorganismos, ¿cómo? (Ilse Novoa) Editorial All the best En revista presentamos una selección del trabajo de un año de . Cada mes contamos con la colaboración de muchos de nuestros compañeros, a todos ellos, infinitas gracias por su ayuda. Y a partir de mayo contamos con algunos editores invitados, Melisa Hermosillo, Aldo Almeida y Nayeli Ortíz, igualmente muchísimas gracias por su tiempo. También un fuerte agradecimiento para la Escuela de Ciencias Biológicas, al MSC Sergio Vaquera y a su equipo por el apoyo e interés que siempre desmotraron en este proyecto. Espero encuentren este número tan interesante como yo. All the best !!! ésta Alejandra Alvarado y Montserrat Atilano 4 M. Atilano Con un gran número de industrias textiles en nuestra Comarca Lagunera, el día de hoy existe una gran contaminación de colorantes en el ambiente. Las técnicas que hay actualmente para la eliminación de colorantes en aguas residuales tienen serias restricciones, tales como altos costos, la formación de subproductos peligrosos y altos requerimientos energéticos. Es bien sabido que es posible utilizar hongos para degradar una amplia gama de compuestos aromáticos, incluyendo los colorantes. Por eso, en el laboratorio de Bioremediación de nuestra escuela se ha iniciado una investigación a este respecto. ncreased industrial development in the Comarca Lagunera has made possible the rise in the economy of our city. On the other hand the consequences of this development affects our ecosystem, which will have a huge impact on our welfare. Among the main problems created by industries are the high emissions of gases into the atmosphere, discharge of huge amounts of waste and wastewater on soil or in water, and others. Because of the large number of textile industries in the Comarca Lagunera there exists a higher concentration of dyes in the environment due to the discharge of their wastewater. These compounds are harmful to organisms that live in our environment because of their toxicity and carcinogenic nature. For this reason a research project has been commissioned to study the biodegradation of dyes by fungi n the Bioremediation Lab of our school. WHY FUNGI? Into the kingdom of fungi, basidiomycetes are the most effective degraders of lignin through a highly efficient enzymatic system[1]. Due to this capability it is possible to use these fungi to degrade a wide range of aromatic compounds, including dyes. White rot fungi are predominant in the biodegradation of lignin, because of their ability to produce different extracellular enzymes that are responsible for metabolization of these compounds. Their ability to degrade lignocellulose is associated with their mycelial growth habitat that allows the fungus to transport scarce nutrients such as nitrogen and iron that are available at a distance to metabolize lignocellulosic substrate as a carbon source[2]. Fungi have two types of extracellular enzymatic systems: the hydrolytic system, which produces hydrolases that are responsible for polysaccharide degradation; and a unique oxidative and extracellular ligninolytic system which degrades lignin and opens phenyl rings. The most widely studied white-rot organism is P. chrysosporium, which is one of the holobasidiomycetes. Trichoderma reesei and its mutants are the most studied ascomycete fungi, and is used for the commercial production of hemicellulases and cellulases[3,4,5]. Published on January, 2010 5 Lignin biodegradation by white-rot fungi is an oxidative process and phenol oxidases are the key enzymes[1,6]. Of these, lignin peroxidases (LiP), manganese peroxidases (MnP) and laccases from white-rot fungi (especially Botrytis cinerea, P. chrysosporium, Stropharia coronilla, P. ostreatus and Trametes versicolor) have been widely studied[7,8]. LiP and MnP oxidize the substrate by two consecutive one-electron oxidation steps with intermediate cation radical formation[9]. LiP degrades non-phenolic lignin units (up to 90% of the polymer), whereas MnP generates Mn3+, which acts as a diffusible oxidizer on phenolic or nonphenolic lignin units via lipid peroxidation reactions[10,11,12]. Laccase are blue copper oxidases that catalyze the oneelectron oxidation of phenolics and other electron-rich substrates[2]. AND…THE DYES? Synthetic dyes have increasingly been used in the textile and dyeing industries because of their ease and costeffectiveness in synthesis, firmness, high stability to light, temperature, detergent and microbial attack and variety in colour compared with natural dyes. This has resulted in the discharge of highly polluted effluents. Ligninolytic enzymes secreted by white-rot fungi bind non-specifically to the substrate; therefore, they can degrade a wide variety of recalcitrant compounds and even complex mixtures of pollutants including dyes. This ability has opened new prospects for the development of biotechnological processes and attracted increasing scientific attention on the use of white-rot fungi and/or their enzymes. Hence it is proposed to isolate efficient fungal strains and evaluate their ligninase activity and study their potential application in metabolism of aromatic dye compounds through its system of specialized, but nonspecific enzymes. The current existing techniques for the removal of dyes from dye containing wastewater have serious restrictions such as high cost, formation of hazardous by-products or intensive energy requirements [13]. Ligninases have potential application in decolorization, biopulping, biobleaching, etc. Similarly biological treatment of effluents from the textile, pulping and bleaching processes which contain highly colored and toxic aromatic compounds would reduce the release of large amounts of harmful chemicals into the environment. The potential of ligninase becomes more important with respect to dye decolorization. , 6 Biodiesel Production A. Alvarado Biodiesel, un combustible alternativo, es elaborado mediante recursos renovables, tales como aceites vegetales y grasas animales. Es biodegtradable, no tóxico, posee perfiles de bajas emisiones y es ambientalmente benéfico [1]. iodiesel production has been on an exponential growth curve over the past several years because of decrease in fossil fuel resources, increase in crude oil prices, and environmental concerns. Continued and increasing use of petroleum will intensify air pollution and magnify the global warming problems caused by CO2 and other gases[2, 3]. Biodiesel has the potential to reduce the level of pollutants and the level of potential or probable carcinogens in the environment [1]. Chemistry of Biodiesel Biodiesel consists of the monoalkyl esters formed by a reaction of the triglycerides in the oil or fat with a simple monohydric alcohol. The reactions have been known for more than a century[4, 5]. The reaction requires a catalyst, usually a strong base, such as sodium or potassium hydroxide, and produces new chemical compound called methyl esters. It is these esters that have come to be known as biodiesel [5]. Biodiesel is produced through a process known as transesterification, as shown in the equation, where R1, R2, and R3, are long hydrocarbon chains, called as fatty acid chains. Although the research did not anticipate the production of alkyl esters for fuel, most of the process for biodiesel production were developed in the early 1940‟s and are described in a series of patents by researches from E.I. du Pont and Colgate-Palmolive-Peet [6, 7]. The original objective of this work was to develop a simplified method for extracting glycerol during soap production because the glycerol was needed for production of explosives during world war[8]. There are only five chains that are most common in soybean oil and animal fats (others are present in small amounts) [5]. The development One hundred years ago, Rudolf Diesel tested vegetable oils as fuel for his engine [3]. With the advent of cheap petroleum, appropriate crude oil fractions were refined to serve as fuel and diesel fuels and diesel engines evolved together. In the 1930‟s and 1940‟s vegetable oils were used as diesel fuels from time to time, but only on emergency situations. But due to decrease in the availability of fossil fuels and the consequent increase in its cost, there has been a renewed focus on vegetable oils and animal fats for production of biodiesel [8]. The most advanced work with sunflower oil occurred in South Africa because of the oil embargo. Caterpillar, Brazil, in 1980 used engines with a mixture of 10% vegetable oil to maintain total power without any alterations or adjustments to the engine. Now we know that it is not practical to substitute 100% vegetable oil for diesel fuel, but a blend of 20% vegetable oil and 80% diesel fuel is successful, and some experiments used up to a 50/50 ratio [8]. Published on January, 2010 7 The first International Conference on Plant and Vegetable Oils as fuels was held in Fargo, North Dakota in August 1982. The primary concerns discussed were the cost of the fuel, the effects of vegetable oil fuels on engine performance, durability, fuel preparation, specifications and additives. Oil production, oilseed processing and extraction were also considered in this meeting [8]. The advantages of vegetable oils as diesel fuel are (1) liquid nature-portability, (2) high heat content (80% of diesel fuel), (3) ready availability and (4) renewability. The disadvantages are (1) higher viscosity, (2) lower volatility and (3) the reactivity of unsaturated hydrocarbon chains[9]. All these disadvantages cause engine malfunctions after prolonged use[8]. There are few studies to find a blend between different vegetable oils that can reduce the problems in the engine performance. But all these works has generally been considered to be not satisfactory and impractical for both direct and indirect diesel engines [8]. Cooking oil has been tested instead of vegetable oils or fats. Since it is necessary to use a high quality oil, and this is not possible always in this case. Studies are needed to find a cheaper way to utilize cooking oils to make biodiesel fuel. There are several choices, first removing free fatty acids from used cooking oil before transesterification, or using high pressure and temperature[8]. It is very important to consider that the cost biodiesel production. It is necessary to find the balance between the cost of the material (oils or fats) and the cost of the process. According to Krawczyk (1996) the cost of raw materials accounts for to 60 to 75% of the total cost of biodiesel fuel. The change to wastes oils is not the solution, because the cost of the process will be increased. For a lower production cost, the biodiesel industry has some choices, such as optimized production process technologies, allowing high production capacities, simplified operations, high yields, and the absence of special chemical requirements and waste streams. The Discussion Beginning 1980, there has been considerable discussion regarding use of vegetable oil as a fuel. The idea of using food for fuel[10] indicated that the petroleum should be the “alternative” fuel rather than vegetable oil and alcohol being the alternatives and some form of renewable energy must take the place of the nonrenewable resources [8]. In general there are many reasons that justify the development of biodiesel production technology. However, in countries like Mexico, where the economic dependence on petroleum is a very tricky condition, the situation must be approached carefully. The fact that the human population is growing up, and more land may be needed to produce food for human consumption should also be considered. From this point of view the total replacement of fossil fuels with biodiesel is not the answer. We should note that in Asia with the steep increase in population will increase the demand of vegetable oils and this might result in raise in the price of vegetable oils, a trend that will eventually happen in all the world[8]. It is essential that we seek to optimize the biodiesel production using different feedstocks, and also reutilize the by-products of the biodiesel production, and thereby increasing the adoption of this technology. There may be many options and things to do, but can not be applied directly in Mexico. We should watch, learn from others experience and develop our technology. Our country could make it a point to use fossil oils only as a supplemental resources, and bet on the development and use of biodiesel and other alternative renewable energy production technologies, as in Brazil. We should be aware that USA, the main buyer of our petroleum is advancing greatly in the use of biofuels, and crude oil reserves of our country are falling at an alarming level. 8 A. Alvarado Los rumiantes son mamíferos herbívoros con un órgano especial el cual les ayuda en la digestión de celulosa: el rumen. La naturaleza anóxica del rumen un importantísimo factor para su funcionalidad. En el fluido ruminal hay una gran cantidad de células, entre ellas de 1010 a 1011 bacteria/ml. Y debido al ambiente altamente reducido los microorganismos que predominan son en su mayoría anaerobios. uminants are mammalian herbivores that have a special organ inside which carries out the digestion of cellulose and other polysaccharides by microbial activity, because these animals lack the necessary enzymes to digest them [1]. Relatively, the rumen is really big, with a capacity of 100 to 150 liters in a cow or 6 liters in a sheep [1]. Its average temperature and the pH is 39°C and 6.5 respectively. However, it is be noted that such conditions may vary according to the feed. The anoxic nature of the rumen is a significant factor for its functioning [2]. The forage reaches the rumen, mixed with saliva (which contains sodium bicarbonate) is subjected to a rotary motion during which fermentation occurs. Initially rumen microorganisms adhere to cellulosic material of the forage and starts degrading it. The food remains in the rumen from 10 to 18 hours [1]. The rumen fluid has large amount of cells, including 1010 to 1011 bacteria/ml. Cellulolytic bacteria and fungi produce cellobiose and glucose, which are transformed into volatile fatty acids (VFAs), as acetic, propionic and butyric acid by anaerobic microbial action due to the low level and/ or absence of oxygen [3]. The VFA‟s produced can pass through the rumen wall and serve as an energy source for the animal. But part of the acetic acid and hydrogen produced are converted to methane by Methanogens. In addition, the microorganisms in the rumen are the source of protein and vitamins for ruminants [3]. Although it is easily said, all these processes are truly complex because they require the synergistic action of many microorganisms. Due to the highly reducing environment mainly facultative and anaerobic microorganisms predominate. Fibrobacter and Ruminococcus are the most abundant cellulolytic bacterias into the rumen, but also they can degrade xylan. Ruminobacter and Succinomonas are amilolitic, and Lachnospira digest pectins. The final products of the fermentation of these and other microbes are then used by others. The succinate is then converted to propionate and CO2, and lactate is fermented to acetate and other acids by Megasphera and Selenomonas [3]. Published on February, 2010 9 7 Finally the H2 produced is rapidly oxidized with CO2 to form methane by methanogens. The accumulated gases are expelled to the environment by the animal to the environment. The composition of this mix is approximately 65% carbon dioxide and 35% methane [2]. Apart from bacteria, rumen has roughly 106 protozoos/mL, and most of them are obligate anaerobes [1], and as predators of bacteria control the bacterial population in the rumen. In addition, there are some anaerobic fungi that can degrade cellulose, hemicelluloses and lignin partially. But all these factors and life forms inside the rumen have their own rules and chemical mechanisms, and even a little change in the stability can change all the microbial community. For example, with abruptly altered feeding from grass to grain the animal may be affected, precisely because of the changes in the microorganisms and their activity that would occur inside the rumen. For example with high grain feeding there would be an increase of starch hydrolyzing bacteria resulting in an abundant lactic acid and acidify the rumen. For now, we have learned only a little about this dynamic microscopic world. There are much to learn and understand this natural ecosystem. Until next time! [1] Carrillo, Leonor. 2003. Microbiología Agrícola. 1 ed, UNAS, v.5. 1-15 pp. [2] Schlegel HG, Zaborosch C. General Microbiology. 2° edición. Cambridge University Press, UK, 1993 [3] Madigan MT, Martinko JM, Parker J. Brock Biology of Microorganisms. 10° ed. Prentice Hall, Upper Saddle River, 2003 10 Published on March, 2010 11 12 Published on March, 2010 13 14 Published on April, 2010 15 16 Published on April, 2010 17 18 Published on May, 2010 19 20 Published on June, 2010 21 22 Published on July, 2010 23 24 Por Alan Quezada BIOFERTILIZANTES E l nitrógeno es uno de los elementos más importantes para la vida de todos los organismos. En nuestro planeta, se encuentra distribuido ampliamente en diferentes formas o compuestos, siendo el más abundante el nitrógeno en forma de gas diatómico que está presente en la atmósfera. A pesar de ser tan abundante (78% del aire atmosférico) muy pocos seres vivos son capaces de utilizarlo. Fritz Harber y Robert Le Rossignol desarrollaron un tratamiento al que llamaron proceso Harber-Ross, este permite fijar el nitrógeno atmosférico en amoniaco. Lograron una fuente inagotable para la producción de compuestos nitrogenados que pueden ser usados para producir fertilizantes. Esto, sin duda alguna, fue un gran avance para la agricultura ya que permitía más y mejor producción, pero como todas las cosas buenas tiene su costo; la cantidad de energía utilizada para este proceso equivale al 2% de la producción de energía mundial, los fertilizantes de este provocan eutrofización de ecosistemas acuáticos, que tienden a afectar las propiedades del suelo ya que no aportan una fuente de carbono al mismo y crean una dependencia del agricultor a estos productos, lo cual es un gasto considerable [1]. Nueva alternativa: Bacterias Fijadoras de Nitrógeno Una alternativa a la elaboración de fertilizantes artificiales es la fijación biológica de nitrógeno. La mayor parte del nitrógeno presente en los suelos y en los océanos proviene de la fijación natural de nitrógeno, esta es llevada a cabo por microorganismos a los que se les llama diazotrofos. Estos son capaces de realizar tal acción gracias al complejo enzima nitrogenasa [2]. Estos microorganismos no pueden realizar la fijación de nitrógeno si se tienen concentraciones altas del mismo en el suelo, además, altas concentraciones de oxígeno inhiben a la enzima [3]. Entre la gran variedad de diazotrofos , los más empleados en los estudios y en la elaboración de biofertilizantes son las llamadas Rhizobacterias Promotoras de Crecimiento en Plantas (PGPR siglas en inglés), estas como su nombre lo indica viven en la rizósfera de las plantas, ya sea libres como los géneros Azotobacer y Azosporillum, ó en simbiosis con la planta, como las del género Rhizobium, estas últimas viven en las raíces de las leguminosas dentro de nódulos [4,5]. Published on August, 2010 Vol. 1 No. 7 25 Un biofertilizante consiste en un material portador inoculado con PGPRs. El material portador puede ser un polvo o líquido elaborado a partir de turba, residuos agrícolas, carbón, aguas residuales, etc. La función de éstos es mantener un alto número de colonias formadoras de bacterias, protegerlas y llevarlas hasta el campo o a la raíz de la planta en donde realizaran su acción [6]. Existe una gran cantidad de estudios donde se prueba la habilidad de fijar nitrógeno de estas bacterias y comprobar el beneficio a la planta el uso de biofertilizantes microbianos. Se han empleado en muchos tipos de cultivos, como frijol, tomate, arroz, maíz y otros cereales. Actualmente se producen más de 2000 toneladas de biofertilizantes, la mitad de ellas en Estados Unidos [7]. En nuestro país, la UNAM ya comercializa biofertilizantes a base de Rhizobium y Azospirillum, estos fueron desarrollados en investigaciones con frijol y diferentes cereales, a cargo de Jesús Caballero Mellado, por las cuales fue premiado con la medalla “Emiliano Zapata”. Es muy importante difundir el conocimiento sobre los biofertilizantes en nuestro país, ya que son nuevas formas de aumentar la producción y mejorar la calidad de los suelos. Es muy importante difundir el conocimiento sobre los biofertilizantes en nuestro país, ya que son nuevas formas de aumentar la producción y mejorar la calidad de los suelos. Referencias. 1.- M.K. Rai. 2006. Handbook of microbial biofertilizers. The Haworth Press, Inc. 2.- Luiz Fernando W. Roesch , Flávio A. O. Camargo, Fátima M. Bento & Eric W. Triplett. 2008. Biodiversity of diazotrophic bacteria within the soil, root and stem of field-grown maize. Plant Soil 302:91–104 3.- Johanna Dobereiner*, J. M. Day, P. J. Dart. 1972. Nitrogenase Activity and Oxygen Sensitivity of the Paspalurnnotatum-Azotobacter paspa Ii Associa tion. Journal of General Microbiology, 71,103-116. 4.- Roseline Remans, Lara Ramaekers, Sarah Schelkens, German Hernandez, Aurelio Garcia, Jorge Luis Reyes, Nancy Mendez, Vidalina Toscano, Miguel Mulling, Lazaro Galvez, Jos Vanderleyden. 2008. Effect of Rhizobium–Azospirillum coinoculation on nitrogen fixation and yield of two contrasting Phaseolus vulgaris L. genotypes cultivated across different environments in Cuba. Plant Soil, 312:25–37. 5.- Elisete Pains Rodrigues, Luciana Santos Rodrigues, André Luiz Martinez de Oliveira, Vera Lucia Divan Baldani, Kátia Regina dos Santos Teixeira, Segundo Urquiaga,Veronica Massena Reis. 2008. Azospirillum amazonense inoculation: effects on growth, yield and N2 fixation of rice (Oryza sativa L.). Plant Soil 302:249–261. 6.- Marta Albareda*, Dulce N. Rodríguez-Navarro, María Camacho, Francisco J. Temprano. 2008. Alternatives to peat as a carrier for rhizobia inoculants: Solid and liquid formulations. Soil Biology & Biochemistry 40 (2008) 2771–2779. 7.- F. Ben Rebah, D. Prévost, A. Yezza, R.D. Tyagi. 2007. Agroindustrial waste materials and wastewater sludge for rhizobial inoculant production: A review. Bioresource Technology 98 (2007) 3535–3546. Vol. 1 No. 7 26 Por Aldo Almeida a inmortalidad se alcanzo hace siglos. La vida y la muerte son temas de alto impacto cultural en toda civilización humana conocida. La muerte es vista con respeto y temor principalmente por la incertidumbre de lo que le depara a la conciencia (objeto que se rehúsa a ser definido según John Searle) después de cruzar su velo. El temor a la muerte y el apego a la vida han hecho surgir investigaciones en áreas que buscan cómo aumentar la longevidad de un organismo. Agelessanimals es una organización que se compone de 12 universidades en los Estados Unidos y 2 centros de investigación en Europa, con esfuerzos enfocados en determinar los mecanismos biológicos y genéticos para extender su vida sin mostrar signos de senescencia. El limite Hayflick está relacionado con la senescencia. Según el experimento de Hayflick y Moorhead en 1961 las células solo pueden dividirse entre 40 a 60 veces, ya que cada mitosis acorta los telomeros del ADN llegando a un punto crítico donde los mismos ya no pueden estirarse más y la mitosis se detiene en todas las células provenientes de esa generación. Organismos que muestran senescencia negligente incluyen a las tortugas, ballenas, esturiones, pez roca y posiblemente langostas (Finch, 1990). En los estudios de estos animales la determinación correcta de la edad es de suma importancia, las técnicas varían desde el conteo de anillos anuales en el otolito o tambor del oído, degradación radioactiva en los huesos, o racemización de acido aspártico (Bagenal, 1974; Campana et al., 1990; George, 1999). La racemización (o Racemization) es el proceso en el que un enantiomero (levógiro o dextrógiro) de un compuesto cambia a su otro enantiomero. En un muestreo aleatorio realizado por Alaska Fish and Game en 1997, se mostró que el 16% de los peces en las mesas de personas tenían arriba de 50 años y varios eran mayores de 100 años. Pero la biología siempre tiene sus sorpresas. Una especie de medusa, Turritopsis nutricula, es el único metazoa conocido que después de llegar a un estado de madurez sexual puede transformarse de nuevo en un pólipo (el análogo del estado infantil para las medusas) sólo están presentes algunas diferencias, como los tipos de células de la epidermis en la sombrilla externa y parte del sistema gastrovascular (Piraino et al., 1996). Esta habilidad ayuda al mismo espécimen a escapar de la muerte por senescencia, aunque aún puede ser susceptible a enfermedad o depredación. Published on September, 2010 Vol. 1 No. 7 27 Sin embargo debido a nuestra falta de comprensión aquí surge otro problema. No tenemos manera de imaginarnos qué pasará con la conciencia de este organismo al revertir su madurez, inclusive no se puede determinar si éste organismo tiene conciencia puesto a que no tiene un sistema nervioso central, si no una red nerviosa. Cómo determinar entonces que la simple respuesta a estímulos baste para hacer la diferencia entre “vida” o “estar vivo”. Entonces entramos a un dilema: tratar de definir qué es vida y consecuente qué es muerte. Si leemos lo que se escribió de Sócrates sabremos que los griegos diferenciaban a lo vivo de lo inerte, al separarlos en objetos animados que contenían alma, algo que cuya definición no pudieron concretar pero que creían era el impulso que los hacía moverse desde dentro, y los objetos inanimados, los cuales no contenían alma pero podrían ser movidos por impulsos naturales o por aquellos objetos con alma. Pero esta definición probablemente no hubiera sido aceptada si en su tiempo hubieran existido los robots. Así pues, la actual definición de vida en el diccionario dice que es aquello que manifiesta las funciones de metabolismo, crecimiento, reproducción y respuesta a estimulo. Nahle (2004) muestra varias paradojas en esta definición, ya que estas funciones que hacen los seres vivos no deben tomarse en cuenta como definición de la vida. Vaneechoutte y Fani (2009) también sostienen esta idea y van un paso más allá, a definirlo como una condición, la de estar vivo (being alive). El argumento dice que si la reproducción diferenciara a lo inerte de lo vivo entonces los priones, cristales y coacervados de Oparin deberían considerarse como vivos, lo cual no se hace en la actualidad. Aquí también contribuye el límite de Hayflick, que nos indica que una célula no puede multiplicarse un infinito número de veces. Entonces se concluye que la reproducción es sólo un medio en el objetivo de seres vivos para dar continuidad a “otra característica” llamada vida. Finalmente, Nahle (2004) argumenta que es cierto que para que un sistema experimente vida debe poseer un arreglo molecular definido o también denominado por la termodinámica como ordenado. Aunque advierte que el mantenimiento de un estado ordenado no debe confundirse por el bloqueo de entropía como algunos biólogos y físicos lo han intentado definir. Todo sistema conocido en este mundo está sujeto a las leyes de la termodinámica y por ende nada puede bloquear la entropía. Como sabemos, la entropía se define como los microestados posibles de la energía de un sistema a una determinada temperatura. La energía libre de Gibbs, la cual determina si un proceso es espontaneo o no-espontaneo depende precisamente de la entropía, indicando que las cosas tienden a ir de un estado ordenado (donde sus moléculas guardan o concentran mucha energía cinética, es decir, que están algo inmóviles) hacia un estado “desordenado” (donde más moléculas se mueven, lo que significa que la energía está dispersada). En teoría los organismos vivos deberían dispersarse o disolverse, pero lo evitan con rodeos a la entropía. Un claro ejemplo es la replicación de ADN con nucleótidos tri fosfatos, ya que no se podría lograr con nucleótidos mono fosfatos. Nahle (2004) define esta demora en la difusión o dispersión de la energía interna como la vida, pero ningún organismo puede sostener ésta demora por siempre y cuando cesa tiene que dispersarse (finalmente te comen los gusanos y vuelves a formar parte la materia inerte). La única manera de detener este deterioro dar un nuevo ser, que carece de esta acumulada dispersión o entropía. Sorprendentemente un discípulo de Tales, un tal Anaximandro (un griego que nació en el año 610 a. C.) llegó a una idea semejante con su intuición. Él no estuvo de acuerdo con su maestro, quien decía que todo en el universo estaba unido y que el agua era la sustancia que componía a todo. Anaximandro discutía que agua no podía ser la sustancia básica, ya que no podría dar lugar al fuego, y declaró además que las cosas estaban compuestas del aperion (ese algo indivisible sin cualidades) y que las sustancias eran destruidas según el juicio del tiempo, y así se poco a poco se daba la “disolución” del universo de nuevo al aperion. Nietzche concuerda con la decisión de decir “destruidas”, pues pensaba que todo lo que existe impone su existencia sobre las otras cosas que “son” volviendo a todo lo existente algo criminal. Pero por el contrario, Heráclito aproximadamente un siglo después no compartía ésta visión, el hablaba de un mundo de conversión: todo aparece ya creciendo, se desarrolla y después se desintegra para abrir paso a lo siguiente. Esto no es de ninguna manera injusto ya que todo lo que brota sin fin de cualquier cosa es justicia y su estancia en la tierra no tiene que ser sujeta a una expiación por el tiempo. Según Heráclito todo fue, es y será Fuego (no elemental, podemos inferir que se refería a energía). Impresionante, ¿no es así? Dos milenios antes que Einstein ya se había pensado (por pura intuición) que el universo es finito en tamaño y materia pero infinito en tiempo. Sin embargo, pienso, y esto torna las cosas más complicadas, que incluso la idea de Nahle sobre ésta demora a la disipación de la energía interna se puede considerar como una cualidad necesaria para presenciar lo que definimos como vida. Vol. 1 No. 7 28 Vaneechoutte y Fani (2009) se encaminan a definir la vida por medio del consesus aceptado de que todos los organismos vivos son la extensión de un ancestro en común (LUCA) que surgió hace 3-3.5 mil millones de años. La Vida es entonces el organismo de 3.5 mil millones años de edad conformado por todas las células vivientes y virus correspondientes que son su extensión. Algo parecido a la Hipótesis de Gaia, publicada por primera vez en forma científica por James Hutton en 1785, y reforzada después por James Lovelock en 1965. Pero al aceptar esta definición persiste el problema de definir lo que es la muerte. En la antigüedad se solía considerar por muerto aquella persona que ya no daba signos de respirar o cuyo corazón ya no latía, lo cual causó conflicto cuando surgieron las técnicas de resucitación cardiopulmunar y se dejaron conocer anécdotas de gente siendo enterrada y después regresando a la vida. Actualmente la muerte se define como la terminación de todas las funciones biológicas que sostienen a los organismos vivos. La definición es clara, pero no vuelve más sencilla la declaración de si una persona está viva o muerta, porque al fin de cuentas no sabemos cómo definir vida, y el origen de la conciencia sigue siendo incomprendido. Actualmente se utiliza la medida de la actividad cerebral para determinar que si una persona está muerta. Aunque sabemos que hay casos donde la muerte cerebral puede ser temporal, como en los casos de coma, donde las demás funciones del ser viviente continúan. Incluso Miller (2009) reporta y discute la habilidad de pacientes con muerte cerebral de mantener la capacidad de gestar fetos. Así que para solucionar estos problemas, en Estados Unidos uno está legalmente muerto cuando deja de tener personalidad. En términos legales para tener personalidad es necesaria la actividad cerebral, por lo que desconectar a una persona en coma no se considera como un asesinato. Pero si consideramos Vida como el organismo de 3.5 mil millones de edad, entonces la muerte no surgirá hasta que el sol explote y desintegre toda molécula orgánica capaz de organizarse con radiación solar, tal como sucedió hace 3.5 mil millones de años. Referencias Bagenal T. B. (1974). A buoyant net designed to catch freshwater fish larvae quantitatively. Freshwater Biology, vol. 4, 107–109 Campana S. E., Zwanenburg K. C. T. and Smith J. N. (1990). 210Pb/ 226Ra Determination of logevity in Redfish. Can. J. Fish. Aquat. Sci., vol. 47, 163-165. Miller F.G. (2009). Death and organ donation: back to the future, Journal of Medical Ethics, vol. 35, 616-620 Finch, C. E. (1990) Longevity, Senescence, and the Genome. University of Chicago Press, Chicago. George J. C., Bada J., Zeh J., Scott L., Brown S. E., O'Hara T. and Suydam R. (1999). Age and growth estimates of bowhead whales (Balaena mysticetus) via aspartic acid racemization. Can. J. Zool., vol. 77, 571–580 Guerin, J. C. (2009). Emerging Area of Aging Research: Longlived Animals with "Negligible Senescence". http://www.agelessanimals.org/ May Keith M. (1993). Nietzche on the struggle between knowledge and wisdom. St. Martin's Press. Nahle, N. (2004). Definición de Vida. Obtenido el (29) de (Agosto) de (2009). De http://www.biocab.org/Definicion-deVida.html. Piraino S., Boero F., Aeschbach B. and Schmid V. (1996). Reversing the life cycle: Medusae transforming into polyps and cell transdifferentiation in Turritopsis nutricula (Cnidaria, Hydrozoa). Biology Bulletin, vol. 198, 302-312. Vaneechoutte M. and Fani R. (2009). From the primordial soup to the latest universal common ancestor. Research in Microbiology, vol. 160, 437-440 Vol. 2 No. 1 29 Por A. Alvarado Highlighted Chen, Y., Cheng, J.J. and Creamer, K.S. 2008. Inhibition of anaerobic digestion process: A review. Bioresour. Technol. 99, 4044-4064. One of the main aims of is spread research work of our School, In order to improve it. However, all of us know that for improve it is necessary to have the support and basis on the previous and recognized works, For that, now we want to share with you some of the notes we have to collect from our references. It is time to give you the basis. We hope this notes can help you, at least to realize that there are more crazy misfit people out there. For august is the turn of an excellent review (at any rate one of my favorites). Here are presented some of the causes that have been elucidated as inhibitory in the anaerobic digestion (AD) process. Chen and coworkers start clearly, they said in spite of the great benefits that this technology can bring to us, poor stability and not adaptation problems still appearing. We know (if not, you know now), AD it is not a “new” thing, but as everything, between more one study and applies, more it is discovered that nothing has been discovered yet. For example, in the case of inhibitors compounds it is well know that high ammonia concentrations reduce or even stop methane production (if I forget to say, methane it is “crudely” what we want to obtain at the very final of an AD process) if the quantities are closely or highest to 40515734 mg NH3-N L-1 (Lettinga, 1988). Before, something that it is important to remember is that if AD process would be a movie, the main characters will be the “methanogens”, microorganism who produce the methane. So, ammonia affect methanogens, but in this review are contrasted some previous research about of which kind of methanogens are more affected. Actually, Chen et al., are mentioned sensibility ammonia values corresponding to some methanogens strains, as Methanospirillum hungatei, Methanosarcina barkeri etc., etc.(Jarrell et. al., 1987). Going deeper Chen et al., present a variety of previous studies about factors that can controlling ammonia inhibition, and here they said, the wide range of ammonia concentrations reported as inhibitory depend of the different substrates used, inocula sources, even environmental conditions. If I had not said before, ammonia is beneficial in the AD, but like almost everything in life, not in excess. That‟s a reason of why AD is so exited, you can modified just one thing and you will have another puzzle, and who knows how many ways there are for solve the same puzzle? And continuing, we move to revise the effect of pH. There is a relationship between pH and ammonia concentration in a AD reactor, increase pH would result in high toxicity because of the shift of free ammonia in ionized ammonia (Borja et al., 1996). But, the most important (and impacting) thing here is that all references presented for Chen et al., are before 1993. So, concepts as “reduce pH of 7.5 to 7.0 in cow manure AD increase methane production in four times” were saying by Zeeman et al., in 1985! Or “methanogens types have their own optimal pH” was saying by Kroeker et al., in1979!! I mean, some of the information if you think about it, it is pretty “evident”, you can imagine easily. But, that is what knowledge is, about to increase what is already know, and incredibly we are realizing of this knowledge after 30 years. I think it is a good chance to thank the inventor of review articles, and in this case to Chen et al….. Forget it, acknowledges are always at the end. So the next stop is temperature. About this factor there are not a lot of discussions, however it is important to mention, AD can be carried out under thermophilic conditions without inhibition problems, and it is an very growing “sub-area” of this learning. But was remarkable in this review the interaction between ammonia and temperature. Since 80‟ was known that AD of wastes with high ammonia it is more easily inhibited and stable in a thermophilic range, in comparison whit similar works in mesophilic stage (Braun et al., 1981; Parkin and Miller, 1983). Interesting isn‟t? But wait, just in case you are a fan of complicated mazes with different solutions, here is the most exciting: the presence of other ions. Antagonism is a situation where different elements (microorganisms, people, countries, etc.etc., in these cases ions) have a opposite effect one over other. For example, did you know that ammonia and sodium showed mutual antagonism? Chen et al. explained, while 0.15 M ammonia reduce the methane production derived from the acetic acid by 20%, the only addition of 0.002 -0.05 M of Na+ produce 5% more methane than the control. And there are other previous reports presented about the interactions between Na+ and K+, or Na+ and Mg2+, which produce around 10% more methane yield compared to produced by Na+ alone when there are high concentrations of ammonia (superior to 30 g/l) (Krylova et al., 1997). If we go a little future in the review, Chen et al., explore the inhibition effects of different ions under an AD process. They are talking about Na, K, Mg, Ca and Al. With this light metals ions, while moderate concentrations stimulate microbial growth (I hope you have listened of Published on September, 2010 Vol. 2 No. 1 30 some trace elements and those), but excessive amounts slow down the growth, and even higher concentrations can cause sever inhibition (Soto et al., 1993). Again, results can vary. Was reported that an aluminum exposure in form of 1000 mg/l of Al(OH)3 after 59 days reduce methanogenic activity in more than 50%. In the case of calcium, there are many discrepancies, moreover again the highlighted was the potential in the study of ionic interactions. For magnesium, was highlighted that these ions at high concentrations have been shown to stimulate the production of single cells (Harris, 1987; Schmidt and Ahring, 1993; Xun et al., 1988), but the high sensitivity of single cells to lysis is an important factor in the loss of methanogenic-aceticalstic activity in anaerobic reactors. Now, the turn of potassium, at low concentrations (lees than 400 mg/l) the performance in anaerobic reactors improve at thermophilic and mesophilic ranges, while if the concentrations increase, the inhibitory effect is more clearly in thermophilic reactors. Incredibly, there are more. Thinking in antagonism effects, you realize, must ahvesynergic effects. One reason is because the osmoregulation process. For example, Ahring in 1991 presented an article about the interaction between Mg+ and Na+. And she said that sodium it is necessary for the inhibition by magnesium. But all depends of the concentrations, conditions and everything in the reactor. More pieces for the puzzle! And then, it is appropriate to bring to mind high school chemistry classes. We have also heavy metals (once again I‟ll trust in you know what I mean). Many heavy metals are part of the essential enzymes that drive numerous anaerobic reactions. Analysis of the methanogenic strains showed the following order of heavy metals compositions in the cell, Fe » Zn ≥ Ni > Co = Mo > Cu (Takashima and Speece, 1989). Even so, you know what, as we can accustom to the changes, of house, school, city, etc. The microorganism too. Only that in microbiology, AD or in science in general the word you‟ll see will be “acclimation” or “adaptation”. That‟s what Chen et al., also present, it has been proved amply that if the concentration of an inhibitory agent is increasing continuously, microorganism can adapt. Are not they like us? To reaffirm this, microorganisms, in particular methanogens have some not very desirable friends. For example, sulfatoreducing bacteria (SBR) are able to inhibit methanogens‟ activity. SRB can compete (and win) methanogens and other microbial groups involved in an AD process for the food this is available acetate, hydrogen, propionate or butyrate (McCartney and Oleszkiewcz, 1993; Colleran et al., 1995). Nevertheless, in some aspects microorganisms are more smart than us, if they get something that can protect them, they used it, without run away or something typical human reaction when competition or adversity come. Have been demonstrated in previous works that some materials can be used like support for immobilization of microorganism involved in AD. Isn‟t crazy? While we tend to run, they are “immobilized”…OK, I accept it was a very bad joke. But returning to the point some materials as zeolite, carbon, some plants between many others has been demonstrated that reduce the inhibition effect caused by different agents, ammonia, ions, sulfide, etc. Almost closed to the end, Chen et al., reviews previous results in the study of inhibition by organics, as long chain fatty acids, aromatics and halogenated aliphatics. But why? Why is important known about this, and look for more. Chen et al., didn‟t missed this point. Apart that about increase knowledge, there are an engineering significance. Here it is worth saying that in AD process can be used many types of systems, I mean, you can design a reactor with different conditions and parameters, depending of how you feeding and collect the residue (this could be a item for the next highlihteds). So, in AD it is used many residues as municipal, industrial, whether paper and pulp industry, food industry, textile or petrochemical refineries and evidently agricultural wastes. The different inhibitory effects are put into context in the treatment of each material by an AD process. For example in the case of agricultural waste Chen et al. mentioned that ammonia are of the most inhibitory agent reported. And in municipal waste, they discussed about the effect of some elements as carbon or nitrogen to come on with the inhibition that ammonia or an excess in organic materials can promote. The same are analyzed with food industry, which treatments are affect mainly by acid accumulation. For textile industries Chen et al., present an important question, because it is well know that wastewater from this activities include many ions, dyes and dyeing auxiliaries as polyacriyates. So several designs (like a process step-by-step) according to Chen et al. can be deviced as the solution. And finally, in the conclusion they leave many things just in a few sentences. In AD also, you can use codigestion, like a mix between all waste for try to seek the best performance, even if one of the mix components have a high inhibitory potential. In addition, there are opportunities in the studies for acclimatization, what are the effects in each microbial group involved? What we can do for avoid inhibition in each step?…you see? More and more pieces!! Comments or suggestions are pretty welcome at: [email protected] குவான் ஹ ா Vol. 2 No. 1 31 Por Melisa Hermosillo El próximo mes de diciembre se llevará a cabo en México la XVI Conferencia de las Partes (COP 16), la cual abordará el tema del Cambio Climático. Esta reunión es una de tantas reuniones sobre cambio climático que se han venido realizando a lo largo de casi tres décadas. Para lograr un mayor entendimiento de lo que pasará en la COP 16 a continuación se presenta un resumen de las principales cumbres, convenios y protocolos relacionados con el medio ambiente. La historia comienza en 1972 cuando se lleva a cabo en Estocolmo la Conferencia de Naciones Unidas sobre Medio Ambiente Humano y por primera vez la comunidad internacional reconoce la necesidad de comprender las causas naturales y artificiales de un posible cambio climático 1. En el mismo año, como fruto de esta Conferencia se crea el Programa de Naciones Unidas para el Medio Ambiente (PNUMA), quien actualmente juega un papel indispensable en la lucha contra el cambio climático 2. Durante los años posteriores surgieron una gran variedad de foros donde científicos de todas partes del mundo denunciaban que la generación de gases producidos por la quema de combustibles fósiles es la causa principal del cambio climático. Fue entonces, que en 1987 la Comisión Mundial de Medio Ambiente y Desarrollo publicó un informe titulado “Nuestro Futuro Común”, dicho informe planteaba la necesidad de iniciar negociaciones multilaterales en donde se abarcara el tema del cambio climático, además, el informe basado en un estudio de cuatro años, expuso por primera vez de manera formal el término ”desarrollo sostenible o sustentable”, lo que significa: "Garantizar las necesidades del presente sin comprometer las posibilidades de las generaciones futuras para satisfacer sus propias necesidades”. Este informe, años después mejor conocido como “Informe Brundtland” en honor a la doctora Gro Harlem Brundtland, sentó las bases de una serie de Conferencias y Convenios que tenían como propósito la lucha contra el Cambio Climático. Un año después de la publicación del Informe Brundtland, la Organización Mundial de Meteorología (OMM) y el PNUMA crearon un órgano encargado del medio ambiente llamado Panel Intergubernamental de Expertos sobre Cambio Climático, mejor conocido como IPCC por sus siglas en inglés. Dicho grupo está formado por una red mundial de aproximadamente 2,500 científicos y expertos que cumplen la función de una Agencia especializada y reconocida por la Organización de las Naciones Unidas (ONU). Published on October, 2010 Vol. 1 No. 10 32 La creación del IPCC fue debida a la necesidad de tener una valoración científica, objetiva, equilibrada e internacionalmente coordinada acerca de los temas relacionados con el origen de los gases de efecto invernadero y sus posibles consecuencias. La principal función del IPCC es analizar toda la información científica disponible sobre Cambio Climático, y publicar un informe objetivo que ofrezca una posición equilibrada entre los distintos puntos de vista y las políticas correspondientes. Convenio de Viena para la Protección de la Capa de Ozono Fue firmado por 28 países en marzo de 1985. Su principal cometido era alentar la investigación, la cooperación entre los países y el intercambio de información referente a las sustancias que dañan la capa de ozono. Aunque no conllevaba el compromiso de tomar medidas para reducir la producción o el consumo de CFC, el Convenio de Viena fue de suma importancia ya que logró que las naciones llegaran a un acuerdo de principio para hacer frente a un problema ambiental mundial antes de que se sintieran sus efectos o se demostrara científicamente su existencia, lo que probablemente constituye el primer ejemplo de aceptación del "principio de precaución" en una importante negociación internacional. Hasta el 2010, se han publicado cuatro informes, el Primer Informe de Evaluación fue publicado en 1990 y propició que los gobiernos tomaran la decisión de elaborar un convenio internacional, con lo cual se crea la Convención Marco sobre el Cambio Climático (CMCC). El segundo informe fue adoptado en 1995 y publicado en 1996, proporcionó los datos para la negociación del Protocolo de Kioto dentro de la CMCC. El tercer informe, publicado en el año 2001, aportó abundante información de carácter científico y técnico que ha sido de gran utilidad para diseñar políticas concretas sobre el cambio climático en el marco del Protocolo de Kioto, y el cuarto y último informe señala que el calentamiento global es un hecho calificado de inequívoco y atribuido a la acción del hombre con una certidumbre superior al 90%. En 1990 la Asamblea General de Naciones Unidas constituye un Comité Intergubernamental de Negociación (CIG), con el mandato de que prepare una convención general eficaz sobre cambio climático. Pasaron apenas dos años para que el Comité Intergubernamental cumpliera su mandato, y fue en Nueva York el 9 de mayo de 1992 que se adoptó la Convención Marco de las Naciones Unidas sobre el Cambio Climático (CMNUCC). Dicha Convención entra en vigor el 21 de marzo de 1994, y en 1997, los gobiernos acordaron incorporar una adición al tratado, conocida con el nombre de Protocolo de Kioto, que cuenta con medidas más enérgicas contra el cambio climático. El objetivo último de la Convención es estabilizar las concentraciones de gases de efecto invernadero en la atmósfera en un nivel que impida peligrosas injerencias humanas en el sistema climático. Diez años después de que entró en vigor la CMNUCC, se habían adherido a ella 188 Estados y la Comunidad Europea. Esta adhesión prácticamente mundial hace de la Convención uno de los acuerdos ambientales internacionales que goza de mayor apoyo internacional. Después de la Conferencia de Estocolmo de 1972 tuvieron que pasar 20 años para que se llevara a cabo la Conferencia de las Naciones Unidas sobre el Medio Ambiente y Desarrollo (CNUMAD), también conocida como la "Conferencia de Río" o la "Cumbre de la Tierra", la cual se desarrolló en Río de Janeiro del 3 al 14 de junio de 1992. Dicha Conferencia tenía como objetivo elaborar estrategias y medidas para detener o invertir los efectos de la degradación del medio ambiente. Gracias a esta conferencia se logró la elaboración de los siguientes documentos: Agenda ó Programa 21: este es un plan de acción que tiene como finalidad metas ambientales y de desarrollo en el siglo XXI. Declaración de Río sobre medio ambiente y desarrollo: se definen los derechos y deberes de los Estados. Declaración de principios sobre los bosques. Convenio Marco sobre Cambio Climático (CMCC, ó por sus siglas en inglés UNFCCC). Y por último el convenio sobre biodiversidad. Vol. 1 No. 10 33 En 1997, la Asamblea General convocó un período extraordinario de sesiones en Río de Janeiro, Brasil (también conocido como "Cumbre para la Tierra + 5"), para examinar y evaluar la ejecución del Programa 21. Posteriormente, en diciembre del 2000, durante un período de sesiones, la Asamblea General convocó a la Cumbre Mundial sobre el Desarrollo Sostenible (también conocida como "Río + 10"), un examen decenal del progreso alcanzado en la ejecución del Programa 21 desde 1992. La Cumbre Mundial se realizó en Johannesburgo del 26 de agosto al 4 de septiembre de 2002 y su informe incluye una Declaración política y un Plan de aplicación, en el cual los Estados Miembros se comprometieron a "llevar a cabo actividades concretas y a adoptar medidas en todos los niveles para intensificar la cooperación internacional”. La CMCC divide a los países en tres grupos principales, de acuerdo con sus diferentes compromisos: Las Partes incluidas en el anexo I son los países industrializados que eran miembros de la Organización de Cooperación y Desarrollo Económicos (OCDE) en 1992, más los países con economías en transición (PET), en particular, la Federación de Rusia, los Estados Bálticos y varios Estados de Europa central y oriental. Las Partes incluidas en el anexo II son los países miembros de la OCDE incluidos en anexo I, pero no los PET, estas Partes deben ofrecer recursos financieros para permitir a los países en desarrollo emprender actividades de reducción de las emisiones de conformidad con lo dispuesto en la Convención y ayudarles a adaptarse a los efectos negativos del cambio climático. Las Partes no incluidas en el anexo I son en su mayoría países en desarrollo. Todas las Partes en la Convención están sujetas a los compromisos generales de responder al cambio climático. Han acordado compilar un inventario de las emisiones de gases de efecto invernadero y presentar informes sobre las medidas que están adoptando para aplicar la Convención. A continuación se presenta la lista de las 15 Conferencias de las Partes sobre Cambio Climático que se han realizado desde 1995 hasta el 2009. COP 1. Berlín,1995 COP 2. Ginebra, 1996 COP 3. Kioto, 1997 - Protocolo de Kioto COP 4. Buenos Aires, 1998 COP 5. Bonn, 1999 COP 6. La Haya, 2000 COP 7. Marrakech, 2001 COP 8. Nueva Delhi, 2002 COP 9. Milán, 2003 COP 10. Buenos Aires, 2004 COP 11. Montreal, 2005 COP 12. Nairobi, 2006 COP 13. Balí, 2007 COP 14. Poznań, 2008 COP 15. Copenhague, 2009 El máximo órgano responsable de la toma de decisiones de la CMCC es su Conferencia de las Partes (COP), la cual fue establecida en virtud del artículo 7 de la CMCC. Es una asociación de todos los países que son Partes en la Convención, los cuales se reúne anualmente para examinar la ejecución de la Convención, adoptar decisiones para el desarrollo de las normas de ésta y negociar nuevos compromisos sustantivos. Las decisiones adoptadas por la COP en sus respectivos períodos de sesiones constituyen ahora un conjunto detallado de normas para la aplicación práctica y eficaz de la Convención. La COP también es conocida como la “Conferencia o Cumbre sobre Cambio Climático”. Vol. 1 No. 10 34 La XV Conferencia Internacional sobre el Cambio Climático se celebró en Copenhague, Dinamarca, del 7 al 18 de diciembre de 2009, la también denominada COP 15 fue organizada por la Convención Marco de las Naciones Unidas sobre el Cambio Climático (CMNUCC). La meta era preparar futuros objetivos para reemplazar los del Protocolo de Kioto, que termina en el 2012, y concluir un acuerdo jurídicamente vinculante sobre el clima, válido en todo el mundo, que se aplicará a partir del 2012. Existía una gran ambición y expectativa de avances en la COP 15, hasta el momento ha sido la Conferencia con mayor número de participantes entre delegados de los 192 países miembros de la CMNUCC, expertos en clima, representantes de organizaciones no gubernamentales (ONG) y prensa. Desde las reuniones previas a la COP 15 se presentaron dificultades en las mesas de negociación y finalmente, durante el desarrollo de la Conferencia, se pudo avanzar muy poco. Realmente no se pudieron alcanzar las ambiciones planteadas, por lo que muchos consideraron la COP 15 como un rotundo fracaso, sin embargo, antes de dar por terminada la reunión, el grupo formado por EUA, China, Brasil y Sudáfrica llegaron a un acuerdo de última hora al cual se le asociaron una importante cantidad de países mientras que otra minoría lo denunciaron como un acuerdo antidemocrático y contrario al proceso de negociación. Se le denominó Acuerdo de Copenhague, y algunos de los países que lo rechazaron fueron Venezuela, Cuba, Bolivia y Nicaragua, por esa razón, el pacto alcanzado no es oficial pues la Convención de Cambio Climático funciona por consenso y la oposición de un solo país impide la adopción del acuerdo. Sin embargo, aunque el Acuerdo no tiene validez oficial, actualmente existen aproximadamente 130 países comprometidos. El acuerdo mantiene el objetivo de que la temperatura global no suba más de 2°C. Sobre cuándo las emisiones deberán alcanzar su máximo solo se dice que "lo antes posible" y no se establecen objetivos para 2050. Tampoco se ha incluido la recomendación del IPCC de que las emisiones de los países desarrollados deberían reducirse para 2020 entre un 25% y un 40% sobre el nivel que tenían en 1990. Protocolo de Kioto Cumbre de Copenhague 1995 En la Cumbre sobre Desarrollo Social, celebrada en Marzo de 1995 en Copenhague, los gobiernos alcanzaron un nuevo consenso sobre la necesidad de asignar a las personas el papel principal dentro del desarrollo. Allí expresaron la voluntad de considerar la erradicación de la pobreza, el objetivo del pleno empleo y el fomento de la integración social como las metas más importantes del desarrollo. Cinco años después, se reunieron de nuevo en Ginebra en junio del 2000 para evaluar lo que se había conseguido y se comprometieron a adoptar nuevas Iniciativas. En 1997, durante la COP 3 se aprobó el Protocolo de Kioto (PK), por el cual las partes que son países desarrollados se comprometen a reducir sus emisiones globales de gases de efecto invernadero, por lo menos en un promedio 5.2% respecto al año 1990, para el periodo del 2008 al 2012. En este protocolo se establecieron tres mecanismos por medio de los cuales los países pueden cumplir con sus compromisos a menor costo. Los tres mecanismos son: Comercio Internacional de Emisiones (CIE), Implementación Conjunta (IC) y El Mecanismo de Desarrollo Limpio (MDL). El PK entró en vigor el 16 de febrero de 2005, al haber alcanzado la cantidad mínima establecida de 55% de las emisiones de 1990, luego de que la Federación Rusa, país que representaba el 17,4% de las emisiones, lo ratificara el 3 de noviembre del 2004. Vol. 1 No. 10 35 Es el único país en vías de desarrollo que ha presentado 4 inventarios de Gases de Efecto Invernadero (GEI). La Primera Comunicación presentada ante la CMNUCC en 1997, incluyó el primer inventario de emisiones de gases efecto invernadero para México (1990); la Segunda Comunicación Nacional dada a conocer en 2001, incluyó la actualización del inventario de emisiones para el período 1994-1998. La Tercera Comunicación presentó la actualización de dicho inventario al 2002 y se volvieron a calcular las cifras desde 1990. En el 2009 se presentó la Cuarta Comunicación que reporta los avances del país en materia de cambio climático, a partir de la publicación de la Tercera Comunicación en 2007.  Nuestra posición geográfica, la configuración de nuestro territorio y la situación socioeconómica nos sitúan como un país altamente vulnerable a los impactos del cambio climático.  México contribuye con aproximadamente 1.6% de las emisiones totales mundiales de gases de efecto invernadero.  Se ubica en la posición número 12, entre los países con mayores emisiones. México presentó el Plan Nacional de Desarrollo (2007-2012) que contempló, por primera vez, líneas de acción en materia de mitigación y adaptación al cambio climático. De igual forma, el Programa Sectorial de Medio Ambiente y Recursos Naturales dio lugar a la subsecuente elaboración de la Estrategia Nacional de Cambio Climático. Estos esfuerzos culminaron el presente año con la publicación del Programa Especial de Cambio Climático (PECC) 2009-2012, el cual establece compromisos unilaterales de reducción de emisiones para el corto plazo. El cumplimiento del PECC a finales de la presente administración se traducirá en una reducción anual de 50 millones de toneladas de CO2 eq en 2012, utilizando recursos económicos nacionales. En una visión de largo plazo, el PECC aspira como meta reducir 50% de sus emisiones de GEI para el año 2050, en relación con el año 2000. Lo anterior, condicionado a que existan suficientes estímulos y apoyos internacionales. Gasificación de carbón para la generación de energía eléctrica (gas natural). Ahorro y uso eficiente de energía. Impulso de las fuentes alternas de energía Luchas contra la deforestación Manejo de residuos Adaptación (Agricultura, salud, etc.) Vol. 1 No. 10 36 La XVI Conferencia de las Partes (COP 16) se realizará del 29 de noviembre al 10 de diciembre en Cancún, Quintana Roo, México, sin embargo se han realizado varias reuniones previas a la COP 16. Las negociaciones formales terminaron con la reunión de los Grupos Especiales de Negociaciones en Tianjin, China con algunos avances en adaptación, tecnología y financiamiento, mientras que la mitigación de emisiones no supera los desacuerdos. La negativa de algunos países en participar en los acuerdos apunta a que no se llegará a un acuerdo global jurídico, pero es posible un acuerdo sustantivo llamado “paquete equilibrado” Se pretende ampliar la participación oficial de diversos sectores: gobiernos locales y estatales, sociedad civil, sector privado, academia y poder legislativo. Aunque no hay muchas esperanzas de éxito en la COP 16 debido a los fracasos de la COP 15, México tiene como objetivo durante la COP 16 alcanzar un resultado acordado multilateralmente, políticamente balanceado, que supere las divisiones actuales, y permita avanzar en el combate de los efectos del cambio climático con participación amplia y equitativa. Bibliografía Selecta 1. 2. 3. 4. 5. 6. IPCC. 1996. Tecnologías, Políticas y Medidas para Mitigar el Cambio Climático. Documento técnico I del IPCC. (ISBN 92-9169300-6) PNUMA. 2001. Convenio de Viena para la protección de la capa de ozono. (ISBN 92-807-2127-5) Rubio, J. 2005. Las negociaciones internacionales sobre cambio climático. Información Comercial Española ICE. Nº 822. PNUMA. 2006. Manual del Protocolo de Montreal relativo a las sustancias que agotan la Capa de Ozono. Séptima Edición. (ISBN 978-92-807-2770-8) Convención Marco de las Naciones Unidas sobre el Cambio Climático (UNFUCC). 2007. Unidos por el Clima - Guía de la Convención sobre el Cambio Climático y el Protocolo de Kyoto. (ISBN 92-9219-046-6) IPCC. 2007. Cambio climático 2007: Informe de síntesis. Contribución de los Grupos de trabajo I, II y III al Cuarto Informe de evaluación del Grupo Intergubernamental de Expertos sobre el Cambio Climático. Ginebra: IPCC, 104 págs. (ISBN 92-9169322-7) SEMARNAT. 2009. México Cuarta Comunicación Nacional ante la Convención Marco de las Naciones Unidas Sobre el Cambio Climático. (ISBN 978-607-7908-00-5) http://www.unep.org/Documents.Multilingual/default.asp?documentid=97&l=en http://unep.org/ozone/spanish/treaties_and_ratification/2a_vienna_convention.asp http://www.un.org/spanish/esa/socdev/ http://www.un.org/depts/dhl/spanish/resguids/specenvsp.htm http://www.un.org/spanish/conferences/cumbre&5.htm http://unfccc.int/essential_background/kyoto_protocol/items/3145.php http://unfccc.int/kyoto_mechanisms/items/1673.php http://www.undp.org.mx/spip.php?page=publicacion&id_article=222 http://www.cinu.org.mx/temas/desarrollo/dessocial/cumbre/copenhage.htm http://www.cbd.int/doc/legal/cartagena-protocol-es.pdf http://www.fao.org/sard/es/sard/2070/2071/index.html 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. Vol. 1 No. 10 8 37 Sobre humedales artificiales-estado del arte. Melisa Hermosillo*, Ma. del Socorro Linaje, Celso Valencia, Laura Hernández, Nagamani Balagurusamy na de las tecnologías amigables con el medio ambiente para el tratamiento y reutilización de aguas residuales más exitosa en las últimas décadas, es el uso de humedales artificiales (HA). Esta tecnología permite obtener agua con mayor calidad a la salida del sistema, su funcionamiento es similar a los humedales naturales donde se combinan procesos físicos, químicos y biológicos, dentro de los cuales interactúan cuatro elementos importantes: agua, suelo, plantas macrófitas y microorganismos. También se les conoce como “Humedales Construidos” (Constructed Wetlands) (Crites et. al., 2000). Además de los altos porcentajes de remoción de contaminantes, algunas otras ventajas de estos sistemas son los bajos costos de instalación, mantenimiento y operación, sin embargo, en los últimos años se ha despertado la inquietud de que los humedales artificiales tienen como gran desventaja la emisión de Gases de Efecto Invernadero (GEI). Los humedales artificiales se clasifican, de acuerdo a la circulación del agua, en superficiales y subsuperficiales, dentro de esta clasificación son más utilizados los de tipo subsuperficial ya que los humedales superficiales suelen evitarse porque propician la aparición de insectos y la generación de malos olores. A) C) B) Figura 2. A)Junco (Scirpus spp.), B) Carrizos (Phragmites spp.) y C) Espadaña (Typha spp.) El primer estudio con humedales artificiales se realizó en Alemania en el Instituto Max Planck, donde se evaluaron diversas plantas acuáticas para determinar su habilidaden la absorción y descomposición de contaminantes químicos. Esta primera investigación a cargo de Kathe Seidel se publicó en 1953, y aquí se probó que la planta Scirpus lacustris, un tipo de espadaña, posee la habilidad de remover fenoles, bacterias patogénicas y otros contaminantes de las aguas. Además se mencionó que las plantas que crecieron en estos humedales exhibieron una sorprendente variedad fisiológica y cambios morforlógicos que ayudaron a su funcionamiento en el tratamiento del agua. Figura 1. A) Humedal de flujo superficial, B) Humedal de flujo subsuperficial. Published on November, 2010 9 38 A su vez los humedales subsuperficiales se dividen en flujo horizontal y flujo vertical, sin embargo, actualmente ha crecido el interés en desarrollar sistemas híbridos que combinen los beneficios de los dos tipos de flujo, obteniendo de esta forma mayores porcentajes en la remoción de todos los contaminantes. La vegetación emergente más comúnmente utilizada incluye las espadañas y aneas (Typha spp.), los juncos (Scirpus spp.) y los carrizos (Phragmites spp.) (Figura 2) (EPA, 1993). Sin embargo, muchos de los sistemas de menor tamaño usan con gran éxito plantas decorativas o nativas de la región de estudio tolerantes a la humedad (Durán de Bazúa, 2004). El primer experimento a gran escala reportado fue de Robert Kadlec, el director y propietaro de la compañía Wetland Management Service con cerca de 35 años de experiencia que se dedica a la consultoría de ingeniería ambiental en la construcción de hábitats artificiales. Él es una autoridad en el área de la construcción de humedales. En 1973 desarrolló un experimento a gran escala de tratamiento de aguas junto con el Instituto de Investigación del Agua de la Universidad de Michigan. En total eran tres pantanos que corrían por dos lagos, eran más de 700 km2 (Bahr, 1974). A) B) Figura 3. A) Humedal Artificial Centro Ecológico Akumal, B) Humedal Artificial Puerto Morelos TABLA 1. Tipos de humedales artificiales y porcentaje de remoción de los principales contaminantes. TIPO DE HUMEDAL TIPO DE VEGETACION % DBO % DQO % SST % NH4-N % N-T % P-T TRH REFERENCIA VS Phalaris arundinacea --- 30 66 --- 24 49 Schulz, C., Gelbrecht, J. y Rennert, B. 2004. Constructed wetlands with 5.5 hr free water surface for treatment of aquaculture effluents. J. Appl. Ichthyol. Vol. 20, 64-70. Vymazal, J. 2005. Horizontal subsurface flow and hybrid constructed wetlands systems for wastewater treatment. Ecological Engineering 25 478-490. HSS Iris pseudacorus, Irish sibirica 97 97 99 --- 35 38 --- H-SS H-SS Zantedeschia aethiopica Strelitzia reginae, Anthurium andreanum, Agapanthus africanus Zantedeschia aethiopica Strelitzia reginae, Anthurium andreanum, Agapanthus africanus Phragmites australis Phragmites australis 76 80 76 77 79 85 49 46 54 52 45 36 4 Días --Zurita, F., De Anda, J. y Belmont, M.A. 2009. Treatment of domestic wastewater and production of commercial flowers in vertical and horizontal subsurface flow constructed wetlands. Ecological Engineering 35:861-869. V-SS 80 77 53 72 48 50 --- V-SS V-SS V-SS 83 83 70 72 51 51 --2.2 Vymazal, J. y Kröpfelová, L. A threeDías stage experimental constructed wetland for treatment of domestic --- sewage: First 2 years of operation. Ecol. Eng. (2010), doi:10.1016/j.ecoleng.2010.03.004 8 Días 95 84 ---- 78 --- 65 H-SS Phalaris arundinacea H-SS=Humedal Horizontal Sub-superficial; VS=Humedal Vertical Superficial; V-SS=Humedal Vertical Sub-superficial; H=Humedal Horizontal; V=Humedal Vertical; SS=Sub-superficial; DBO=Demanda Bioquímica de Oxígeno; DQO=Demanda Química de Oxígeno, SST=Sólidos Suspendidos Totales; NH4-N=Nitrógeno Amoniacal; N-T=Nitrógeno Total; P-T=Fósforo Total; TRH=Tiempo de Residencia Hidráulica 10 39 La efectividad de los humedales artificiales ha sido demostrada a lo largo de varios años por investigadores de distintos países (Tabla 1) (IWA, 2006). Sin embargo, esta tecnología no ha sido realmente aprovechada en México (Figura 3). Dentro de la gran variedad de procesos para el tratamiento de aguas residuales, el uso de humedales artificiales únicamente aporta el 0.56% de L/s de caudal tratado a nivel nacional (CONAGUA, 2010), siendo éste, en comparación con otros sistemas de tratamiento, mucho más económico y amigable con el medio ambiente. Actualmente en el Estado de Coahuila, más del 50% de las aguas residuales se descargan a cuerpos de agua sin ningún tratamiento (CONAGUA, 2010), por lo que, además de provocar contaminación en agua y suelo, no se está haciendo un uso sustentable del agua. La primera serie de conferencias sobre el tema se desarrolló en 1975 en la Universidad de Pennsylvania. Las memorias del evento publicadas por esta universidad bajo el título Biological Control of Water Pollution constituyen el primer volumen de referencias serio sobre el tema de los humedales. De 1976 a 1978 destacan los trabajos de investigación de los profesores W.E. Sloey, C.W. Fetter y F.L. Spangler de la Universidad de WisconsinOshkosh. En sus trabajos se establecieron las consideraciones principales de los diseños a escala piloto de los pantanos artificiales. La eficiencia de los HA ha sido demostrada a lo largo de varios años, en México a pesar de que esta tecnología no ha tenido mucho auge, se han realizado diversos estudios principalmente en el centro y sur del país, sin embargo no existe suficiente información relacionada con las emisiones de GEI a partir de estos sistemas, por lo que actualmente estamos realizando un estudio para determinar si las emisiones de GEI son significativas utilizando plantas nativas de la Región Lagunera. Entre las preguntas frecuentes sobre la construcción de humedales artificiales la más mencionada es sobre las ventajas de estos sistemas en climas fríos. Algunos de los mejores datos se desprenden del estudio en 1979 en Ontario, Canadá. Un humedal que se monitoreo de 1980 a 1984, el cual consistía en cinco sistemas de pantanos separados. Se varío el tamaño de humedal, la configuración, la profundidad, las cargas y los tiempos de retención del agua a tratar. Además de que se estudiaron diferentes tipos de efluentes. El hielo típicamente formado en invierno se extendió sobre los humedales y hasta cuatro pulgadas de fondo, el agua seguía fluyendo debajo, sólo que se aumentaron los tiempos de retención. La espadaña fue la única especie acuática que se descubrió que no se inactiva durante el invierno. Coméntanos: [email protected] BIBLIOGRAFIA •1 Zhang, L., Wang, M-H., Hu, J., y Ho, Y-S. 2010. A review of published wetland research, 1991-2008: Ecological engineering and ecosystem restoration. Ecological Engineering 36:973-980. •2 Albuquerque, A., Oliveira, J., Semitela, S. y Amaral, L. 2010. Evaluation of the effectiveness of horizontal subsurface flow constructed wetlands for different media. Journal of Environmental Sciences 22(6):820-825•3 Kadlec, R.H. 2009. Comparison of free water and horizontal subsurface treatment wetlands. Ecological Engineering 35:159-174. •Vymazal, J. y Kröpfelová, L. A three-stage experimental constructed wetland for treatment of domestic sewage: First 2 years of operation. Ecol. Eng. (2010), doi:10.1016/j.ecoleng.2010.03.004 40 Por Sarahí L. García l mundo se ve afectado constantemente por el metabolismo de los seres vivos que lo habitan. Dentro de todos esos seres vivos, la diversidad microbiana es de suma importancia para mantener el equilibrio tanto del ambiente, como de nuestro propio organismo. Por este motivo, durante varios siglos se han ido desarrollando diferentes técnicas para estudiar y entender la diversidad microbiana que nos rodea. La historia moderna de la microbiología empieza en el siglo XVII, cuando Leeuwnhoek observó bacterias por primera vez usando un microscopio que él mismo fabricó. De ahí la microbiología fue avanzando lentamente, enfocándose primero en los microorganismos con relevancia médica y poco a poco abriendo el espectro hasta llegar a abarcar temas de importancia biogeoquímica. Por muchos años, los científicos se preocuparon por cultivar microorganismos y estudiarlos particularmente. Luego, en la década de los 90s la literatura científica se vio inundada con un término nuevo, “omics”. Así se reveló la enorme diversidad microbiana anteriormente desconocida, microbios que no habían sido aislados y que predominaban todo a nuestro alrededor, el océano, la tierra, el cuerpo humano y otros hábitats. Pronto el interés en cultivar lo incultivable creció, y de ésta manera nuevas técnicas han tenido que desarrollarse para complementar los estudios basados en cultivos y en metagenomas. En el 2009 Tanja Woyke junto con un grupo de investigación pluricultural, publicaron un artículo en la revista PLOS ONE, en el que reportan haber obtenido el genoma de dos células diferentes sin haberlas cultivado. La técnica consiste en separar las células usando un citometro de flujo, amplificar el genoma usando una técnica llamada MDA (siglas en inglés) y pirosecuenciacion. Estas técnicas en conjunto les permitieron recuperar 91% y 78% del genoma de estas células respectivamente. Al analizar los genomas, pudieron luego deducir adaptaciones metabólicas y localización geográfica en el mar de estos taxones. Los autores también especularon sobre las posibles causas que hacen que estas bacterias tengan ventajas sobre otras para dominar ciertas regiones marítimas y que a la vez dificultan su aislamiento. Una vez más se demostró que el trabajo en equipo y la dedicación llevan a otro grupo de investigadores a descubrir lo que hace algunos años parecía inexistente. El mundo de la microbiología aún guarda muchos misterios que nos falta descubrir. Muchas técnicas más tendrán que ser inventadas, pero el artículo de Tanya Woyke nos recuerda que si algún día descubriremos y clasificaremos todas las bacterias existentes lo lograremos una célula a la vez. Bibliografía consultada: •Woyke T., Xie G., Copeland A., Gonzalez J., Han C., Kiss H., Saw J., Senin P., Yang C., Chatterji S., Eisen J., Sieracki M., Stepanauskas R. 2009. Assembling the Marine Metagenome, One Cell at a Time. PLOS one, 4. •Falkowski P., Fenchel T., Delong E. 2008. The microbial engines that drive earth's biogeochemical cycles. Science, 320: 10341039. •Turnbaugh P., Ley R., Hamady M., FraserLiggett C., Knight R., Gordon J. 2007. The human microbiome project. Natiure, 449: 804810. •Zengler K., Toledo G., Rappe M., Elkins J., Mathur E., Short J., Keller M. 2002. Cultivating the uncultured. PNAS. 99: 15681–15686. • Microbiology en http://en.wikipedia.org/wiki/Microbiology • Omics en http://en.wikipedia.org/wiki/Omics Imagen de: http://www.solociencia.com Coméntanos: [email protected] Published on December, 2010 41 Por Ilse Novoa de León n la actualidad es común escuchar hablar de la síntesis de biopolímeros o de polímeros biodegradables, “que estos materiales ya no contaminan”, “que tienen múltiples aplicaciones”, etc. Es un tema que se ha vuelto cotidiano, pues bien, se le llama biopolímero a cualquier polímero que tenga un origen biológico, el término biopolímero muchas veces es asociado a la capacidad de un polímero de ser degradado, sin embargo existen biopolímeros termoestables (sin capacidad de degradación) y polímeros biodegradables. Los polihidroxialcanoatos (PHAs ó polímeros de hidroxialcanoato) son biopoliésteres producidos por muchas especies de bacterias, las cuales los almacenan como fuentes de carbono y energía bajo condiciones limitadas de nutrientes en presencia de un exceso de carbono en el medio [2]; estos se almacenan en forma de gránulos en el citoplasma, el número de gránulos depende de la presencia de „phasins’ las cuales son proteínas estructurales amfifílicas que se producen en la superficie del gránulo. Se ha reportado que estos pueden alcanzar niveles de hasta del 90% en peso seco dentro de las células [3], además todos ellos son completamente degradables a dióxido de carbono y agua a través de la mineralización microbiológica natural [1]. Aunque los PHAs son sintetizados por más de 300 microorganismos diferentes los más utilizados debido a sus rendimientos de producción son Ralstonia eutropha, Alcaligenes eutrophus, Alcaligenes latus, Azotobacter vinelandii, especies del género Pseudomona; E. coli recombinante, entre otros, incluso en los últimos años se han estudiado las algas recombinantes como posibles productoras de PHAs [2]. En general, los PHAs están conformados por varias repeticiones de un mismo monómero; se han encontrado cerca de 100 tipos diferentes de monómeros incorporados a los PHAs, los cuales incluyen unidades de hidroxialcanoatos que van de 2-6 hidroxiácidos sustituidos con un amplio rango de grupos entre los cuales se encuentran: Alquil, aril, alquenil, alojen, ciano, epoxi, éter, y grupos ácidos. Los polihidroxialcanoatos (PHAs ó polímeros de hidroxialcanoato) son biopoliésteres producidos por muchas especies de bacterias, las cuales los almacenan como fuentes de carbono y energía … 42 De acuerdo con la longitud de la cadena de carbonos, los PHAs se dividen en tres grupos: PHAs de cadena corta (SCL):Estos son (R)hidroxialcanoatos cuyos monómeros están compuestos de 3-5 carbonos, son termoplásticos con un alto grado de cristalización [4]; estos forman cristales tiesos lo que los hace menos flexibles [5]. PHAs de cadena larga (MCL): Están constituidos por monómeros cuya longitud de cadena de entre 6-14 carbonos y pueden ser alifáticos ó aromáticos. Este tipo de biopoliesters poseen valiosas propiedades mecánicas, son hidrofóbicos, elásticos, poseen un bajo grado de cristalización (elastómeros semicristalinos termoplásticos) y una baja temperatura de fusión, al igual que todos los PHAs son biodegradables y biocompatibles [4]. SCL-MCL PHAs (Copolímeros): Estos consisten en monómeros cuya longitud de cadena está comprendida entre 4-14 carbonos, poseen un amplio rango de propiedades físicas dependiendo del porcentaje de la composición en moles de los diferentes monómeros incorporados al polímero, así por ejemplo, los copolímeros que poseen un bajo porcentaje de monómeros SCL son más elastoméricos [5]. Actualmente, la producción de PHAs ya sea por cepas nativas o recombinantes es llevado a cabo en cultivos fed-batch de dos etapas, una fase para el crecimiento celular y otra fase para la producción. En la fase de crecimiento celular el medio enriquecido nutricionalmente es usado para obtener la mayor cantidad de células posibles (biomasa), mientras que en la fase de producción el crecimiento es detenido mediante la disminución de algunos nutrientes como nitrógeno, fósforo, oxígeno o magnesio, que están asociados al crecimiento celular, esta disminución actúa como un potencializador que dispara la ruta metabólica de la síntesis de PHAs [6]. Como podemos ver los microorganismos y las plantas se han inmiscuido poco a poco en la síntesis de polímeros biodegradables dándonos la oportunidad de avanzar hacia el desarrollo sustentable obteniendo estos materiales capaces de reintegrarse al ciclo natural. Su importancia radica en que estos biopolímeros poseen una amplia gama de aplicaciones, en campos como la biomédica, la cosmetología y aplicaciones industriales; entre sus principales propiedades se encuentra la biodegradabilidad, además de una gran cantidad de ventajas [2]: Bioreabsorbible Biocompatible (sin esta propiedad, sería imposible hablar de aplicaciones médicas) Endógenos Fotoresistentes Resistentes al calor. Termo-moldeables Barreras de oxígeno Hidrofóbicos Nanomerizable No tóxicos Resistentes a químicos [5] Nomura CT, Taguchi K, Taguchi S, Doi1 Y. Coexpression of Genetically Engineered 3-Ketoacyl-ACP Synthase III (fabH) and Polyhydroxyalkanoate Synthase (phaC) Genes Leads to Short-Chain-Length–Medium-Chain-Length Polyhydroxyalkanoate Copolymer Production from Glucose in Escherichia coli JM109. Applied and environmental microbiology, p. 999–1007, (2004). [6]Takeharu Tsuge. Metabolic Improvementes and Use of Inexpensive Carbon Sources in Microbial Production of Polyhydroxyalkanoates. Journal of Bioscience and Bioengineering. Vol. 94, No. 6, 579-584, (2002). Coméntanos: [email protected] REFERENCIAS… [1]SY Lee . Plastic bacteria? Progress and prospects for polyhydroxyalkanoate production in bacteria. Vol. 14 pp 431-438 Trends in Biotechnology, (1996) [2]J. Choi á S. Y. Lee. Factors affecting the economics of polyhydroxyalkanoate production by bacterial fermentation . Appl Microbiol Biotechnol 51: 13 - 21 (1999) [3]Alexander Steinbüchel, Tina Lütke-Eversloh. Metabolic engineering and pathway construction for biotechnological production of relevant polyhydroxyalkanoates in microorganisms. Biochemical Engineering Journal 16 pp 81–96 (2003) [4] Kim DY, Kim HW, Chung MG, Rhee YH. Rewiev: Biosynthesis, Modification, and Biodegradation of BacterialMediumChain-Length Polyhydroxyalkanoates. The Journal of Microbiology, abril 2007. Your opinion counts. Comments or suggestions: Please visit: http://bioremlaguna.blogspot.com/