3.2. Carbohidratos

0 comentarios
La gran mayoría de la gente se encuentra más que familiarizada con el primer tipo de macromoléculas que vamos a estudiar: los carbohidratos. Y ello se debe a que se trata de uno de los principales protagonistas en muchísimos tipos de dietas, tanto en las de bajo contenido en este macronutriente para aquellos que buscan pérdida de peso, como aquellos que necesitan un gran aporte energético en su vida diaria, como es el caso de los deportistas.
Los carbohidratos desempeñan muchas funciones en las plantas, animales y el ser humano, siendo parte esencial en nuestra alimentación, al proporcionar energía (4,3 Kcal/g) al organismo, principalmente a través de la glucosa.
Entre las fuentes naturales ricas en carbohidratos encontramos las verduras, frutas y cereales.
Su estructura molecular se representa mediante la fórmula (CH2O)n, donde n nos indica el número de átomos de carbono en la molécula. Por tanto, en los carbohidratos la proporción C, H, O siempre va a ser de 1:2:1.
Este tipo de macromoléculas se clasifica en tres tipos: monosacáridos, disacáridos y polisacáridos.


Monosacáridos

Los monosacáridos son moléculas que pueden adoptar tanto forma de cadena lineal como de anillo, encontrándose estos últimos normalmente en soluciones acuosas.
Se trata de azúcares simples (mono-: uno, sacar-: dulce), siendo la glucosa el más común de todos ellos. La gran mayoría de ellos se denominan con el sufijo “-osa” conteniendo un número de átomos de carbono que varía entre tres y siete. Así, hallamos por ejemplo, la triasa (3 carbonos), la pentosa (5 carbonos) o la hexosa (6 carbonos).
Si cuentan en su estructura con un grupo aldehído[1] el monosacárido se conocerá como aldosa, en cambio se denominará cetosa si el grupo funcional que posee es una cetona[1].

La glucosa (C6H12O6) es una de las fuentes energéticas primordiales del ser humano de la cual se va a liberar energía durante la respiración celular, empleándose dicha energía para la fabricación de ATP (trifosfato de adenosina)[2]. Las plantas van a sintetizar la glucosa utilizando CO2 y agua, almacenando sus excedentes en forma de almidón, que será catabolizado (descompuesto por las células) al ser consumido por los seres humanos y animales herbívoros.

Entre otros monosacáridos también destacan la galactosa (que forma parte de la lactosa o azúcar de la leche) y la fructosa (forma de azúcar presente en las frutas y la miel). Tanto la glucosa, la galactosa y la fructosa son hexosas y ejemplos de monosacáridos isoméricos al poseer la misma fórmula química (C6H12O6) pero diferenciarse estructural y químicamente debido a las distintas disposiciones de sus grupos funcionales en torno a los carbonos asimétricos[3].
La glucosa y la galactosa pertenecen al grupo que veíamos anteriormente denominado aldosas y la fructosa a las cetosas.
Moléculas de glucosa, galactosa y fructosa

Disacáridos

Los disacáridos (di-: dos) se van a constituir cuando dos monosacáridos se someten a una reacción de síntesis por deshidratación. Durante este proceso el hidrógeno de uno de los monosacáridos se combina con el grupo hidroxilo de otro monosacárido, formando un enlace covalente entre ambos y liberando una molécula de agua. Este enlace covalente se denomina enlace glucosídico, los cuales se dividen en dos tipos: α y β, dependiendo de si el grupo hidroxilo (OH) se posiciona por encima o por debajo del carbono quiral.
Molécula de sacarosa: combinación de los monosacáridos glucosa y fructosa
Entre los disacáridos más habituales se hallan la lactosa, la cual es el resultado de la unión de los monómeros galactosa y glucosa, encontrándose presente de forma natural en la leche. La maltosa, o azúcar de malta, formada a partir de la reacción de deshidratación de dos moléculas de glucosa es otro ejemplo de disacáridos. Pero sin duda, el más común de todos ellos es la sacarosa, o azúcar de mesa, compuesta de monómeros de fructosa y glucosa.


Polisacáridos

Los polisacáridos (poli-: muchos) son largas cadenas de monosacáridos unidos por enlaces glucosídicos. Estas cadenas pueden ser ramificadas o sin ramificar conteniendo diferentes tipos de monosacáridos. Entre los principales polisacáridos destacan el almidón, el glucógeno, la celulosa y la quitina.

Almidón
Las plantas son capaces de sintetizar la glucosa, como comenté anteriormente, a partir de agua y CO2. Cuando su producción sobrepasa las necesidades energéticas de la planta, los excedentes se van a almacenar en forma de almidón en distintas partes de la misma, incluyendo la raíz y las semillas, a las que les proporcionará alimento durante la germinación de las mismas.
El almidón al ser consumido en la dieta por animales y seres humanos es descompuesto previamente por enzimas, como las amilasas salivares, en moléculas de menor tamaño como la glucosa antes de ser absorbida por las células y satisfacer así las necesidades energéticas de éstas.

Glucógeno
El glucógeno, compuesto de monómeros de glucosa, es la forma de almacenamiento de ésta última en los humanos y otros vertebrados. Se le considera el equivalente animal al almidón de las plantas, acumulándose en las células musculares y el hígado.
Cuando los niveles de glucosa en sangre disminuyen se recurre a estos depósitos descomponiendo el glucógeno para liberar la glucosa que lo constituye en un proceso denominado glucogenólisis.
Procesos de glucogénesis y glucogenólisis

Celulosa
La celulosa, constituida también por monómeros de glucosa, es el biopolímero más abundante. Se trata del principal componente de las paredes celulares de las plantas confiriéndolas soporte estructural.
En este tipo de moléculas sus monómeros constituyentes se hallan fuertemente empaquetados dando a la celulosa su típica estructura fibrosa confiriendo a las plantas dos características muy importantes para ellas: rigidez y elevada resistencia a la tracción.
A diferencia del ser humano, los animales herbívoros cuentan en su sistema digestivo con bacterias y protistas[4] que segregan la enzima celulasa, ayundádoles a digerir la celulosa presente en los pastos que consumen, descomponerla en monómeros de glucosa y como consecuencia poder aprovecharla como fuente de energía.
Estructura de la celulosa

Quitina
El cuarto polisacárido a destacar es la quitina. Es un polisacárido con alto contenido en nitrógeno constituida por unidades repetidas de N-acetil-β-glucosamina, un tipo de azúcar modificada.
La quitina es un componente principal de las paredes celulares de los hongos y del exoesqueleto (esqueleto externo) de los artrópodos que protege sus órganos internos.


BENEFICIOS DE LOS CARBOHIDRATOS

Los carbohidratos se componen de elementos tanto solubles como insolubles. Entre los segundos encontramos la fibra, que es principalmente celulosa. La celulosa ayuda a regular el tránsito intestinal y regula la tasa de consumo de glucosa en sangre. Además favorece la eliminación del exceso de colesterol en sangre uniéndose a él en el intestino delgado, y evitando, de esta manera, que forme parte del torrente sanguíneo, excretándose por medio de las heces. Asimismo, las dietas ricas en fibra desempeñan una misión protectora contra la aparición del cáncer de colon.

La glucosa proporcionada por los carbohidratos que consumimos, una vez ha sido descompuesta durante la respiración celular, va a producir moléculas de ATP, que se caracteriza por su rápida aportación de energía al organismo. Como consecuencia, sin el consumo de carbohidratos la disponibilidad de energía instantánea se vería profundamente reducida.
Estructura molecular del ATP

Debido a todas estas razones, eliminar la ingestión de carbohidratos, como algunas dietas hipocalóricas propugnan, con el fin de producir una rápida pérdida de peso se convertiría en un gran error. Para tal objetivo, sería una solución mucho más sensata y saludable el consumo de los carbohidratos adecuados a través de verduras, frutas y cereales en combinación con un contenido equilibrado de proteínas, vitaminas y grasas y la realización de ejercicio adaptado a nuestro estado físico, edad y sexo.




[1] Ambos son compuestos orgánicos caracterizados por contener el grupo funcional carbonilo (C=O), con la diferencia que en los aldehídos este grupo se encuentra unido, al menos, a un átomo de hidrógeno, mientras que, en las cetonas el grupo carbonilo se une a dos átomos de carbono.
[2] Molécula utilizada por todos los organismos vivos para proporcionar energía en las reacciones químicas. Es considerada la moneda energética del metabolismo.
[3] El carbono quiral o asimétrico es aquel que está enlazado con cuatro elementos diferentes.
[4] Organismos normalmente unicelulares de tipo eucarionte (su núcleo celular se encuentra delimitado dentro de una membrana) que por sus características no pueden incluirse en el resto de los reinos de esta clase (animales, plantas y hongos).

Fuentes: OpenStax College, Biology. OpenStax College. 30 May 2013.
              http://medmol.es/glosario/121012glosariomedmol_atp/
              https://kel-tay-lii.wikispaces.com/A.+Intro+to+Phys
              http://chemistry.tutorvista.com/organic-chemistry/oligosaccharides.html
              http://www.entrenasalud.es/glucogeno-y-deporte-un-gran-deposito-de-energia/
              http://www.asturnatura.com/articulos/envoltura-celular/pared-celular.php


Tu opinión es importante

Estás invitado a enviar cualquier comentario o aportación que quieras realizar, gracias.

3.1. Macromoléculas biológicas. Introducción

0 comentarios
Comienzo aquí, con esta breve introducción, un nuevo bloque dentro de esta sección en  la que estudiaremos los cuatro tipos principales de macromoléculas biológicas: carbohidratos, lípidos, proteínas y ácidos nucleicos. Representan los constituyentes fundamentales de la estructura celular, que al combinarse constituyen la mayor parte del peso seco de la célula, llevando a cabo en la misma una amplia variedad de funciones. Se tratan de moléculas orgánicas, por lo que su principal componente es el carbono, al que se añaden el hidrógeno (H), el oxígeno (O), el nitrógeno (N) y otros elementos menores.
Las dos reacciones primordiales que intervienen en la síntesis de las macromoléculas biológicas son las siguientes:

         Síntesis por deshidratación
Los bloques básicos de la mayoría de las macromoléculas son subunidades que se conocen con el nombre de monómeros. Dichos monómeros se combinan mediante enlaces covalentes formando moléculas más grandes (polímeros) para lo cual liberan moléculas de agua como subproductos. A este mecanismo se le conoce como síntesis de deshidratación que significa “unir perdiendo agua”.
Durante estas reacciones, el hidrógeno (H+) de uno de los monómeros se combina con el grupo hidroxilo (OH-) de otro, liberando una molécula de agua. Al mismo tiempo, los monómeros comparten electrones y se unen mediante enlaces covalentes.
Los monómeros no tienen porqué ser siempre del mismo tipo e incluso la misma clase de monómero puede dar lugar a diferentes tipos de polímeros. Por ejemplo, los monómeros de glucosa son los integrantes de sustancias tan diferentes como la celulosa, el glucógeno o el almidón.
Reacción de síntesis por deshidratación

         Hidrólisis
La hidrólisis que significa “disolver en agua” es un tipo de reacción en la que se emplea moléculas de esta sustancia para descomponer los polímeros en sus monómeros constituyentes. En estas reacciones, el polímero se divide en dos componentes: uno de ellos adquiere un átomo de hidrógeno (H+) y el otro un grupo hidroxilo (OH-), ambos procedentes de la ruptura de una molécula de agua.
Reacción de hidrólisis
En estos dos tipos de reacciones pueden intervenir enzimas (un tipo específico de proteínas) cuya función desempeñada se conoce con el nombre de catálisis, la cual consiste en la alteración de la velocidad de una reacción, en los dos casos citados aumentándola.
A través de reacciones de hidrólisis nuestro organismo se encarga mediante la acción de enzimas muy específicas del sistema digestivo de descomponer tanto las proteínas, lípidos y carbohidratos que ingerimos en nuestra dieta en moléculas más pequeñas para que los nutrientes puedan ser absorbidos por las células intestinales. Así, por ejemplo, los lípidos se descomponen mediante la acción de las lipasas, las proteínas lo hacen gracias a enzimas como la pepsina, la peptidasa o el ácido clorhídrico y los carbohidratos mediante la sacarasa, la lactasa, la amilasa o la maltasa.
La descomposición de todas estas moléculas proporciona la energía necesaria para desarrollar las distintas funciones celulares.

Fuentes: OpenStax College, Biology. OpenStax College. 30 May 2013.
              http://www.differencebetween.net/science/health/difference-between-hydrolysis-and-dehydration-synthesis/


Tu opinión es importante

Estás invitado a enviar cualquier comentario o aportación que quieras realizar, gracias.

1.2.4. Optimización de candidatos

0 comentarios
El conjunto de complejos farmacológicos que superan la fase de cribado ha de ser reducido y optimizado según una serie de criterios clave.
Para llevar a cabo una mayor reducción en el número de candidatos los investigadores caracterizan la manera en la que se adhieren a sus blancos. Este proceso de optimización es, por tanto, aplicable solamente en el primero de los enfoques estudiado en la anterior entrada, basado en dianas biológicas.
En el segundo de ellos, el fenotípico, su validación resulta bastante difícil de realizar debido al conocimiento limitado del mecanismo de acción de los compuestos.
Entre los factores más importantes relacionados con el acoplamiento o unión entre los fármacos y las moléculas diana encontramos:

      El grado de afinidad que el complejo tenga con el blanco biológico.

      A cuántos blancos diferentes puede el fármaco unirse.

      Durante cuánto tiempo puede el compuesto permanecer adherido a la diana.

Estos criterios ayudarán a determinar cuál es la dosis más eficaz del fármaco y cualquier efecto secundario no deseado que pueda surgir.
Además, han de eliminarse los candidatos que presenten toxicidad en niveles terapéuticos, los que puedan ser inestables químicamente en solución o estado sólido y aquellos que sean sumamente costosos de sintetizar.
Los complejos que superen estos pasos son examinados por químicos que producirán unos compuestos conocidos como análogos, estructuralmente similares con alguna mejora en los criterios mencionados.

Una de las tareas más importantes desarrolladas durante el proceso de optimización es determinar la correlación entre la estructura química del futuro fármaco y su actividad (QSAR[1]) y de qué manera la primera de ellas afecta a la segunda.
Otro aspecto a evaluarse es la farmacobilidad del compuesto, término con el que se describe la habilidad del fármaco para alcanzar su blanco, acoplarse a él y producir algún tipo de efecto medible. Para conocer la farmacobilidad los científicos hacen uso de la llamada regla de cinco de Lipinski, que establece que un medicamento oral cumplirá su función farmacológica si:

      No contiene más de cinco donadores de enlace por puentes de hidrógeno (número total de enlaces nitrógeno-hidrógeno y oxígeno-hidrógeno, NHs y OHs).

      No contiene más de diez aceptores de enlace por puentes de hidrógeno (todos los átomos de nitrógeno u oxígeno).

      Su peso molecular es inferior a 500 uma.

      Un coeficiente de reparto octanol-agua[2]  (log P) inferior a cinco.



[1] La relación cuantitativa estructura-actividad, es el proceso por el cual la estructura química se correlaciona cuantitativamente con la actividad biológica (unión de un fármaco con un receptor) o la reactividad química (afinidad de una sustancia por otra para producir reacción).
[2] Cociente o razón entre las concentraciones de una determinada sustancia (soluto) en dos disolventes en equilibrio: octanol y agua. Su fórmula viene dada por:  log P = log ( [soluto]octanol  /  [soluto]agua ).

Fuentes: UTAustinX: UT.4.01x Take Your Medicine - The Impact of Drug Development.
              https://es.wikipedia.org/wiki/Relaci%C3%B3n_cuantitativa_estructura_actividad
              https://es.wikipedia.org/wiki/Coeficiente_de_reparto_octanol-agua


Tu opinión es importante

Estás invitado a enviar cualquier comentario o aportación que quieras realizar, gracias.

1.2.3. Cribado de candidatos

0 comentarios
Tras la identificación y estudio pormenorizado de la diana que juega un papel clave en la progresión de la enfermedad, se pasa a una segunda etapa basada en el cribado o selección de los futuros fármacos que actuarán sobre ese receptor. Este enfoque es el responsable del descubrimiento de la gran mayoría de los medicamentos comercializados en la actualidad.

En esta etapa, los científicos pueden tener ya una idea aproximada de la clase de compuestos que podrían unirse adecuadamente o no al blanco biológico, reduciendo así el número de ellos que partirán en el cribado inicial. Este número también se verá disminuido por el empleo de sofware especializado y bibliotecas virtuales que contengan amplia información acerca de los mismos.
Posteriormente, en el cribado llevado a cabo en el laboratorio se emplean equipos automatizados con placas multipocillos (que contienen la diana biológica), en las que se evaluará en un período relativamente corto de tiempo la acción de los distintos candidatos objetos a examen.

En principio, se puede llegar a pensar que cuanto mejor sea la unión complejo farmacológico-receptor, mejor será el resultado obtenido pero no siempre es el caso. Conocer el mecanismo de progresión de una enfermedad y el papel de todas sus dianas se hace casi imposible, por lo que los investigadores han desarrollado una aproximación alternativa al problema, denominada acercamiento fenotípico. Este método emplea un modelo vivo[1] de la enfermedad donde los científicos investigan si, de algún modo, el candidato ha sido capaz de reducir o eliminar los signos de la enfermedad desconociendo los blancos biológicos y sus mecanismos de acción.
La principal ventaja de este enfoque es su mayor potencial para descubrir compuestos farmacológicos de primera categoría. Su inconveniente es que al desconocer el receptor sobre el que actúan se hace más difícil realizar modificaciones químicas sobre dichos compuestos, con lo que también se desconocería cómo estos cambios afectarían a la unión con el blanco terapéutico.

Existe, en cambio, un nuevo tipo de complejos conocidos como biológicos que, en lugar de ser producidos en un laboratorio químico, proceden de sistemas vivos. La mayoría de ellos no se van a adherir a ningún receptor sino que son copias de moléculas existentes en nuestro organismo.
Por ejemplo, la insulina[2] se ha generado mediante ingeniería genética al introducirse en el DNA de colonias bacterianas. Estas colonias al crecer y multiplicarse leen el código genético humano insertado y producen la insulina.
Algunos de estos fármacos biológicos también pueden actuar sobre receptores, diseñándose a la medida anticuerpos y proteínas que se adhieran o interfieran en aquellos elementos causantes de enfermedades en las células.




[1] Estos modelos vivos son células, tejidos celulares o incluso ratones desarrollados para modelizar enfermedades humanas.
[2] Hormona formada por 51 aminoácidos, producida y secretada por las células beta de los islotes de Langerhans del páncreas. Se encarga de la regulación de los niveles de glucosa en sangre.

Fuente: UTAustinX: UT.4.01x Take Your Medicine - The Impact of Drug Development.


Tu opinión es importante

Estás invitado a enviar cualquier comentario o aportación que quieras realizar, gracias.

1.2.2. Identificación de receptores

0 comentarios
El desarrollo de un nuevo fármaco, propiamente dicho, comienza con la identificación y selección de un blanco, receptor o diana biológica sobre la que actúe ese compuesto farmacológico. Estas dianas son habitualmente proteínas a las que el futuro fármaco se une y ejercer, de este modo, modificaciones en las funciones que desempeña.

Las proteínas son los trabajadores y quienes realizan la mayoría de las funciones de las células humanas, por lo que tiene todo el sentido que sea allí donde se adhieran los fármacos para transformar sus actividades, alterar esta actividad ayudará a eliminar o reducir la enfermedad en las células afectadas. También los genes pueden ser objetivo de los fármacos, los cuales son responsables de proporcionar las instrucciones acerca de qué proteínas han de ser creadas y qué tareas llevarán a cabo dentro de la célula.
Las proteínas y genes sobre las que actúan los fármacos no son siempre humanos, ya que se estima que entre el 15 y el 20% de los medicamentos actuales lo hacen sobre proteínas y genes de los patógenos que invaden nuestro organismo causando enfermedades.

El problema con muchas enfermedades es que en su desarrollo pueden verse involucrados cientos de genes y proteínas, con lo que la selección, por parte de los científicos, del receptor que sea clave en la manifestación de la enfermedad se convierte en un elemento fundamental. Para llevar a cabo esta tarea se hace imprescindible el análisis estadístico de una gran cantidad de datos y entre ellos ser capaz de elegir el blanco biológico más adecuado para nuestro complejo farmacológico.

En algunas ocasiones, la simple unión del fármaco a su diana terapéutica es suficiente para eliminar la enfermedad. Por ejemplo, el antibiótico amoxicilina se une a ciertas proteínas en las paredes celulares de las bacterias infecciosas, provocando la ruptura de estas paredes y, en consecuencia, la muerte de dichas bacterias.
Sin embargo, no siempre es tan fácil, ya que aquellas bacterias que han desarrollado resistencia a los antibióticos han logrado modificar las dianas sobre las que actuaban los fármacos correspondientes, perdiendo así su acción terapéutica.
A menudo, otras enfermedades son muy complejas de combatir por el hecho de que son causadas por una combinación de factores medioambientales, genéticos y de estilo de vida, es el caso del Alzheimer.
Por último, hay otras ocasiones en que, tal vez, sea más apropiado un acercamiento “multi-diana” en el que se administren múltiples fármacos sobre un único blanco biológico, un único fármaco sobre múltiples dianas o una combinación de ambos.

Fuente: UTAustinX: UT.4.01x Take Your Medicine - The Impact of Drug Development.


Tu opinión es importante

Estás invitado a enviar cualquier comentario o aportación que quieras realizar, gracias.

1.2.1. Introducción a la investigación de fármacos. Fase previa

0 comentarios
En épocas pasadas, la investigación de nuevos fármacos se realizaba de manera muy diferente a como se lleva a cabo hoy en día. Muchos de ellos eran simples remedios caseros que se transmitían de generación en generación y la gran mayoría descubiertos por accidente. Es el caso de uno de los antibióticos más famosos: la penicilina.
En 1928, Alexander Fleming observó que un cultivo de bacterias estafilococos que estaba estudiando se
contaminó con cierto hongo (penicillium) y cómo el área alrededor de dichos hongos se encontraba libre de esas bacterias. Fue posteriormente Howard Florey quien se dio cuenta del tremendo potencial de la penicilina al aplicarla a soldados heridos durante la II Guerra Mundial.
Aunque de manera mucho menos común, descubrimientos de este tipo todavía ocurren hoy en día, si bien es cierto que sin el enorme impacto que tuvo la penicilina en su tiempo. Actualmente, se sigue un procedimiento más metódico que involucra industrias, investigaciones universitarias, agencias gubernamentales e incluso organizaciones filantrópicas. El desarrollo de medicamentos comienza con el descubrimiento de nuevos fármacos, el cual, se inicia con un número aproximado de 10.000 candidatos potenciales en el que se descartarán 9.999 hasta obtener el mejor de todos ellos, que poseerá el equilibrio más adecuado entre eficacia y seguridad. Esta fase de investigación puede desglosarse, a su vez, en cuatro etapas:

        Prefase de investigación de la enfermedad sobre la que actuará el futuro medicamento.

        Identificar una diana de la enfermedad sobre la que se adhiera el fármaco (denominada diana o blanco biológico o terapéutico).

        Cribado de los compuestos químicos que actúen sobre estas dianas terapéuticas.

        Optimizar estos compuestos hasta producir el principal candidato.
Fases del desarrollo en la investigación de fármacos


FASE PREVIA DE INVESTIGACIÓN

Como has podido comprobar en mi anterior entrada de esta sección, el desarrollo de medicamentos implica un amplio proceso que conlleva un alto coste, tanto en esfuerzo humano como en inversión económica; podrás imaginar, en consecuencia, que antes de embarcarse en el descubrimiento de fármacos es necesario plantearse y resolver un conjunto de preguntas sin las cuales se estaría condenado, sin duda, al fracaso en las investigaciones. Debe, por tanto, poseerse una serie de criterios acerca de los siguientes puntos:

      Cuáles son las necesidades médicas no cubiertas en la actualidad, qué droga puede desarrollarse que permita plantear una solución a una enfermedad cuya curación no existe o su tratamiento es deficitario en estos momentos.

      Tener amplios conocimientos acerca de esa enfermedad sobre la que el futuro fármaco actuará, lo cual incluye desvelar las causas fundamentales que la originan, lo que no es siempre trivial.

      Cuáles de nuestros genes se ven alterados por la enfermedad y cómo ello afecta a la manera en la que éstos codifican las proteínas que producen. Así mismo, de qué manera las interacciones entre estas proteínas son afectadas por esa patología.

       De qué forma las células y tejidos también son dañados.

       Finalmente, cómo el paciente, de modo global, es afectado por la enfermedad objeto de análisis.

En conclusión, se trata de un estudio que parte del descubrimiento del elemento más pequeño sobre el que puede actuar una determinada patología (proteínas y genes), hasta el nivel más elevado (paciente).

Fuentes:  UTAustinX: UT.4.01x Take Your Medicine - The Impact of Drug Development.
               UC San Diego: Drug Discovery, Development & Commercialization.


Tu opinión es importante

Estás invitado a enviar cualquier comentario o aportación que quieras realizar, gracias.

1.3. Aproximación top-down y bottom-up

0 comentarios
La actual tecnología de fabricación se basa en el planteamiento conocido como “top-down” (de arriba hacia abajo) que consiste, de modo similar a lo que hace un escultor, partir de un bloque de material de grandes dimensiones e ir moldeándolo y cincelándolo progresivamente hasta obtener un objeto de un tamaño más pequeño con la forma deseada.
En la aproximación “nano” se va a proceder justo siguiendo el camino contrario, ir de lo pequeño a lo grande, es lo que se denomina aproximación “bottom-up” (de abajo hacia arriba), en la que haciendo una similitud con los juegos infantiles de construcción (compuestos de piezas de distinta forma, color y tamaño) vamos a comenzar con elementos básicos como átomos, nanopartículas, ácidos nucleicos o proteínas para ensamblar moléculas e incluso construir diferentes dispositivos.
Para desempeñar este tipo de trabajo, de enorme dificultad como podrás imaginar, fue necesario el desarrollo de herramientas específicas que posibilitaron tanto la visualización como la manipulación de objetos a escala nanométrica, son los microscopios de sonda de barrido (SPMs), con los que es posible no sólo ver, sino también mover átomos sobre una superficie.

El progreso de la nanociencia y la nanotecnología y el empleo de este tipo de instrumentación avanzada ha dado lugar a una de las características más importantes de esta ciencia: su multidisciplinariedad. Al ir reduciendo la escala, los átomos y moléculas se convierten en los “ladrillos” básicos de los objetos que estudian físicos, químicos, biólogos e ingenieros que han de trabajar juntos y utilizar un lenguaje común. Un ejemplo de esta multidisciplinariedad sería la fabricación de un biosensor donde un biólogo ha de tener conocimientos de física cuántica, y un físico de biología para que este tipo de dispositivos se diseñe con éxito.

Ensamblar molécula a molécula o partícula a partícula para desarrollar toda la tecnología que demandemos puede llegar a hacernos pensar que se trata de algo casi irrealizable, sin embargo, esto es lo que ha venido realizando sobre la Tierra la biología en los últimos 4000 millones de años, ya que partiendo de moléculas simples formó estructuras de enorme complejidad mediante mecanismos de enlazado, auto-ensamblado y reconocimiento. Cualquier organismo vivo es, sin duda, un claro ejemplo de construcción “bottom-up”, puesto que, comenzando con ciertas moléculas orgánicas y una secuencia genética se han llegado a crear sistemas muy complejos tanto funcional como estructuralmente. Como consecuencia, la nanotecnología puede aprender de estos procesos para imitarlos y adaptarlos, incluso a otro tipo de problemas muy distintos de la biología.

El desarrollo de la nanociencia y la nanotecnología, de acuerdo a expertos, se producirá en tres etapas. En la primera de ellas, entre el año 2000 y el 2020, donde las industrias seguirán empleando, mayoritariamente, las técnicas de producción convencional ("top-down"), fabricando dispositivos cada vez más pequeños. La segunda, entre el 2010 y 2030, comenzará a extenderse el método “bottom-up”, el cual se convertirá en el esquema líder de fabricación durante el resto del siglo XXI. Pero esto no significa que nuestros procedimientos actuales vayan a desaparecer por completo, la utilización de un sistema u otro dependerá de las materias primas, la mano de obra, los costes medioambientales y sociales y, por supuesto, de la rentabilidad económica.

La nanotecnología cuenta ya con un peso económico propio, que alcanzó en el mercado mundial los 50.000 millones de dólares en 2006, y se estima que llegue al billón de dólares en este 2015. Por tanto, este mercado beneficiará a las empresas de aquellos países que estén realizando fuertes inversiones a medio-largo plazo en este nuevo campo.


Fuentes: Fundación española para la ciencia y la tecnología (FECYT). Nanociencia y nanotecnología. Entre la ciencia ficción del presente 
              y la tecnología del futuro, 2009.
              http://researcher.watson.ibm.com/researcher/view_group_subpage.php?id=4252
              http://www3.nd.edu/~kamatlab/facilities_physchar.html


Tu opinión es importante

Estás invitado a enviar cualquier comentario o aportación que quieras realizar, gracias.

1.2. Nanoestructuras

0 comentarios
Se definen como aquellos objetos en el que, al menos, una de sus dimensiones se encuentra en el rango de la nanoescala (1-100 nm). Entre las nanoestructuras más comúnmente empleadas en el campo de la nanomedicina destacan:

       Micelas: estructuras con forma esférica o globular en la que las moléculas que la constituyen se componen de una cabeza polar o hidrofílica (afín al agua) y una cola apolar o hidrofóbica (que repele el agua). La primera de ellas se posiciona en la región exterior de la micela formando una capa en contacto directo con el líquido circundante, la segunda se dispondrá hacia el interior constituyendo el núcleo de esta nanoestructura.
Su tamaño típico se sitúa en torno a los 50 nm y se emplean en el transporte y liberación de fármacos insolubles en agua, los cuales son confinados en el núcleo hidrofóbico de la micela, estando así, protegidos del ambiente acuoso exterior.
Una de sus características más importantes es que pueden transitar por el torrente sanguíneo durante un período de tiempo superior al que lo hacen otro tipo de partículas al evitar la acción de los macrófagos[1].

      Liposomas: vesículas cerradas compuestas por bicapas lipídicas (dos capas de lípidos enfrentadas por sus colas hidrofóbicas), que en función del número de éstas se clasifican en unilaminares y multilaminares. Las primeras se caracterizan por contar con un núcleo acuoso para el transporte de fármacos solubles en agua, en cambio, las segundas hacen lo propio con fármacos liposolubles.
Administrados por vía intravenosa los liposomas son rápidamente eliminados por el sistema reticuloendotelial (RES)[2], además de que, fuerzas de Van der Waals, hidrofóbicas y electrostáticas pueden desintegrarlos. Para evitarlo se recubren con polímeros inertes como el polietilenglicol (PEG), lo que posibilita su circulación por el organismo sin ser excretados.
Algunos liposomas se diseñan para ser degradados justo donde se necesitan, por ejemplo: en zonas de bajo pH (es el caso de regiones tumorales con hipoxia[3]), a otros se les acopla sobre su superficie anticuerpos o ligandos (moléculas que se unen a receptores celulares específicos) para que actúen de manera directa sobre dichos receptores, y una tercera técnica consiste en el desarrollo de liposomas modificables con la temperatura, que son guiados hasta los tejidos tumorales diana mediante hipertermia.

      Dendrímeros: sistemas tridimensionales con apariencia de árbol, consistentes en una molécula central con muchas ramificaciones. Su forma y tamaño son controlados de modo muy preciso, realizándose mediante polimerización partiendo del núcleo, o sintetizándose en sentido inverso, desde la periferia finalizando en el núcleo de la estructura.
Los dendrímeros se presentan como buenos candidatos para el transporte de fármacos, ya que se caracterizan por su alta estabilidad y la funcionalización (unión de grupos funcionales sobre la nanopartícula) de su superficie mediante interacciones físicas o químicas.
Pueden trasladar una gran variedad de moléculas tanto hidrofílicas como hidrofóbicas, sirviendo también como vectores para la liberación de genes, agentes de contraste en diagnóstico por imagen, fármacos y agentes anticancerígenos.
Tipos de nanoestructuras

      Nanoesferas: estructuras esféricas compuestas de sistemas matrices en las que el fármaco es distribuido en su interior por encapsulamiento, acoplamiento o confinamiento. La superficie de la nanoesfera se modifica con la adición de polímeros y materiales biológicos (ligandos o anticuerpos del mismo modo que los liposomas) con el propósito de que alcancen la diana a la que va dirigido el fármaco.

      Nanocápsulas: sistemas vesiculares donde el fármaco es confinado en una cavidad o núcleo central, el cual, está rodeado por una membrana polimérica externa a la que se pueden unir anticuerpos o ligandos. El material del núcleo puede ser tanto sólido, líquido o incluso gaseoso, siempre inmerso en un ambiente líquido o graso.

      Nanotubos de carbono: estructuras cilíndricas mono o multicapa compuestos normalmente por grafito u otro material de carbono. Liberan su carga de manera específica en células diana gracias al ser funcionalizados con proteínas, ácidos nucleicos o péptidos[4] bioactivos, lo que al mismo tiempo los convierte en unas partículas con baja toxicidad. Al no ser inmunogénicos (no producen respuesta inmune) se convierten en excelentes candidatos para el transporte y liberación controlada de fármacos.

      Nanopartículas poliméricas: son uno de los materiales preferidos en nanomedicina al ser la gran mayoría de ellas biodegradables y biocompatibles. Entre sus ventajas se encuentran: la posibilidad de modificación de su superficie mediante transformaciones químicas, el encapsulamiento de la carga a transportar, la administración de una amplia variedad de agentes terapéuticos y un excelente control farmacocinético[5] de los mismos.
El recubrimiento polimérico con el que cuentan reduce la inmunogenicidad y limita su fagocitosis por el sistema reticuloendotelial (RES), incrementando así, los niveles en sangre del fármaco transportado en órganos como el cerebro, los intestinos y los riñones. Suelen diseñarse, de tal modo, que son sensibles a su entorno, liberando el fármaco que contienen al responder tanto a estímulos físicos (temperatura, solventes, luz), como a estímulos químicos (reactantes, pH, iones en solución o reconocimiento químico).

      Nanopartículas inorgánicas: partículas compuestas, normalmente, por sílice (SiO2) o alúmina (Al2O3). Sin embargo, su núcleo no se limita a estos dos materiales, sino que puede formarse con cualquier tipo de metal, óxidos y sulfuros metálicos, lo que conduce a una miríada de nanopartículas con amplia variedad de forma, tamaño y porosidad.
Habitualmente, se diseñan con el fin de evitar el RES modificando para ello su tamaño y composición superficial. Suelen ser porosas con un revestimiento físico que protege la carga transportada de una posible degradación o desnaturalización.




[1] Células del sistema innunitario de grandes dimensiones presentes en diferentes órganos.
[2] Sistema formado por un grupo de células cuya función es capturar partículas inertes en el organismo.
[3] Estado de deficiencia de oxígeno en la sangre, células o tejidos.
[4] Moléculas formadas por la unión de varios aminoácidos.
[5] Control de los procesos a los que un fármaco es sometido en su paso a través del organismo.

Fuentes: Barbara Haley, Eugene Frenkel, Nanoparticles for drug delivery. Elsevier, 2008.
             Jose Manuel González, Marta López, Gema Ruiz. Informe de vigilancia tecnológica, nanomedicna 2006
             Amir H. Faraji, Peter Wipf. Nanoparticles in cellular drug delivery. Elsevier, 2009


Tu opinión es importante

Estás invitado a enviar cualquier comentario o aportación que quieras realizar, gracias.

2.5. El átomo de carbono

0 comentarios
Puesto que, las células están constituidas por una gran variedad de moléculas complejas, denominadas macromoléculas biológicas, tales como los carbohidratos, los lípidos, las proteínas y los ácidos nucleicos (que comenzaré a tratar ampliamente a partir de la siguiente entrada dentro de esta sección),  y debido a que en dichas macromoléculas el carbono es su componente esencial, dedicaré este apartado a un estudio breve de este elemento químico.
El carbono (C) con un número atómico 6 (6 protones y 6 electrones), presenta su capa más externa incompleta con cuatro electrones en la misma. De este modo, con esos cuatro electrones desapareados puede llegar a formar hasta cuatro enlaces covalentes con otros átomos, satisfaciendo así la regla del octeto. Esta propiedad permite al carbono convertirse en un elemento químico muy versátil, ideal como componente estructural o esqueleto de las macromoléculas.


Hidrocarburos

Son moléculas orgánicas[1] constituidas en su totalidad por carbono e hidrógeno. Los enlaces covalentes que se forman entre los átomos de estas moléculas liberan una gran cantidad de energía cuando se queman (oxidan), ésta es la razón por la que empleamos los hidrocarburos como combustibles en nuestra vida diaria, ejemplo de ello son los gases propano y butano.
Cada uno de los enlaces covalentes que se crean entre los átomos de carbono pueden ser simples, dobles o triples, influyendo este hecho en la geometría o forma global de la molécula, la cual, a su vez tendrá una influencia fundamental en las propiedades y funciones que los hidrocarburos pueden llegar a desarrollar. Encontramos, por ejemplo, que los átomos de carbono que forman enlaces simples crean formas tetraédricas permitiendo la rotación de la molécula a lo largo del eje de enlace. En cambio, cuando se constituye un enlace doble o triple la estructura que se adopta es plana y lineal respectivamente.
Los hidrocarburos se encuentran divididos, principalmente, en dos categorías:

      Hidrocarburos de cadena (alifáticos): constituidos por enlaces sucesivos entre átomos de carbono que pueden ser ramificados o sin ramificar.

      Hidrocarburos de anillo (aromáticos): consisten en anillos cerrados de cinco o seis átomos de carbono. En ocasiones, este tipo de estructuras aparecen en hidrocarburos con enlaces dobles como el ciclohexano o el benceno, poseyendo este último una importancia básica en moléculas biológicas como algunos aminoácidos, el colesterol o sus derivados (las hormonas testosterona y estrógeno).
No obstante, hay que señalar que tal división entre hidrocarburos no es excluyente, sino que algunos presentan en su estructura tanto fragmentos alifáticos como aromáticos; es el caso del beta-caroteno, potente antioxidante, precursor de la vitamina A tan presente en frutas, verduras y cereales.


Isómeros

Moléculas que comparten la misma fórmula química pero difieren en la estructura o localización de sus átomos y/o enlaces químicos. Se distinguen dos tipos:

      Isómeros estructurales que se diferencian por la ubicación de sus enlaces covalentes. Así, el butano y el isobutano cuentan ambos con cuatro átomos de carbono y diez de hidrógeno (C4H10), pero la distinta disposición de los átomos dentro de la molécula conduce a diferencias en sus propiedades químicas. Mientras el primero de ellos, el butano, se utiliza como combustible, el segundo es más adecuado como refrigerante.

      Isómeros geométricos se diferencian en cómo los átomos se configuran en torno a los dobles enlaces C=C. De esta manera, hablaremos de configuración cis cuando encontramos los mismos grupos de átomos al mismo lado del doble enlace carbono-carbono y configuración trans cuando se localizan en lados opuestos. En esta segunda configuración, los átomos de carbono dan lugar a una estructura molecular más o menos lineal, mientras que en la primera originan una curvatura (cambio de dirección) en dicha estructura.
Configuración cis y trans del isobuteno
Los triglicéridos[2] (grasas y aceites) se van a clasificar en función de los ácidos grasos[3] que contienen. Así, aquellos ácidos grasos que cuentan  al menos con un doble enlace uniendo sus átomos de carbono dan lugar a las llamadas grasas insaturadas. Cuando alguno de estos enlaces se halla en la configuración cis, las moléculas de los triglicéridos no pueden agruparse ni compactarse, por lo que se mantienen en estado líquido a temperatura ambiente (aceites).
Por otro lado, aquellos triglicéridos con doble enlace de tipo trans (popularmente denominados grasas trans), poseen unos ácidos grasos relativamente lineales que sí son capaces de compactarse fuertemente a temperatura ambiente formando grasas sólidas manufacturadas como aceites parcialmente hidrogenados, alimentos procesados y algunas margarinas. En la dieta humana estas grasas están asociadas a un incremento en las enfermedades cardiovasculares, por lo que han sido ampliamente reducidas y/o eliminadas en gran parte de la industria alimentaria.
En contraste con las grasas insaturadas, aquellos triglicéridos cuyos ácidos grasos no tienen átomos de carbono unidos entre sí por un doble enlace se conocen como grasas saturadas. Se denominan de esta manera porque con el término saturado se indica que cada carbono de la cadena está saturado con hidrógeno: no pueden enlazarse más hidrógenos a ese carbono. Estas grasas suelen solidificarse a temperatura ambiente y se hallan en alimentos de origen animal, la leche y sus derivados e incluso en algunos aceites de origen vegetal como los de coco y palma.
L- y D- aminoácidos

Enantiómeros

Moléculas con los mismos enlaces e idéntica estructura química pero con distinta localización de sus átomos, de tal modo que son imágenes especulares la una de la otra. Un ejemplo serían las formas D y L de algunos aminoácidos, con funciones muy distintas ya que, mientras la segunda dará lugar a la constitución de proteínas, la primera formará parte de las paredes celulares de algunas bacterias.
L- y D- aminoácidos

Grupos funcionales

Grupos de átomos que aparecen dentro de las moléculas confiriéndolas unas propiedades químicas específicas. Así, cada uno de los cuatro tipos de macromoléculas biológicas (carbohidratos, lípidos, proteínas y ácidos nucleicos) tiene su propio conjunto de grupos funcionales que les dotan de unas propiedades químicas y funciones muy características dentro de los organismos vivos.
Estos grupos se van a unir en varios puntos a la columna vertebral de las macromoléculas a través de su estructura lineal en cadena y/o en anillo.
Los grupos funcionales se suelen clasificar, dependiendo de su carga o polaridad, en hidrofóbicos (moléculas no cargadas que no interaccionan bien con moléculas polares como el agua) e hidrófilos (iones o moléculas polares que sí interaccionan bien con otras moléculas polares).




[1] Aquellas que contienen cualquier forma de carbono, ya sea sólida, líquida o gaseosa y que son primordiales para la vida.
[2] Compuesto constituido por una molécula de glicerol que actúa como esqueleto a la que se une tres moléculas de ácidos grasos.
[3] Cadenas de larga longitud, normalmente, de 16 a 22 átomos de carbono, con una estructura mayoritariamente hidrófoba que la impide disolverse en agua. Como grupo funcional cuenta con un grupo carboxilo que presenta carácter ácido.

Fuente: OpenStax College, Biology. OpenStax College. 30 May 2013.
             http://perdergrasa.bligoo.es/clasificacion-de-trigliceridos

             http://recursos.cnice.mec.es/biosfera/alumno/2bachillerato/biomol/contenidos9.htm
             http://biomodel.uah.es/model2/lip/acgr-salud.htm


Tu opinión es importante

Estás invitado a enviar cualquier comentario o aportación que quieras realizar, gracias.

1.3. Ciencia básica y aplicada

0 comentarios
Durante bastante tiempo, y todavía hoy en día, se ha debatido sobre el valor de los diferentes tipos de ciencia, la cual en función de sus objetivos se divide en dos categorías:

      Ciencia básica o ciencia pura: encargada de la búsqueda de conocimiento, independientemente de sus posibles aplicaciones a corto plazo. Su objetivo inmediato es el conocimiento por el conocimiento sin importar que posea o no, en última instancia, utilidades prácticas.

      Ciencia aplicada o tecnología: cuyo objetivo, por el contrario, es hacer posible la resolución de problemas de la vida cotidiana, los cuales, por regla general, son definidos por el investigador.

Hay quienes definen las ciencias aplicadas como “útiles” y las básicas, por el contrario, como “inútiles” a las que hay que prestar menos atención y en su lugar centrarse, casi de manera exclusiva, en la resolución de los problemas existentes. Sin embargo, si echamos un vistazo a la historia de la ciencia nos encontraremos que el conocimiento básico ha permitido, posteriormente, el desarrollo de aplicaciones muy destacables de gran valor.

Así, por ejemplo, los descubrimientos llevados a cabo en el famoso CERN (Organización Europea para la Investigación Nuclear) que en un principio pueden parecer puramente teóricos, al contrario de lo que mucha gente piensa, tienen aplicaciones tan cotidianas y fundamentales como Internet, ya que el primer sitio web fue concebido para los laboratorios de este centro. Continuando en el mundo de la informática, el CERN ha permitido el desarrollo del GRID, un sistema de computación distribuida que posibilita la distribución y acceso de centros de investigación en todo el mundo a los 15 millones de GB de datos que genera al año.

En el ámbito de la medicina, las aplicaciones prácticas que ha supuesto el desarrollo de aceleradores de partículas como el LHC (Gran Colisionador de Hadrones) del CERN ha facilitado el surgimiento de técnicas para el tratamiento de ciertas enfermedades como el cáncer; es el caso de la hadronterapia, cuya acción mediante el bombardeo de protones sobre el tumor favorece que esta terapia sea más precisa reduciendo los efectos secundarios. También se ha logrado el progreso en técnicas de diagnóstico por imagen no invasivas, como el PET (Tomografía por Emisión de Positrones), que permite medir la actividad metabólica del cuerpo humano.

También el campo medioambiental se beneficia de los avances del CERN puesto que los complejos sistemas electrónicos empleados en los aceleradores para la detección de partículas pueden aplicarse a otros entornos sometidos a radiación como las centrales nucleares.
El acelerador anterior al LHC, el LEP, se construyó empleando plásticos carentes de agentes halógenos o sulfurosos, los cuales, en caso de incendio, no generaban gases de alta toxicidad. Estos plásticos han sido adoptados, en la actualidad, de manera extendida por el sector industrial.

Como puedes comprobar las cantidades invertidas en este tipo de proyectos no son despilfarros en los que se derrocha el dinero por puro capricho, a pesar de lo que algunos en su desconocimiento quieren hacer creer, sino que permiten el avance hacia un futuro mejor en muchos y diversos aspectos de nuestra vida cotidiana.
En conclusión, si bien es cierto que algunos problemas requieren de atención inmediata, muchas soluciones no podrían ser halladas sin un amplio conocimiento teórico generado por la ciencia básica.

Fuentes: OpenStax College, Biology. OpenStax College. 30 May 2013.
               http://elgrancolisionadordehadroneshoy.blogspot.com.es/2014/06/aplicaciones-practicas-posibles-riesgos.html
               http://cern123.galeon.com/Beneficios.html


Tu opinión es importante

Estás invitado a enviar cualquier comentario o aportación que quieras realizar, gracias.

1.1. Nanotecnología. Introducción

0 comentarios
Es muy probable que te haya llamado la atención el término nanomedicina y es posible que ésta sea la primera vez que te encuentres con él. Puesto que, la nanomedicina es definida como la aplicación de la nanotecnología al campo médico, comenzaré esta sección dándote una introducción a esta disciplina, te mostraré las características únicas que presentan las tecnologías y materiales en la nanoescala y veremos una clasificación de los materiales más comunmente empleados en nanomedicina.

En primer lugar, debemos conocer qué es un nanómetro. El prefijo “nano” procede del griego νάνος que significa “enano”, en la actualidad es empleado por el Sistema Internacional de Unidades indicando la milmillonésima parte o, lo que es lo mismo, un factor de 10-9, y un nanómetro (nm) sería, en consecuencia, la milmillonésima parte de un metro. De esta manera, podemos concluir que la nanociencia/nanotecnología será aquella ciencia/ingeniería que estudia y opera con la materia en unos parámetros situados entre 1 y 100 nanómetros.

La idea y concepto de nanotecnología surgió de una conferencia del Premio Nobel Richard Feynman en la universidad de UCLA en 1.967, en la que presentó por primera vez, la posibilidad de manipular los átomos y moléculas.
La era de la nanotecnología, sin embargo, no se inició realmente hasta 1.981 al desarrollarse el denominado microscopio de efecto túnel (en inglés: Scanning tunneling microscope STM) que posibilita la observación de átomos individuales. Mediante el ojo humano los cuerpos más pequeños que podemos llegar a contemplar tienen una magnitud de un milímetro (milésima parte de un metro), como por ejemplo, un grano de arena o el canto de una moneda, una vez nos situamos por debajo de esta medida comenzamos a tener dificultades para distinguir los objetos.
Si a continuación dividimos el milímetro en mil partes nos situamos en la escala del micrómetro (μm), donde ya nos encontramos en el dominio de las bacterias (5-20 μm) o las células sanguíneas (6-10 μm), los cuales, para poder examinarlos precisaremos de la ayuda del microscopio óptico.
Si proseguimos disminuyendo las dimensiones y volvemos a reducir el micrómetro en otras mil partes llegamos a nuestro objetivo: el nanómetro, como mencionaba anteriormente, la milmillonésima parte de un metro. En esta escala se sitúan los virus (30-50 nm) o el ADN (2 nm). Sin embargo, para ser capaz de observar los átomos deberíamos disminuir un orden de magnitud más nuestra escala ya que éstos presentan unas dimensiones comprendidas entre 0,1 - 0,3 nm.
Escala de las cosas
Para hacerte una idea aproximada de lo que representa el tamaño real de un nanómetro, te daré un par de ejemplos de objetos de la vida diaria a esa escala; así, un pelo humano tendría un grosor de 50.000 - 100.000 nm y el grosor de una hoja de papel sería en torno a los 100.000 nm. Ahora, hagámoslo al revés, imagínate que te encogieses hasta un tamaño de 10nm, a esa escala un glóbulo rojo sería proporcionalmente como un estadio de fútbol, un pelo humano como la isla de Manhattan, el virus de la polio como una canasta de baloncesto y un átomo de hidrógeno como una pelota de ping-pong... ¿sorprendido/a?

En este momento, tal vez, te estés preguntando qué utilidad tiene el estudio a un nivel tan tremendamente pequeño, la respuesta la puedes hallar, por ejemplo, en tu teléfono móvil. La miniaturización ha convertido los antiguos móviles que debían ser transportados en maletines, en pequeños ordenadores con GPS, conexión a Internet, cámara fotográfica..., y que ahora pueden ser llevados junto a las llaves en tu bolsillo.
La nanotecnología ha logrado avances como las pantallas flexibles y en 3D, la proyección de hologramas, o dispositivos remotos de diagnóstico médico y de reconocimiento de la voz. La miniaturización a dimensión nanométrica ha permitido la disposición de millones de dispositivos electrónicos en un área de unos pocos milímetros.


Relación área-volumen

Esta relación es un parámetro de importancia primordial en la nanotecnología y en la miniaturización. De manera general, este ratio área-volumen aumenta a medida que disminuye las dimensiones de un objeto y viceversa.
Como consecuencia, conforme el tamaño de un material decrece la mayor parte de sus átomos, en comparación con los que encontramos en su interior, se van a situar en la superficie del mismo.
Si consideramos un cubo de sílice[1]  con un tamaño de 10 nm, mediante una serie de cálculos hallamos que cuenta con unos 50.000 átomos, de los cuales 680 se encuentran en cada una de las seis caras del mismo, multiplicando por seis obtenemos un total de 4.080 átomos en toda la superficie del cubo. Dividiendo esta última cantidad por el global de 50.000 átomos resulta que, aproximadamente, el 10% de ellos están localizados en la superficie.
Si realizamos las mismas operaciones pero en esta ocasión con un cubo de 10 cm2 y un grosor de 1 μm obtenemos que tan sólo el 0.03% de los átomos se ubican en la superficie.
Por tanto, con estos resultados deducimos que los nanomateriales presentan un mayor ratio área superficial por unidad de volumen en comparación con los de tamaño macroscópico y ello conduce a una propiedad muy interesante de los materiales a escala nanométrica: van a ser mucho más reactivos desde el punto de vista químico al ser capaces de catalizar reacciones más fácilmente, ¿por qué?, porque las moléculas en la superficie del nanomaterial presentan un estado energéticamente más inestable y esta inestabilidad origina que sean más reactivos que aquellos que no se encuentran en la nanoescala.

Las aplicaciones de los nanomateriales, gracias a sus peculiares propiedades fisicoquímicas, son infinitas, ya que pueden participar en procesos biológicos al interaccionar con las macromoléculas biológicas (lípidos, proteínas, carbohidratos y ácidos nucleicos). También pueden interactuar con iones o con moléculas de agua en tratamientos de desalación e incluso pueden tener aplicaciones tan diversas como el aislamiento de prendas térmicas o la administración de fármacos, a este último punto le dedicaré un amplio espacio en futuras entradas.
En la nanotecnología se produce, por tanto, un cambio de paradigma, ya que lo que realmente importa no es tanto de qué están hechos los materiales, sino qué pequeños sean.




[1] Compuesto de oxígeno y silicio que ordenado en una red tridimensional forma el cuarzo y sus variedades.

Fuentes: Introduction to Nanotechnology, Prof. Hossam Haick, Israel Institute of Technology.
              Rice University. Nanotechnology: The basics.
              http://www.quimicaviva.qb.fcen.uba.ar/v11n3/castro.html


Tu opinión es importante

Estás invitado a enviar cualquier comentario o aportación que quieras realizar, gracias.

1.1. Desarrollo de fármacos. Visión global

0 comentarios
Quisiera comenzar esta sección, realizando un breve resumen, a modo de introducción, de las diferentes fases de las que se compone el proceso de desarrollo de fármacos y las cuales estudiaremos con detenimiento y en mayor detalle a lo largo de las próximas semanas.
Los medicamentos son, sin duda, una de las sustancias con las que nos encontramos más familiarizados en nuestra vida diaria y que consumimos con mayor o menor asiduidad en función de las condiciones de salud en las que nos encontremos.
Sin embargo, son pocos los que conocen el proceso de fabricación de los mismos y el enorme esfuerzo requerido para que lleguen al mercado y en consecuencia, hasta nuestras manos.
Por todo el mundo existen miles de equipos de investigación analizando enfermedades y tratando de averiguar cuáles son las causas que las originan. Una vez que éstas han sido halladas, las compañías biofarmacéuticas inician el proceso de cómo poder actuar sobre ellas con el objetivo de frenarlas o incluso revertir su avance. Para tal fin, decenas de miles de compuestos son examinados, siendo el origen de los mismos:

      Natural: procedentes o bien de sustancias que ya existen en la naturaleza como la morfina, de microorganismos como la penicilina o bien de organismos marinos como la trabectedina con aplicación en procesos cancerosos.

      Semisintético: obtenidos en el laboratorio, como el ácido acetilsalicílico producido a partir del ácido salicílico de la corteza del sauce.
Proceso de obtención de la aspirina

       Sintético: obtenidos mediante síntesis química completa como es el caso del ibuprofeno.

       Biotecnológico: en los que se modifica el material genético de las bacterias de tal manera que produzcan sustancias de interés farmacéutico como anticuerpos o ciertas hormonas humanas (insulina).

Una vez elaborado el compuesto se pasa a la denominada fase preclínica en la que se evalúa la toxicidad y actividad de los mismos tanto en células como en animales de laboratorio mediante un largo y difícil procedimiento de cribado según lo establecido en las buenas prácticas de laboratorio (BPL o GLP en inglés). Posteriormente se seleccionan unos pocos candidatos, se recopila toda la información obtenida sobre ellos con la que la compañía farmacéutica se dirigirá a la agencia reguladora del medicamento (específica en cada país) con la finalidad de poder obtener los permisos para iniciar sus ensayos en seres humanos.
Si los permisos son concedidos, los candidatos se administrarán de acuerdo a las buenas prácticas clínicas (BPC o GCP) en los denominados ensayos clínicos, iniciando de esta manera la fase clínica del proceso. Estos ensayos se dividen en tres fases:

      La fase 1 donde se experimenta por primera vez en humanos, se trata de ensayos con un número reducido de voluntarios sanos que se centran en la seguridad del fármaco y su distribución en el organismo.

      La fase 2 se lleva a cabo a mayor escala ya con pacientes que presentan la patología para la cual el medicamento ha sido diseñado, focalizándose en la eficacia del mismo y las dosis de administración.

      La fase 3 se realiza sobre un gran número de personas, lo que posibilita ampliar el conocimiento adquirido en la fase 2 en una mayor variedad de individuos.
Fases en el desarrollo de fármacos
Si el ensayo clínico es exitoso, procedimiento que lleva de 6-7 años, la compañía biofarmacéutica presenta una nueva solicitud a la agencia reguladora conteniendo toda la información obtenida durante los ensayos, que será sometida a una revisión minuciosa, la cual se realizará cuidadosamente durante un largo período de tiempo.
Una vez evaluados todos los datos disponibles, se aprobarán exclusivamente aquellos fármacos que sean seguros y eficaces para su uso público.
Ya autorizado, el medicamento puede pasar a ser fabricado y comercializado, pero a lo largo de su fabricación, al igual que ocurría con las normas de las fases preclínica y clínica (GLP y GCP), la agencia reguladora también somete al fármaco a una serie de requisitos estrictos conocidos como buenas prácticas de fabricación (GMP en inglés).
Aunque el resultado final de todo este proceso pueda llegar a ser algo tan sencillo como tomarse una pastilla un par de veces al día con un vaso de agua, detrás se esconde un extenso y complejo proceso en el que se pueden llegar a ver implicadas cientos de personas, durante un período total de 12-15 años y exigiendo para ello una inversión de 1.000-2.000 millones de dólares.

Fuente: UTAustinX: UT.4.01x Take Your Medicine - The Impact of Drug Development.


Tu opinión es importante

Estás invitado a enviar cualquier comentario o aportación que quieras realizar, gracias.