sábado, 27 de noviembre de 2010

La energía nuclear es la energía que se libera espontánea o artificialmente en las reacciones nucleares. Sin embargo, este término engloba otro significado, el aprovechamiento de dicha energía para otros fines como, por ejemplo, la obtención de energía eléctrica, térmica y mecánica a partir de reacciones nucleares, y su aplicación, bien sea con fines pacíficos o bélicos.[1] Así, es común referirse a la energía nuclear no solo como el resultado de una reacción sino como un concepto más amplio que incluye los conocimientos y técnicas que permiten la utilización de esta energía por parte del ser humano.

Estas reacciones se dan en los núcleos de algunos isótopos de ciertos elementos químicos, siendo la más conocida la fisión del uranio-235 (235U), con la que funcionan los reactores nucleares, y la más habitual en la naturaleza, en el interior de las estrellas, la fusión del par deuterio-tritio (2H-3H). Sin embargo, para producir este tipo de energía aprovechando reacciones nucleares pueden ser utilizados muchos otros isótopos de varios elementos químicos, como el torio-232, el plutonio-239, el estroncio-90 o el polonio-210 (232Th, 239Pu, 90Sr, 210Po; respectivamente).

Existen varias disciplinas y técnicas que usan de base la energía nuclear y van desde la generación de electricidad en las centrales nucleares hasta las técnicas de análisis de datación arqueológica (arqueometría nuclear), la medicina nuclear usada en los hospitales, etc.

Los dos sistemas más investigados y trabajados para la obtención de energía aprovechable a partir de la energía nuclear de forma masiva son la fisión nuclear y la fusión nuclear. La energía nuclear puede transformarse de forma descontrolada, dando lugar al armamento nuclear; o controlada en reactores nucleares en los que se produce energía eléctrica, energía mecánica o energía térmica. Tanto los materiales usados como el diseño de las instalaciones son completamente diferentes en cada caso.

Otra técnica, empleada principalmente en pilas de mucha duración para sistemas que requieren poco consumo eléctrico, es la utilización de generadores termoeléctricos de radioisótopos (GTR, o RTG en inglés), en los que se aprovechan los distintos modos de desintegración para generar electricidad en sistemas de termopares a partir del calor transferido por una fuente radiactiva.

La energía desprendida en esos procesos nucleares suele aparecer en forma de partículas subatómicas en movimiento. Esas partículas, al frenarse en la materia que las rodea, producen energía térmica. Esta energía térmica se transforma en energía mecánica utilizando motores de combustión externa, como las turbinas de vapor. Dicha energía mecánica puede ser empleada en el transporte, como por ejemplo en los buques nucleares; o para la generación de energía eléctrica en centrales nucleares.

La principal característica de este tipo de energía es la alta calidad de la energía que puede producirse por unidad de masa de material utilizado en comparación con cualquier otro tipo de energía conocida por el ser humano, pero sorprende la poca eficiencia del proceso, ya que se desaprovecha entre un 86 y 92% de la energía que se libera.

La energía mareomotriz es la que se obtiene aprovechando las mareas, es decir, la diferencia de altura media de los mares según la posición relativa de la Tierra y la Luna, y que resulta de la atracción gravitatoria de esta última y del Sol sobre las masas de agua de los mares. Esta diferencia de alturas puede aprovecharse poniendo partes móviles al proceso natural de ascenso o descenso de las aguas, junto con mecanismos de canalización y depósito, para obtener movimiento en un eje.

Mediante su acoplamiento a un alternador se puede utilizar el sistema para la generación de electricidad, transformando así la energía mareomotriz en energía eléctrica, una forma energética más útil y aprovechable. Es un tipo de energía renovable limpia.

La energía mareomotriz tiene la cualidad de ser renovable, en tanto que la fuente de energía primaria no se agota por su explotación, y es limpia, ya que en la transformación energética no se producen subproductos contaminantes gaseosos, líquidos o sólidos. Sin embargo, la relación entre la cantidad de energía que se puede obtener con los medios actuales y el coste económico y ambiental de instalar los dispositivos para su proceso han impedido una proliferación notable de este tipo de energía.

Otras formas de extraer energía del mar son: las olas, la energía undimotriz; de la diferencia de temperatura entre la superficie y las aguas profundas del océano, el gradiente térmico oceánico; de la salinidad; de las corrientes submarinas o la eólica marina

En España, el Gobierno de Cantabria y el Instituto para la Diversificación y Ahorro Energético (IDAE) quieren crear un centro de I+D+i en la costa de Santoña. La planta podría atender al consumo doméstico anual de unos 2.500 hogares.

La energía de la biomasa es un tipo de energía renovable procedente del aprovechamiento de la materia orgánica e inorgánica formada en algún proceso biológico o mecánico, generalmente, de las sustancias que constituyen los seres vivos (plantas, ser humano, animales, entre otros), o sus restos y residuos. El aprovechamiento de la energía de la biomasa se hace directamente (por ejemplo, por combustión), o por transformación en otras sustancias que pueden ser aprovechadas más tarde como combustibles o alimentos.[1]

No se considera como energía de la biomasa, aunque podría incluirse en un sentido amplio, la energía contenida en los alimentos suministrados a animales y personas, la cual es convertida en energía en estos organismos en un porcentaje elevado, en el proceso de la respiración celular.
Origen de la energía de la biomasa

Una parte de la energía que llega a la Tierra procedente del Sol es absorbida por las plantas, a través de la fotosíntesis, y convertida en materia orgánica con un mayor contenido energético que las sustancias minerales. De este modo, cada año se producen 2·1011 toneladas de materia orgánica seca, con un contenido de energía equivalente a 68000 millones de tep (toneladas equivalentes de petróleo), que equivale aproximadamente a cinco veces la demanda energética mundial.[2] A pesar de ello, su enorme dispersión hace que sólo se aproveche una mínima parte de la misma. Entre las formas de biomasa más destacables por su aprovechamiento energético destacan los combustibles energéticos (caña de azúcar, remolacha, etc.) y los residuos (agrícolas, forestales, ganaderos, urbanos, lodos de depuradora, etc.)

Se distinguen varios tipos de biomasa, según la procedencia de las sustancias empleadas, como la biomasa vegetal, relacionada con las plantas en general (troncos, ramas, tallos, frutos, restos y residuos vegetales,etc.); y la biomasa animal, obtenida a partir de sustancias de origen animal (grasas, restos, excrementos, etc.).

Otra formas de clasificar los tipos de biomasa se realiza a partir del material empleado como fuente de energía:

Natural

Es aquella que abarca los bosques, árboles, matorrales, plantas de cultivo, etc. Por ejemplo, en las explotaciones forestales se producen una serie de residuos o subproductos, con un alto poder energético, que no sirven para la fabricación de muebles ni papel, como son las hojas y ramas pequeñas, y que se pueden aprovechar como fuente energética.

Los residuos de la madera se pueden aprovechar para producir energía. De la misma manera, se pueden utilizar como combustible los restos de las industrias de transformación de la madera, como los aserraderos, carpinterías o fábricas de mueble y otros materiales más. Los “cultivos energéticos” son otra forma de biomasa consistente en cultivos o plantaciones que se hacen con fines exclusivamente energéticos, es decir, para aprovechar su contenido e energía. Entre este tipo de cultivos tenemos, por ejemplo, árboles como los chopos u otras plantas específicas. A veces, no se suelen incluir en la energía de la biomasa que queda restringida a la que se obtiene de modo secundario a partir de residuos, restos, etc.

Los biocarburantes son combustibles líquidos que proceden de materias agrícolas ricas en azúcares, como los cereales (bioetanol) o de grasas vegetales, como semillas de colza o girasol de calabaza (biodiésel). Este tipo también puede denominarse como “cultivos energéticos”. El bioetanol va dirigido a la sustitución de la gasolina; y el [biodiesel] trata de sustituir al gasóleo. Se puede decir que ambos constituyen una alternativa a los combustibles tradicionales del sector del transporte, que derivan del petróleo.

Residual

Es aquella que corresponde a los residuos de paja, serrín, estiércol, residuos de mataderos, basuras urbanas, etc.

El aprovechamiento energético de la biomasa residual, por ejemplo, supone la obtención de energía a partir de los residuos de madera y los residuos agrícolas (paja, cáscaras, huesos...), las basuras urbanas, los residuos ganaderos, como purines o estiércoles, los lodos de depuradora, etc. Los residuos agrícolas también pueden aprovecharse energéticamente y existen plantas de aprovechamiento energético de la paja residual de los campos que no se utiliza para forraje de los animales.

Los residuos ganaderos, por otro lado, también son una fuente de energía. Los purines y estiércoles de las granjas de vacas y cerdos pueden valorizarse energéticamente por ejemplo, aprovechando el gas (o biogás) que se produce a partir de ellos, para producir calor y electricidad. Y de la misma forma puede aprovecharse la energía de las basuras urbanas, porque también producen un gas o biogas combustible, al fermentar los residuos orgánicos, que se puede captar y se puede aprovechar energéticamente produciendo energía eléctrica y calor en los que se puede denominar como plantas de valorización energética de biogas de vertedero.

Fósil

Es aquella que procede de la biomasa obtenida hace millones de años y que ha sufrido grandes procesos de transformación hasta la formación de sustancias de gran contenido energético como el carbón, el petróleo, o el gas natural, etc. No es un tipo de energía renovable, por lo que no se considera como energía de la biomasa, sino que se incluye entre las energías fósiles.
Una central hidroeléctrica es aquella que utiliza energía hidráulica para la generación de energía eléctrica. Son el resultado actual de la evolución de los antiguos molinos que aprovechaban la corriente de los ríos para mover una rueda.

En general estas centrales aprovechan la energía potencial que posee la masa de agua de un cauce natural en virtud de un desnivel, también conocido como salto geodésico. El agua en su caída entre dos niveles del cauce se hace pasar por una turbina hidráulica la cual trasmite la energía a un generador donde se transforma en energía eléctrica.

Caracteristicas de centrales hidroelectricas

Las dos características principales de una central hidroeléctrica, desde el punto de vista de su capacidad de generación de electricidad son:

* La potencia, que está en función del desnivel existente entre el nivel medio del embalse y el nivel medio de las aguas debajo de la central, y del caudal máximo turbinable, además de las características de las turbinas y de los generadores usados en la transformación.
* La energía garantizada en un lapso de tiempo determinado, generalmente un año, que está en función del volumen útil del embalse, y de la potencia instalada.

La potencia de una central puede variar desde unos pocos MW (megavatios), como en el caso de las minicentrales hidroeléctricas, hasta 14.000 MW como en Paraguay y Brasil donde se encuentra la segunda mayor central hidroeléctrica del mundo (la mayor es la Presa de las Tres Gargantas, en China, con una potencia de 22.500 MW), la Itaipú que tiene 20 turbinas de 700 MW cada una.

Las centrales hidroeléctricas y las centrales térmicas (que usan combustibles fósiles) producen la energía eléctrica de una manera muy similar. En ambos casos la fuente de energía es usada para impulsar una turbina que hace girar un generador eléctrico, que es el que produce la electricidad. Una Central térmica usa calor para, a partir de agua, producir el vapor que acciona las paletas de la turbina, en contraste con la planta hidroeléctrica, la cual usa la fuerza del agua directamente para accionar la turbina.

Un ejemplo de estas es el Proyecto Hidroeléctrico Palomino[1] , ubicado en las inmediaciones del municipio de Bohechio, Provincia San Juan, República Dominicana, el proyecto hidroeléctrico Palomino le ahorrará al País alrededor de 400 mil barriles de petróleo al año que, a la tasa actual, representa 60 millones de dólares por ahorro de la factura petrolera.

Centrales hidroeléctricas

La energía hidroeléctrica es una de las más rentables. El costo inicial de construcción es elevado, pero sus gastos de explotación y mantenimiento son relativamente bajos. Aún así tienen unos condicionantes:

Las condiciones pluviométricas medias del año deben ser favorables

El lugar de emplazamiento está supeditado a las características y configuración del terreno por el que discurre la corriente de agua.

El funcionamiento básico consiste en aprovechar la energía cinética del agua almacenada, de modo que accione las turbinas hidráulicas.

En el aprovechamiento de la energía hidráulica influyen dos factores: el caudal y la altura del salto para aprovechar mejor el agua llevada por los ríos, se construyen presas para regular el caudal en función de la época del año. La presa sirve también para aumentar el salto.

Otra manera de incrementar la altura del salto es derivando el agua por un canal de pendiente pequeña (menor que la del cauce del río), consiguiendo un desnivel mayor entre el canal y el cauce del río.

El agua del canal o de la presa penetra en la tubería donde se efectúa el salto. Su energía potencial se convierte en energía cinética llegando a las salas de máquinas, que albergan a las turbinas hidráulicas y a los generadores eléctricos. El agua al llegar a la turbina la hace girar sobre su eje, que arrastra en su movimiento al generador eléctrico.

La tecnología de las principales instalaciones se ha mantenido igual durante el siglo XX.

Las turbinas pueden ser de varios tipos, según los tipos de centrales: Pelton (saltos grandes y caudales pequeños), Francis (salto más reducido y mayor caudal), Kaplan (salto muy pequeño y caudal muy grande) y de hélice.

Las centrales dependen de un gran embalse de agua contenido por una presa. El caudal de agua se controla y se puede mantener casi constante. El agua se transporta por unos conductos o tuberías forzadas, controlados con válvulas para adecuar el flujo de agua por las turbinas con respecto a la demanda de electricidad. El agua sale por los canales de descarga.

El agua es devuelta al río en las condiciones en que se tomó, de modo que se puede volver a utilizar por otra central situada aguas abajo o para consumo.

La utilización de presas tiene varios inconvenientes. Muchas veces se inundan terrenos fértiles y en ocasiones poblaciones que es preciso evacuar. La fauna piscícola puede ser alterada si no se toman medidas que la protejan.

Se mide en metros o hectómetros cúbicos. Los embalses tienen pérdidas debidas a causas naturales como evaporación o filtraciones.

Conceptos

Nivel: horizontalidad constante de la superficie de un terreno, o de la superficie libre de los líquidos.

Cota: valor de la altura a la que se encuentra una superficie respecto del nivel del mar.

Caudal: cantidad de líquido, expresada en metros cúbicos o en litros, que circula a través de cada una de las secciones de una conducción, abierta o cerrada en la unidad de tiempo.

Salto de agua: paso brusco o caída de masas de agua desde un nivel a otro inferior. Numéricamente se identifica por la diferencia de cota que se da en metros.

Embalse: resulta de almacenar todas las aguas que afluyen del territorio sobre el que está enclavado. Las dimensiones del embalse dependen de los caudales aportados por el río.
Su capacidad útil es toda aquélla agua embalsada por encima de la toma de la central. La capacidad total incluye el agua no utilizable.

Tipos de centrales hidroeléctricas

Clasificación

Se pueden clasificar según varios argumentos, como características técnicas, peculiaridades del asentamiento y condiciones de funcionamiento.

En primer lugar hay que distinguir las que utilizan el agua según discurre normalmente por el cauce de un río, y aquellas otras a las que ésta llega, convenientemente regulada, desde un lago o pantano. Se denominan:

Centrales de Agua Fluente, Centrales de agua embalsada, Centrales de Regulación, Centrales de Bombeo.

Según la altura del salto de agua o desnivel existente:

Centrales de Alta Presión, Centrales de Media Presión, Centrales de Baja Presión

Centrales de Agua Fluente:

Llamadas también de agua corriente, o de agua fluyente. Se construyen en los lugares en que la energía hidráulica debe ser utilizada en el instante en que se dispone de ella, para accionar las turbinas hidráulicas.

No cuentan prácticamente con reserva de agua, oscilando el caudal suministrado según las estaciones del año. En la temporada de precipitaciones abundantes (de aguas altas), desarrollan su potencia máxima, y dejan pasar el agua excedente. Durante la época seca (aguas bajas), la potencia disminuye en función del caudal, llegando a ser casi nulo en algunos ríos en la época del estío.

Su construcción se realiza mediante presas sobre el cauce de los ríos, para mantener un desnivel constante en la corriente de agua.

Centrales de agua embalsada:

Se alimenta del agua de grandes lagos o de pantanos artificiales (embalses), conseguidos mediante la construcción de presas. El embalse es capaz de almacenar los caudales de los ríos afluentes, llegando a elevados porcentajes de captación de agua en ocasiones. Este agua es utilizada según la demanda, a través de conductos que la encauzan hacia las turbinas.

Centrales de Regulación:

Prestan un gran servicio en situaciones de bajos caudales, ya que el almacenamiento es continuo, regulando de modo conveniente para la producción. Se adaptan bien para cubrir horas punta de consumo.

Centrales de Bombeo:

Se denominan "de acumulación". Acumulan caudal mediante bombeo, con lo que su actuación consiste en acumular energía potencial. Pueden ser de dos tipos, de turbina y bomba, o de turbina reversible.

La alimentación del generador que realiza el bombeo desde aguas abajo, se puede realizar desde otra central hidráulica, térmica o nuclear.

No es una solución de alto rendimiento, pero se puede admitir como suficientemente rentable, ya que se compensan las pérdidas de agua o combustible.

Centrales de Alta Presión:

Aquí se incluyen aquellas centrales en las que el salto hidráulico es superior a los 200 metros de altura. Los caudales desalojados son relativamente pequeños, 20 m3/s por máquina.

Situadas en zonas de alta montaña, y aprovechan el agua de torrentes, por medio de conducciones de gran longitud.

Centrales de Media Presión:

Aquellas que poseen saltos hidráulicos de entre 200-20 metros aproximadamente. Utilizan caudales de 200m3/s por turbina.

En valles de media montaña, dependen de embalses.

Centrales de Baja Presión:

Sus saltos hidráulicos son inferiores a 20 metros. Cada máquina se alimenta de un caudal que puede superar los 300m3/s.

La energía hidráulica se basa en aprovechar la caída del agua desde cierta altura. La energía potencial, durante la caída, se convierte en cinética. El agua pasa por las turbinas a gran velocidad, provocando un movimiento de rotación que finalmente se transforma en energía eléctrica por medio de los generadores.

Es un recurso natural disponible en las zonas que presentan suficiente cantidad de agua y, una vez utilizada, es devuelta río abajo. Su desarrollo requiere construir pantanos, presas, canales de derivación y la instalación de grandes turbinas y equipamiento para generar electricidad. Todo ello implica la inversión de grandes sumas de dinero, por lo que no resulta competitiva en regiones donde el carbón o el petróleo son baratos. Sin embargo, el peso de las consideraciones medioambientales y el bajo mantenimiento que precisan una vez estén en funcionamiento centran la atención en esta fuente de energía.



La fuerza del agua ha sido utilizada durante mucho tiempo para moler trigo, pero fue con la Revolución Industrial, y especialmente a partir del siglo XIX, cuando comenzó a tener gran importancia con la aparición de las ruedas hidráulicas para la producción de energía eléctrica. Poco a poco la demanda de electricidad fue en aumento. El bajo caudal del verano y otoño, unido a los hielos del invierno hacían necesaria la construcción de grandes presas de contención, por lo que las ruedas hidráulicas fueron sustituidas por máquinas de vapor en cuanto se pudo disponer de carbón.

La primera central hidroeléctrica moderna se construyó en 1880 en Northumberland, Gran Bretaña. El renacimiento de la energía hidráulica se produjo por el desarrollo del generador eléctrico, seguido del perfeccionamiento de la turbina hidráulica y debido al aumento de la demanda de electricidad a principios del siglo XX. En 1920 las centrales hidroeléctricas generaban ya una parte importante de la producción total de electricidad.

A principios de la década de los noventa, las primeras potencias productoras de energía hidroeléctrica eran Canadá y Estados Unidos. Canadá obtiene un 60% de su electricidad de centrales hidráulicas.

En todo el mundo, este tipo de energía representa aproximadamente la cuarta parte de la producción total de electricidad, y su importancia sigue en aumento. Los países en los que constituye fuente de electricidad más importante son Noruega (99%), Zaire (97%) y Brasil (96%). La central de Itaipú, en el río Paraná, está situada entre Brasil y Paraguay, se inauguró en 1982 y tiene la mayor capacidad generadora del mundo. Como referencia, la presa Grand Coulee, en Estados Unidos, genera unos 6.500 Mw y es una de las más grandes.

En algunos países se han instalado centrales pequeñas, con capacidad para generar entre un kilovatio y un megavatio. En muchas regiones de China, por ejemplo, estas pequeñas presas son la principal fuente de electricidad. Otras naciones en vías de desarrollo están utilizando este sistema con buenos resultados.

Se puede transformar a muy diferentes escalas, existen desde hace siglos pequeñas explotaciones en las que la corriente de un río mueve un rotor de palas y genera un movimiento aplicado, por ejemplo, en molinos rurales. Sin embargo, la utilización más significativa la constituyen las centrales hidroeléctricas de represas, aunque estas últimas no son consideradas formas de energía verde por el alto impacto ambiental que producen.

Cuando el Sol calienta la Tierra, además de generar corrientes de aire, hace que el agua de los mares, principalmente, se evapore y ascienda por el aire y se mueva hacia las regiones montañosas, para luego caer en forma de lluvia. Esta agua se puede colectar y retener mediante presas. Parte del agua almacenada se deja salir para que se mueva los álabes de una turbina engranada con un generador de energía eléctrica.

La energía solar es la energía que proporciona el sol a través de sus radiaciones y que se difunde, directamente o de modo difuso, en la atmósfera.

energiasolar1 Imagen: afloresm

En la Tierra, hogar de la humanidad y tercer planeta del sistema solar, la energía solar es el origen del ciclo del agua y del viento. El reino vegetal, del que depende el reino animal, también utiliza la energía solar transformándola en energía química a través de la fotosíntesis. Con excepción de la energía nuclear, de la energía geotérmica y de la energía mareomotriz (proveniente del movimiento del agua creado por las mareas), la energía solar es la fuente de todas las energías sobre la Tierra.

energiasolar2 Imagen: osinaref

Gracias a diversos procesos, la energía solar se puede transformar en otra forma de energía útil para la actividad humana: en calor, en energía eléctrica o en biomasa. Por ende, el término “energía solar” se utiliza, con frecuencia, para describir la electricidad o el calor obtenidos a partir de ella.

La energía eólica es una forma indirecta de energía solar, ya que son las diferencias de temperaturas y de presiones en la atmósfera, provocadas por la absorción de la radiación solar, las que ponen al viento en movimiento.

Energia eolica Energia eolica Imagen: rialso

Hace miles de años que se utiliza la energía del viento (eólica). Los persas fueron los pioneros de los molinos de viento. La energía eólica- o el aerogenerador de hoy- ya no se parece tanto al modelo de estos antepasados que la utilizaban para moler trigo. Esta energía eólica recibe su nombre de Aeolus (griego antiguo Αἴολος / Aiolos), nombre del dios del viento en la antigua Grecia.

molinos de viento imagen: vituh2001

El aerogenerador es un generador de corriente eléctrica a partir de la energía cinética del viento. Esta imagen, por ejemplo, corresponde a un campo de aerogeneradores en Pozo Izquierdo, Gran Canaria.

La energía eólica es, en la actualidad, una energía limpia y también la menos costosa de producir, lo que explica el fuerte entusiasmo por esta tecnología.

Existen diferentes tipos de energía eólica:
eolicareciclable

sábado, 24 de julio de 2010

modelo de pequeña señal del bjt

La figura se representa el modelo de pequeña señal de un FET constituido por dos parámetros: gm, o factor de admitancia, y rd, o resistencia de salida o resistencia de drenador. Esta notación es la más extendida para describir estos parámetros, aunque algunos fabricantes utilizan la notación en parámetros {Y} o {G}, denominando yfs o gfs a gm, e yos−1 o gos−1 o ross a rd.
Estos parámetros dependen de la corriente de polarización del transistor (ID), y el fabricante proporciona las curvas que permiten extraer sus valores en diferentes condiciones de polarización. A continuación se describe con más detalle los paráetros gm y rd.


hola

La presencia de condensadores en un amplificador hace que la ganancia de éste dependa de la frecuencia.

Los condensadores de acoplo y desacoplo limitan su respuesta a baja frecuencia, y los parámetros de pequeña señal de los transistores que dependen de la frecuencia así como las capacidades parásitas asociadas a los dispositivos activos limitan su respuesta a alta frecuencia. Además un incremento en el número de etapas amplificadoras conectadas en cascada también limitan a su vez la respuesta a bajas y altas frecuencias.


Figura 3 .1 . Ganancia de un amplificador frente a la frecuencia para a ) amplificador general, b ) amplificador sin condensadores de acoplo y desacoplo (amplificador directamente acoplado).
En la figura 3 .1 .a se muestra la ganancia de un amplificador en función de la frecuencia. Claramente se identifican tres zonas: frecuencia bajas, frecuencias medias y frecuencias altas. A frecuencias bajas, el efecto de los condensadores de acoplo y desacoplo es importante. A frecuencias medias, esos condensadores presentan una impedancia nula pudiéndose ser sustituidos por un cortocircuito. A frecuencias altas, las limitaciones en frecuencia de los dispositivos activos condicionan la frecuencia máxima de operación del amplificador. Esas zonas están definidas por dos parámetros: frecuencia de corte inferior o ƒL y frecuencia de corte superior o ƒH. Ambos parámetros se definen como la frecuencia a la cual la ganancia del amplificador decae en 1/ 2 o 0.707 con respecto a la ganancia del amplificador a frecuencias medias. El ancho de banda del amplificador o bandwidth (BW) se define como
BW H L= f − f (3 .4)
En la figura 3 .1 .b se indica la respuesta en frecuencia de un amplificador sin condensadores de acoplo y desacoplo. En este caso el amplificador solo tiene frecuencia de corte superior al ser ƒL=0 con capacidad de amplificar señales DC.

Modelo de parámetro h

Otro modelo comúnmente usado para analizar los circuitos BJT es el modelo de parámetro h. Este modelo es un circuito equivalente a un transistor de unión bipolar y permite un fácil análisis del comportamiento del circuito, y puede ser usado para desarrollar modelos más exactos. Como se muestra, el término "x" en el modelo representa el terminal del BJT dependiendo de la topología usada. Para el modo emisor-común los varios símbolos de la imagen toman los valores específicos de:

  • x = 'e' debido a que es una configuración emisor común.
  • Terminal 1 = Base
  • Terminal 2 = Colector
  • Terminal 3 = Emisor
  • iin = Corriente de Base (ib)
  • io = Corriente de Colector (ic)
  • Vin = Tensión Base-Emisor (VBE)
  • Vo = Tensión Colector-Emisor (VCE)

Y los parámetros h están dados por:

  • hix = hie - La impedancia de entrada del transistor (correspondiente a la resistencia del emisor re).
  • hrx = hre - Representa la dependencia de la curva IBVBE del transistor en el valor de VCE. Es usualmente un valor muy pequeño y es generalmente despreciado (se considera cero).
  • hfx = hfe - La ganancia de corriente del transistor. Este parámetro es generalmente referido como hFE o como la ganancia de corriente continua (βDC) in en las hojas de datos.
  • hox = hoe - La impedancia de salida del transistor. Este término es usualmente especificado como una admitancia, debiendo ser invertido para convertirlo a impedancia.

Como se ve, los parámetros h tienen subíndices en minúscula y por ende representan que las condiciones de análisis del circuito son con corrientes alternas. Para condiciones de corriente continua estos subíndices son expresados en mayúsculas. Para la topología emisor común, un aproximado del modelo de parámetro h es comúnmente utilizado ya que simplifica el análisis del circuito. Por esto los parámetros hoe y hre son ignorados (son tomados como infinito y cero, respectivamente). También debe notarse que el modelo de parámetro h es sólo aplicable al análisis de señales débiles de bajas frecuencias. Para análisis de señales de altas frecuencias este modelo no es utilizado debido a que ignora las capacitancias entre electrodos que entran en juego a altas frecuencias.

Las corrientes continuas en el emisor y el colector en operación normal se hallan por:

I_\mathrm{E} = I_\mathrm{ES} \left(e^{\frac{V_\mathrm{BE}}{V_\mathrm{T}}} - 1\right)
I_\mathrm{C} = \alpha_T I_\mathrm{ES} \left(e^{\frac{V_\mathrm{BE}}{V_\mathrm{T}}} - 1\right)

La corriente interna de base es principalmente por difusión y

J_p(Base) = \frac{q D_p p_{bo}}{W} \left[e^{\frac{V_{EB}}{V_T}}\right]

Dónde:

  • IE es la corriente de emisor.
  • IC es la corriente de colector.
  • αT es la ganancia de corriente directa en configuración base común. (de 0.98 a 0.998)
  • IES es la corriente de saturación inversa del diodo base-emisor (en el orden de 10−15 a 10−12 amperios)
  • VT es el voltaje térmico kT / q (aproximadamente 26 mV a temperatura ambiente ≈ 300 K).
  • VBE es la tensión base emisor.
  • W es el ancho de la base.

La corriente de colector es ligeramente menor a la corriente de emisor, debido a que el valor de αT es muy cercano a 1,0. En el transistor de unión bipolar una pequeña variación de la corriente base-emisor genera un gran cambio en la corriente colector-emisor. La relación entre la corriente colector-emisor con la base-emisor es llamada ganancia, β o hFE. Un valor de β de 100 es típico para pequeños transistores bipolares. En una configuración típica, una señal de corriente muy débil circula a través de la unión base-emisor para controlar la corriente entre emisor-colector. β está relacionada con α a través de las siguientes relaciones:

\alpha_T = \frac{I_\mathrm{C}}{I_\mathrm{E}}
\beta_F = \frac{I_\mathrm{C}}{I_\mathrm{B}}
\beta_F = \frac{\alpha_T}{1 - \alpha_T}\iff \alpha_T = \frac{\beta_F}{\beta_F+1}

Eficiencia del emisor: \eta = \frac{J_p(Base)}{J_E}

Otras ecuaciones son usadas para describir las tres corrientes en cualquier región del transistor están expresadas más abajo. Estas ecuaciones están basadas en el modelo de transporte de un transistor de unión bipolar.

 i_\mathrm{C} = I_\mathrm{S}\left(e^{\frac{V_\mathrm{BE}}{V_\mathrm{T}}} - e^{\frac{V_\mathrm{BC}}{V_\mathrm{T}}}\right) - \frac{I_\mathrm{S}}{\beta_\mathrm{R}}\left(e^{\frac{V_\mathrm{BC}}{V_\mathrm{T}}} - 1\right)

 i_\mathrm{B} = \frac{I_\mathrm{S}}{\beta_\mathrm{F}}\left(e^{\frac{V_\mathrm{BE}}{V_\mathrm{T}}} - 1\right) + \frac{I_\mathrm{S}}{\beta_\mathrm{R}}\left(e^{\frac{V_\mathrm{BC}}{V_\mathrm{T}}} - 1\right)

 i_\mathrm{E} = I_\mathrm{S}\left(e^{\frac{V_\mathrm{BE}}{V_\mathrm{T}}} - e^{\frac{V_\mathrm{BC}}{V_\mathrm{T}}}\right) + \frac{I_\mathrm{S}}{\beta_\mathrm{F}}\left(e^{\frac{V_\mathrm{BE}}{V_\mathrm{T}}} - 1\right)

Dónde:

  • iC es la corriente de colector.
  • iB es la corriente de base.
  • iE es la corriente de emisor.
  • βF es la ganancia activa en emisor común (de 20 a 500)
  • βR es la ganancia inversa en emisor común (de 0 a 20)
  • IS es la corriente de saturación inversa (en el orden de 10−15 a 10−12 amperios)
  • VT es el voltaje térmico kT / q (aproximadamente 26 mV a temperatura ambiente ≈ 300 K).
  • VBE es la tensión base-emisor.
  • VBC es la tensión base-colector.
Los transistores de unión bipolar tienen diferentes regiones operativas, definidas principalmente por la forma en que son polarizados:

* Región activa:

Cuando un transistor no está ni en su región de saturación ni en la región de corte entonces está en una región intermedia, la región activa. En esta región la corriente de colector (Ic) depende principalmente de la corriente de base (Ib), de β (ganancia de corriente, es un dato del fabricante) y de las resistencias que se encuentren conectadas en el colector y emisor. Esta región es la más importante si lo que se desea es utilizar el transistor como un amplificador de señal.

* Región inversa:

Al invertir las condiciones de polaridad del funcionamiento en modo activo, el transistor bipolar entra en funcionamiento en modo inverso. En este modo, las regiones del colector y emisor intercambian roles. Debido a que la mayoría de los BJT son diseñados para maximizar la ganancia de corriente en modo activo, el parámetro beta en modo inverso es drásticamente menor al presente en modo activo.

* Región de corte: Un transistor está en corte cuando:

corrientedecolector = corrientedeemisor = 0,(Ic = Ie = 0)

En este caso el voltaje entre el colector y el emisor del transistor es el voltaje de alimentación del circuito. (como no hay corriente circulando, no hay caída de voltaje, ver Ley de Ohm). Este caso normalmente se presenta cuando la corriente de base = 0 (Ib =0)

* Región de saturación: Un transistor está saturado cuando:

corrientedecolector = corrientedeemisor = corrientemaxima,(Ic = Ie = Imaxima)

En este caso la magnitud de la corriente depende del voltaje de alimentación del circuito y de las resistencias conectadas en el colector o el emisor o en ambos, ver ley de Ohm. Este caso normalmente se presenta cuando la corriente de base es lo suficientemente grande como para inducir una corriente de colector β veces más grande. (recordar que Ic = β * Ib) Justificar a ambos lados
El transistor bipolar de heterounión (TBH) es una mejora del BJT que puede manejar señales de muy altas frecuencias, de hasta varios cientos de GHz. Es un dispositivo muy común hoy en día en circuitos ultrarrápidos, generalmente en sistemas de radiofrecuencia.

Los transistores de heterojuntura tienen diferentes semiconductores para los elementos del transistor. Usualmente el emisor está compuesto por una banda de material más larga que la base. Esto ayuda a reducir la inyección de portadores minoritarios desde la base cuando la unión emisor-base está polarizada en directa y esto aumenta la eficiencia de la inyección del emisor. La inyección de portadores mejorada en la base permite que esta pueda tener un mayor nivel de dopaje, lo que resulta en una menor resistencia. Con un transistor de unión convencional, también conocido como transistor bipolar de homojuntura, la eficiencia de la inyección de portadores desde el emisor hacia la base está principalmente determinada por el nivel de dopaje entre el emisor y la base. Debido a que la base debe estar ligeramente dopada para permitir una alta eficiencia de inyección de portadores, su resistencia es relativamente alta.

Un transistor de unión bipolar consiste en tres regiones semiconductoras dopadas: la región del emisor, la región de la base y la región del colector. Estas regiones son, respectivamente, tipo P, tipo N y tipo P en un PNP, y tipo N, tipo P, y tipo N en un transistor NPN. Cada región del semiconductor está conectada a un terminal, denominado emisor (E), base (B) o colector (C), según corresponda.

Corte transversal simplificado de un transistor de unión bipolar NPN. Donde se puede apreciar como la unión base-colector es mucho más amplia que la base-emisor.

La base está físicamente localizada entre el emisor y el colector y está compuesta de material semiconductor ligeramente dopado y de alta resistividad. El colector rodea la región del emisor, haciendo casi imposible para los electrones inyectados en la región de la base escapar de ser colectados, lo que hace que el valor resultante de α se acerque mucho hacia la unidad, y por eso, otorgarle al transistor un gran β.

El transistor de unión bipolar, a diferencia de otros transistores, no es usualmente un dispositivo simétrico. Esto significa que intercambiando el colector y el emisor hacen que el transistor deje de funcionar en modo activo y comience a funcionar en modo inverso. Debido a que la estructura interna del transistor está usualmente optimizada para funcionar en modo activo, intercambiar el colector con el emisor hacen que los valores de α y β en modo inverso sean mucho más pequeños que los que se podrían obtener en modo activo; muchas veces el valor de α en modo inverso es menor a 0.5. La falta de simetría es principalmente debido a las tasas de dopaje entre el emisor y el colector. El emisor está altamente dopado , mientras que el colector está ligeramente dopado , permitiendo que pueda ser aplicada una gran tensión de reversa en la unión colector-base antes de que esta colapse. La unión colector-base está polarizada en inversa durante la operación normal. La razón por la cual el emisor está altamente dopado es para aumentar la eficiencia de inyección de portadores del emisor: la tasa de portadores inyectados por el emisor en relación con aquellos inyectados por la base. Para una gran ganancia de corriente, la mayoría de los portadores inyectados en la unión base-emisor deben provenir del emisor.

El bajo desempeño de los transistores bipolares laterales muchas veces utilizados en procesos CMOS es debido a que son diseñados simétricamente, lo que significa que no hay diferencia alguna entre la operación en modo activo y modo inverso.

Pequeños cambios en la tensión aplicada entre los terminales base-emisor genera que la corriente que circula entre el emisor y el colector cambie significativamente. Este efecto puede ser utilizado para amplificar la tensión o corriente de entrada. Los BJT pueden ser pensados como fuentes de corriente controladas por tensión, pero son caracterizados más simplemente como fuentes de corriente controladas por corriente, o por amplificadores de corriente, debido a la baja impedancia de la base.

Los primeros transistores fueron fabricados de germanio , pero la mayoría de los BJT modernos están compuestos de silicio Actualmente, una pequeña parte de éstos (los transistores bipolares de heterojuntura) están hechos de arseniuro de galio especialmente utilizados en aplicaciones de alta velocidad.

Funcionamiento

Característica idealizada de un transistor bipolar.

En una configuración normal, la unión emisor-base se polariza en directa y la unión base-colector en inversa. Debido a la agitación térmica los portadores de carga del emisor pueden atravesar la barrera de potencial emisor-base y llegar a la base. A su vez, prácticamente todos los portadores que llegaron son impulsados por el campo eléctrico que existe entre la base y el colector.

Un transistor NPN puede ser considerado como dos diodos con la región del ánodo compartida. En una operación típica, la unión base-emisor está polarizada en directa y la unión base-colector está polarizada en inversa. En un transistor NPN, por ejemplo, cuando una tensión positiva es aplicada en la unión base-emisor, el equilibrio entre los portadores generados térmicamente y el campo eléctrico repelente de la región agotada se desbalancea, permitiendo a los electrones excitados térmicamente inyectarse en la región de la base. Estos electrones "vagan" a través de la base, desde la región de alta concentración cercana al emisor hasta la región de baja concentración cercana al colector. Estos electrones en la base son llamados portadores minoritarios debido a que la base está dopada con material P, los cuales generan "huecos" como portadores mayoritarios en la base.

La región de la base en un transistor debe ser constructivamente delgada, para que los portadores puedan difundirse a través de esta en mucho menos tiempo que la vida útil del portador minoritario del semiconductor, para minimizar el porcentaje de portadores que se recombinan antes de alcanzar la unión base-colector. El espesor de la base debe ser menor al ancho de difusión de los electrones.

Transistor de unión bipolar

Transistor de unión bipolar (PNP-NPN)
Este tipo de transistor bipolar es un dispositivo electrónico de estado sólido en cual consiste en dos uniones (PNP-NPN) que permiten controlar el paso de corriente atreves de sus terminales.

Constitución de un transistor bipolar por uniones PN:
-Emisor: Se comporta como un metal (funciona como emisor de portadores de carga).
-Base: Separa al emisor del colector.
-Colector: De extensión mucho mayor.
El transistor posee tres estados de operación: estado de corte, estado de saturación y estado
de actividad

NPN
En él las letras "N" y "P" se refieren a los transportadores de carga mayoritarios dentro de
las diferentes partes del transistor.

Consta de una capa de material semiconductor dopado P (la "base") entre dos capas de material dopado N. Una pequeña corriente ingresando a la base en configuración emisor común es amplificada en la salida del colector.

PNP

Letras "P" y "N" refiriéndose a las cargas mayoritarias dentro de las diferentes regiones del transistor. Pocos transistores usados hoy en día son PNP, debido a que el NPN brinda mucho mejor desempeño en la mayoría de las circunstancias.
Estos consisten en una capa de material semiconductor dopado N entre dos capas de material dopado P. Los transistores PNP son operados con el colector a masa y el emisor conectado al terminal positivo de la fuente de alimentación a través de una carga eléctrica externa.

martes, 22 de junio de 2010

base comun

Se puede explicar la acción básica de amplificación del transistor sobre un nivel superficial utilizando la red de la figura 4.23. La polaridad de corriente directa no aparece en la figura debido a que nuestro interés se limita a la respuesta en corriente alterna. Para la configuración de base común, la resistencia de corriente alterna de entrada determinada por las características de la figura 4.22 es muy pequeña y casi siempre varía entre 10 y 100. La resistencia de salida, según se determinó en las curvas de la figura 4.18 es muy alta (mientras más horizontales sean las curvas, mayor será la resistencia) y suele variar entre 50 k y 1 M. La diferencia en cuanto a resistencia se debe a la unión con polarización directa en la entrada (base-emisor) y a la unión con polarización inversa en la salida (base-colector). Utilizando un valor común de 20 para la resistencia de entrada, se encuentra que

Figura 4.22. Características del punto de entrada o manejo para un amplificador a transistor de silicio de base común.

Ii = Vi / Ri = 200mV / 20 = 10 mA

IL = Ii +10 mA
VL = ILR
= (10 mA)(5 k)
= 50 V

Figura 4.23. Acción básica de amplificador de voltaje de la configuración base común.

AV = VL / Vi = 50 V / 200 mV = 250


Los valores típicos de la amplificación de voltaje para la configuración de base común varían entre 50 y 300. La amplificación de corriente (IC / IE) es siempre menor que 1 para la configuración de la base común.

La acción básica de amplificación se produjo mediante la transferencia de una corriente i desde un circuito de aja resistencia a uno de alta.

Transferencia + Resistor ==> Transitor

Publicado por: Enmanuel Angel

Construcción de Transistores

El transistor es un dispositivo semiconductor de tres capas que consiste de dos capas de material tipo n y una capa tipo p, o bien, de dos capas de material tipo p y una tipo n. al primero se le llama transistor npn, en tanto que al segundo transistor pnp.

Para la polarización las terminales que se muestran en la figura 4.14 las terminales se indican mediante las literales E para el emisor, C para el colector y B para la base. Se desarrollará una apreciación de la elección de esta notación cuando se analice la operación básica del transistor. La abreviatura BJT, de transistor bipolar de unión (del ingles, Bipolar Junction Transistor), suele aplicarse a este dispositivo de tres terminales. El término bipolar refleja el hecho de que los huecos y los electrones participan en el proceso de inyección hacia el material polarizado de forma opuesta. Si sólo se utiliza un portador (electrón o hueco), entonces se considera un dispositivo unipolar.


Publicado por: Enmanuel Angel

jueves, 20 de mayo de 2010

BJT AS DEVICE

El transistor bipolar es el más común de los transistores, y como los diodos, puede ser de germanio o silicio.
Existen dos tipos transistores: el NPN y el PNP, y la dirección del flujo de la corriente en cada caso, lo indica la flecha que se ve en el gráfico (1) de cada tipo de transistor.


El transistor es un dispositivo de 3 patillas con los siguientes nombres: base (B), colector (C) y emisor (E), coincidiendo siempre, el emisor, con la patilla que tiene la flecha en el gráfico de transistor.
El transistor bipolar es un amplificador de corriente, esto quiere decir que si le introducimos una cantidad de corriente por una de sus patillas (base), el entregará por otra (emisor) , una cantidad mayor a ésta, en un factor que se llama amplificación.
Este factor se llama ß (beta) y es un dato propio de cada transistor.
Entonces:
- Ic (corriente que pasa por la patilla colector) es igual a ß (factor de amplificación) por Ib (corriente que pasa por la patilla base).
- Ic = ß * Ib
- Ie (corriente que pasa por la patilla emisor) es del mismo valor que Ic, sólo que, la corriente en un caso entra al transistor y en el otro caso sale de él, o viceversa.
Según la fórmula anterior las corrientes no dependen del voltaje que alimenta el circuito (Vcc), pero en la realidad si lo hace y la corriente Ib cambia ligeramente cuando se cambia Vcc. Ver figura.

En el tercer gráfico las corrientes de base (Ib) son ejemplos para poder entender que a más corriente la curva es mas alta.

Elaborado por: Enmanuel angel

El transistor de unión bipolar


El transistor de unión bipolar (del inglés Bipolar Junction Transistor, o sus siglas BJT) es un dispositivo electrónico de estado sólido consistente en dos uniones PN muy cercanas entre sí, que permite controlar el paso de la corriente a través de sus terminales. La denominación de bipolar se debe a que la conducción tiene lugar gracias al desplazamiento de portadores de dos polaridades (huecos positivos y electrones negativos), y son de gran utilidad en gran número de aplicaciones; pero tienen ciertos inconvenientes, entre ellos su impedancia de entrada bastante baja.

Los transistores bipolares son los transistores más conocidos y se usan generalmente en electrónica analógica aunque también en algunas aplicaciones de electrónica digital, como la tecnología TTL o BICMOS.

Un transistor de unión bipolar está formado por dos Uniones PN en un solo cristal semiconductor, separados por una región muy estrecha. De esta manera quedan formadas tres regiones:

* Emisor, que se diferencia de las otras dos por estar fuertemente dopada, comportándose como un metal. Su nombre se debe a que esta terminal funciona como emisor de portadores de carga.
* Base, la intermedia, muy estrecha, que separa el emisor del colector.
* Colector, de extensión mucho mayor.

La técnica de fabricación más común es la deposición epitaxial. En su funcionamiento normal, la unión base-emisor está polarizada en directa, mientras que la base-colector en inversa. Los portadores de carga emitidos por el emisor atraviesan la base, que por ser muy angosta, hay poca recombinación de portadores, y la mayoría pasa al colector. El transistor posee tres estados de operación: estado de corte, estado de saturación y estado de actividad.
Elaborado por: Enmanuel angel

El transistor de unión bipolar


El transistor de unión bipolar (del inglés Bipolar Junction Transistor, o sus siglas BJT) es un dispositivo electrónico de estado sólido consistente en dos uniones PN muy cercanas entre sí, que permite controlar el paso de la corriente a través de sus terminales. La denominación de bipolar se debe a que la conducción tiene lugar gracias al desplazamiento de portadores de dos polaridades (huecos positivos y electrones negativos), y son de gran utilidad en gran número de aplicaciones; pero tienen ciertos inconvenientes, entre ellos su impedancia de entrada bastante baja.

Los transistores bipolares son los transistores más conocidos y se usan generalmente en electrónica analógica aunque también en algunas aplicaciones de electrónica digital, como la tecnología TTL o BICMOS.

Un transistor de unión bipolar está formado por dos Uniones PN en un solo cristal semiconductor, separados por una región muy estrecha. De esta manera quedan formadas tres regiones:

* Emisor, que se diferencia de las otras dos por estar fuertemente dopada, comportándose como un metal. Su nombre se debe a que esta terminal funciona como emisor de portadores de carga.
* Base, la intermedia, muy estrecha, que separa el emisor del colector.
* Colector, de extensión mucho mayor.

La técnica de fabricación más común es la deposición epitaxial. En su funcionamiento normal, la unión base-emisor está polarizada en directa, mientras que la base-colector en inversa. Los portadores de carga emitidos por el emisor atraviesan la base, que por ser muy angosta, hay poca recombinación de portadores, y la mayoría pasa al colector. El transistor posee tres estados de operación: estado de corte, estado de saturación y estado de actividad.

transistor bipolar

Transistor bipolar
El transistor de unión bipolar (del inglés Bipolar Junction Transistor, o sus siglas BJT) es un dispositivo electrónico de estado sólido consistente en dos uniones PN muy cercanas entre sí, que permite controlar el paso de la corriente a través de sus terminales. La denominación de bipolar se debe a que la conducción tiene lugar gracias al desplazamiento de portadores de dos polaridades (huecos positivos y electrones negativos), y son de gran utilidad en gran número de aplicaciones; pero tienen ciertos inconvenientes, entre ellos su impedancia de entrada bastante baja.

Los transistores bipolares son los transistores más conocidos y se usan generalmente en electrónica analógica aunque también en algunas aplicaciones de electrónica digital, como la tecnología TTL o BICMOS.

Un transistor de unión bipolar está formado por dos Uniones PN en un solo cristal semiconductor, separados por una región muy estrecha. De esta manera quedan formadas tres regiones:

* Emisor, que se diferencia de las otras dos por estar fuertemente dopada, comportándose como un metal. Su nombre se debe a que esta terminal funciona como emisor de portadores de carga.
* Base, la intermedia, muy estrecha, que separa el emisor del colector.
* Colector, de extensión mucho mayor.

La técnica de fabricación más común es la deposición epitaxial. En su funcionamiento normal, la unión base-emisor está polarizada en directa, mientras que la base-colector en inversa. Los portadores de carga emitidos por el emisor atraviesan la base, que por ser muy angosta, hay poca recombinación de portadores, y la mayoría pasa al colector. El transistor posee tres estados de operación: estado de corte, estado de saturación y estado de actividad.

sábado, 20 de marzo de 2010

Ley de Wiedemann franz

Ley de Wiedemann franz
La ley de Wiedemann-Franz establece que en el caso de metales a temperaturas no demasiado bajas el cociente entre la conductividad térmica y la eléctrica es directamente proporcional a la temperatura, siendo el valor de la constante de proporcionalidad independiente del metal en particular se define el numero de lorenz L=2.45e−8 W/K2
La razón de la conductividad calorífica K a la conductividad eléctrica para la mayoría de los metales es proporcional a la temperatura T, siendo el factor de proporcionalidad L igual para todos los metales:
K/ =L*T
Esto es debido a que se supone que la parte más importante del flujo calorífico, cuando existe gradiente de temperatura T, es transportada por los electrones de conducción. El metal puede representarse en forma de una caja llena de electrones libres para los cuales son válidas las leyes de la teoría cinética de los gases. Para que el metal fuera eléctricamente neutro se consideraba que contenía también la cantidad correspondiente de partículas más pesadas (iones), cargadas positivamente, en reposo. Se suponía también que los electrones estaban distribuidos según la función de distribución de Fermi−Dirac:
f=(m/h)3 1/4_(exp[mv −Ep/KbT]+1)

En la que m es la masa de los electrones y v su velocidad.
De acuerdo con esta distribución, los electrones tienen a la temperatura T todos los valores posibles de las velocidades, con la particularidad de que, en ausencia de fuerzas exteriores, todas las direcciones de las velocidades son equiprobables y varían continuamente a causa de los choques con las partículas cargadas positivamente. No tendremos en cuenta las interacciones de un electrón con los otros en los intervalos entre choques.
Para calcular la conductividad eléctrica vamos a suponer que durante el tiempo unidad un electrón experimenta choques con una probabilidad de 1/ donde es el tiempo de relajación o tiempo de recorrido libre del electrón. En cada choque el electrón sólo varía la dirección de su velocidad. En el tiempo el electrón recorre la distancia entre dos choques, igual al recorrido libre medio:
<>=v
Si los extremos opuestos del metal se someten a una diferencia de potencial que cree en cada punto del metal un campo eléctrico de intensidad E, el electrón, bajo la acción de una fuerza F=eE tendrá entre dos choques un movimiento uniformemente acelerado. Después de cada choque la velocidad del electrón puede tener cualquier dirección, con lo que la aportación a la velocidad media en la dirección del campo es:
=(eE/m)

En la realidad la relación K/ resulta ser una magnitud constante sólo a temperatura ambiente y a temperaturas más altas no depende de la clase de metal ni de T. En la región intermedia esta relación depende de la clase de metal y de la temperatura, ya que la conductividad calorífica en esta región no varía tan deprisa como puede esperarse por la ley de Wiedeman−Franz. La desviación de la ley de Wiedeman−Franz se debe a que el recorrido libre medio correspondiente a la conductividad eléctrica y calorífica, en general, son distintos, y no iguales como se supone en la teoría. Son iguales con exactitud bastante grande únicamente a temperaturas altas.
El comportamiento de la conductividad calorífica es el siguiente:
K=nKb< >T/3mvf
En la fórmula anterior sólo depende de T el recorrido libre medio, que viene determinado por la dispersión de los electrones en los fonones y disminuye cuanto más denso es el gas fonónico.
A temperaturas altas (T>> h) el tiempo de relajación va como 1/T y por tanto también. Por consiguiente,
K=cte, es decir, la conductividad calorífica no depende de la temperatura.
A temperaturas bajas (T<
A temperaturas más bajas, próximas a 0K, la conductividad calorífica es proporcional a la capacidad calorífica del gas electrónico, o sea, a T.
En la gráfica se observa el comportamiento de la conductividad, tal y como acabamos de describir.
Podríamos haber considerado también la conductividad calorífica condicionada por los fonones, pero es de la orden de 102 veces más pequeña y la despreciamos frente a la de los electrones.

La teoría de Sommerfeld de la conducción eléctrica y térmica

Los cuerpos de algunas sustancias tienen la propiedad de conducir el calor o la electricidad. Los que tienen esa propiedad se llaman conductores; los que no, aisladores. Estas propiedades son mensurables y sus medidas se llaman, respectivamente, conductividad eléctrica y conductividad térmica.
En los primeros esfuerzos por explicar la estructura electrónica de los metales, los científicos esgrimieron las propiedades de la buena conductividad térmica y eléctrica para apoyar la teoría de que los metales se componen de átomos ionizados, cuyos electrones libres forman un "mar" homogéneo de carga negativa.
La atracción electrostática entre los iones positivos del metal y los electrones libres, se consideró la responsable del enlace entre los átomos del metal. Así, se pensaba que el libre movimiento de los electrones era la causa de su alta conductividad eléctrica y térmica. La principal objeción a esta teoría es que en tal caso los metales debían tener un calor específico superior al que realmente tienen.
En 1928, el físico alemán Arnold Sommerfeld sugirió que los electrones en los metales se encuentran en una disposición cuántica en la que los niveles de baja energía disponibles para los electrones se hallan casi completamente ocupados.
En el mismo año, el físico suizo estadounidense Félix Bloch, y más tarde el físico francés Louis Brillouin, aplicaron esta idea en la hoy aceptada "teoría de la banda" para los enlaces en los sólidos metálicos.
De acuerdo con dicha teoría, todo átomo de metal tiene únicamente un número limitado de electrones de valencia con los que se unen a los átomos vecinos. Por ello se requiere un amplio reparto de electrones entre los átomos individuales. El reparto de electrones se consigue por la superposición de orbitales atómicos de energía equivalente con los átomos adyacentes.
La teoría de Sommerfeld de la conducción eléctrica y térmica Los cuerpos de algunas sustancias tienen la propiedad de conducir el calor o la electricidad. Los que tienen esa propiedad se llaman conductores; los que no, aisladores. Estas propiedades son mensurables y sus medidas se llaman, respectivamente, conductividad eléctrica y conductividad térmica.
En los primeros esfuerzos por explicar la estructura electrónica de los metales, los científicos esgrimieron las propiedades de la buena conductividad térmica y eléctrica para apoyar la teoría de que los metales se componen de átomos ionizados, cuyos electrones libres forman un "mar" homogéneo de carga negativa.
La atracción electrostática entre los iones positivos del metal y los electrones libres, se consideró la responsable del enlace entre los átomos del metal. Así, se pensaba que el libre movimiento de los electrones era la causa de su alta conductividad eléctrica y térmica. La principal objeción a esta teoría es que en tal caso los metales debían tener un calor específico superior al que realmente tienen.
En 1928, el físico alemán Arnold Sommerfeld sugirió que los electrones en los metales se encuentran en una disposición cuántica en la que los niveles de baja energía disponibles para los electrones se hallan casi completamente ocupados.
En el mismo año, el físico suizo estadounidense Félix Bloch, y más tarde el físico francés Louis Brillouin, aplicaron esta idea en la hoy aceptada "teoría de la banda" para los enlaces en los sólidos metálicos.
De acuerdo con dicha teoría, todo átomo de metal tiene únicamente un número limitado de electrones de valencia con los que se unen a los átomos vecinos. Por ello se requiere un amplio reparto de electrones entre los átomos individuales. El reparto de electrones se consigue por la superposición de orbitales atómicos de energía equivalente con los átomos adyacentes.
La conductividad termica

El método de Hartree-Fock

El método de Hartree-Fock (HF) es una forma aproximada de las ecuaciones de mecánica cuántica para fermiones, utilizada en física y química (donde también se conoce como método de campo auto consistente). Esto se debe a que sus ecuaciones, basadas en orbitales de una partícula, son más accesibles computacionalmente que los métodos basados en funciones de onda de muchas partículas.

La aproximación de Hartree-Fock es el equivalente, en física computacional, a la aproximación de orbitales moleculares, de enorme utilidad conceptual para los físicos. Este esquema de cálculo es un procedimiento iterativo para calcular la mejor solución monodeterminantal a la ecuación de Schrödinger independiente del tiempo, para moléculas aisladas, tanto en su estado fundamental como en estado excitados. La interacción de un único electrón en un problema de muchos cuerpos con el resto de los electrones del sistema se aproxima promediándolo como una interacción entre dos cuerpos (tras aplicar la aproximación de Born-Oppenheimer). De esta forma, se puede obtener una aproximación a la energía total de la molécula. Como consecuencia, calcula la energía de intercambio de forma exacta, pero no tiene en absoluto en cuenta el efecto de la correlación electrónica.

La base del método de Hartree-Fock es suponer que la función de onda de muchos cuerpos es un determinante de Slater de orbitales de una partícula. Esto garantiza la antisimetría de la función de onda y considera la energía de intercambio. Sin embargo, no considera efectos de correlación que no necesariamente son despreciables. A partir de esta suposición, se puede aplicar el principio variacional de mecánica cuántica, se encuentra una ecuación de autovalores para los orbitales de una partícula.

El punto de partida para el cálculo Hartree-Fock es un conjunto de orbitales aproximados. Para un cálculo atómico, estos son típicamente los orbitales de un átomo hidrogenoide (un átomo con una carga nuclear cualquiera pero con un sólo electrón). Para cálculos moleculares o cristalinos, las funciones de ondas iníciales son típicamente una combinación lineal de orbitales atómicos. Esto da una colección de orbitales monoelectrónicos, que por la naturaleza fermiónica de los electrones, debe ser antisimétrica, lo que se consigue mediante el uso del determinante de Slater. El procedimiento básico fue diseñado por Hartree, y Fock añadió el antisimetrizado.

Una vez se ha construido una función de ondas inicial, se elige un electrón. Se resume el efecto de todos los demás electrones, que se usa para generar un potencial. (Por este motivo, se llama a veces a este método un procedimiento de campo promedio). Esto da un electrón en un campo definido, para el que se puede resolver la ecuación de Schrödinger, dando una función de ondas ligeramente diferente para este electrón. Entonces, el procedimiento se repite para cada uno de los otros electrones, hasta completar un paso del procedimiento. De esta forma, con la nueva distribución electrónica se tiene un nuevo potencial eléctrico. El procedimiento se repite, hasta alcanzar la convergencia (hasta que el cambio entre un paso y el siguiente es lo suficientemente pequeño

Las aplicaciones del método de Hartree-Fock Se usa a menudo en el mismo área de cálculos que la Teoría del Funcional de la Densidad, que puede dar soluciones aproximadas para las energías de canje y de correlación. De hecho, es común el uso de cálculos que son híbridos de los dos métodos. Adicionalmente, los cálculos a nivel Hartree-Fock se usan como punto de partida para métodos más sofisticados, como la teoría perturbacional de muchos cuerpos, o cálculos cuánticos de Monte-Carlo.

La inestabilidad numérica es un problema de este método, y hay varias vías para combatirla. Una de las más básicas y más aplicadas es la mezcla-F. Con la mezcla-F, no se usa directamente la función de ondas de un electrón conforme se ha obtenido. En lugar de esto, se usa una combinación lineal de la función obtenida con las previas, por ejemplo con la inmediatamente previa. Otro truco, empleado por Hartree, es aumentar la carga nuclear para comprimir a los electrones; tras la estabilización del sistema, se reduce gradualmente la carga hasta llegar a la carga correcta.

Desarrollos más allá del campo autoconsistente o SCF son el CASSCF y la interacción de configuraciones. Los cálculos de este tipo son relativamente económicos frente a otros de la química cuántica. De esta forma, en ordenadores personales es posible resolver moléculas pequeñas en muy poco tiempo. Las moléculas más grandes, o los desarrollos más sofisticados, para obtener resultados más exactos, siguen realizándose en superordenadores. Existen múltiples paquetes informáticos que implementan el método de campo autoconsistente, entre los que pueden destacarse Gaussian, MOLPRO y MOLCAS.

Fisica de la materia condensada, introducción general

La Física de la Materia Condensada es el campo de la física que se ocupa de las características físicas macroscópicas de la materia. En particular, se refiere a las fases "condensadas" que aparecen siempre que el número de constituyentes en un sistema sea extremadamente grande y que las interacciones entre los componentes sean fuertes. Los ejemplos más familiares de fases condensadas son los sólidos y los líquidos, que surgen a partir de los enlaces y uniones causados por interacciones electromagnéticas entre los átomos. Entre las fases condensadas más exóticas se cuentan las fases superfluidas y el condensado de Bose-Einstein, que se encuentran en ciertos sistemas atómicos sometidos a temperaturas extremadamente bajas, la fase superconductora exhibida por los electrones de la conducción en ciertos materiales, y las fases ferromagnética y antiferromagnética de espines en redes atómicas.

La Física de la Materia Condensada es, por lejos, el campo más extenso de la física contemporánea. Un enorme progreso ha sido realizado en la rama teórica de la física de la materia condensada. Para una estimación, un tercio de todos los físicos americanos se identifica a sí mismo como físicos trabajando en temas de la materia condensada. Históricamente, dicho campo nació a partir de la física del estado sólido, que ahora es considerado como uno de sus subcampos principales. El término "física condensada de la materia" fue acuñado, al parecer, por Philip Anderson, cuando renombró a su grupo de investigación - previamente "teoría del estado sólido" - (1967). En 1978, la División de Física del Estado Sólido de la American Physical Society fue renombrada como División de Física de Materia Condensada. El campo de estudio de la física de la materia condensada tiene una gran superposición con áreas de estudio de la química, la ciencia de materiales, la nanotecnología y la ingeniería.

Una de las razones para que la "física de materia condensada" reciba tal nombre es que muchos de los conceptos y técnicas desarrollados para estudiar sólidos se aplican también a sistemas fluidos. Por ejemplo, los electrones de conducción en un conductor eléctrico forman un tipo de líquido cuántico que tiene esencialmente las mismas características que un fluido conformado por átomos. De hecho, el fenómeno de la superconductividad, en el cual los electrones se condensan en una nueva fase fluida en la cual puedan fluir sin disipación, presenta una gran analogía con la fase superfluida que se encuentra en el helio-3 a muy bajas temperaturas.


Un sólido cristalino es aquél que tiene una estructura periódica y ordenada, como consecuencia tienen una forma que no cambia, salvo por la acción de fuerzas externas. Cuando se aumenta la temperatura, los sólidos se funden y cambian al estado líquido. Las moléculas ya no permanecen en posiciones fijas, aunque las interacciones entre ellas sigue siendo suficientemente grande para que el líquido pueda cambiar de forma sin cambiar apreciablemente de volumen, adaptándose al recipiente que lo contiene.

sólido amorfo es a sólido en cuál allí es no orden de largo alcance de las posiciones del átomos. (Los sólidos en que allí son orden atómica de largo alcance se llaman sólidos cristalinos o morphous). La mayoría de las clases de materiales sólidos se pueden encontrar o preparar en una forma amorfa. Por ejemplo, ventana común cristal es un amorfo de cerámica, muchos polímeros (por ejemplo poliestireno) son los alimentos amorfos, y uniformes por ejemplo caramelo de algodón son los sólidos amorfos.

En el principio, dado una tarifa que se refresca suficientemente alta, cualquier líquido se puede hacer en un sólido amorfo. El refrescarse reduce movilidad molecular. Si la tarifa que se refresca es más rápida que la tarifa en la cual las moléculas pueden organizar en más termodinámico el estado cristalino favorable, entonces un sólido amorfo será formado. Debido a consideraciones de la entropía, muchos polímeros se pueden hacer los sólidos amorfos refrescándose incluso en las tarifas lentas. En cambio, si las moléculas tienen suficiente tiempo para organizar en una estructura con dos u orden tridimensional, entonces un sólido cristalino (o semi-cristalino) será formado. El agua es un ejemplo. Debido a su tamaño y capacidad moleculares pequeños de cambiar rápidamente, no puede ser hecho amorfo sin el recurso a las técnicas hyperquenching especializadas.

Los materiales amorfos se pueden también producir por los añadidos que interfieren con la capacidad del componente primario de cristalizarse. Por ejemplo, adición de soda a dióxido del silicio resultados en cristal de la ventana, y la adición de glicoles a agua resultados en a vitrified sólido.

Los cristales líquidos son apreciados por sus singulares propiedades ópticas y de autorreparación. Generalmente consisten en moléculas de formas especiales que se alinean en el estado líquido por su forma. Usando campos eléctricos para manipular la orientación de las moléculas de cristal líquido, los científicos pueden controlar si la luz puede o no atravesar el material líquido cristalino. Sin los cristales líquidos, artículos que consideramos cotidianos como las pantallas planas de numerosos aparatos, o los relojes con display LCD, no existirían.

Los cristales líquidos más conocidos son moléculas orgánicas compuestas de carbono, nitrógeno y oxígeno. Agregar materiales inorgánicos, o metales, a estos cristales líquidos para acceder a sus propiedades eléctricas o magnéticas era problemático porque la estructura de estas moléculas hace difícil lograr las altas concentraciones metálicas necesarias para que sean útiles.
Conducción Eléctrica De Los Materiales : No todos los materiales conducen la electricidad de la misma forma. Para diferenciarlos, decimos que algunos presentan mayor "resistencia" que otros a conducir la electricidad.

La resistencia eléctrica es una medida cuantitativa respecto de cuán buen conductor es un material. La resistencia eléctrica se mide en ohmios, en honor a Georg Simon Ohm (1787-1854), que desarrolló los principios agrupados en la ley de Ohm (ver recuadro). A los materiales que presentan baja resistencia eléctrica se les llama buenos conductores eléctricos. A su vez, a aquellos que poseen alta resistencia eléctrica se les denomina malos conductores eléctricos. Cambios en la resistencia ¿Qué puede hacer cambiar la resistencia eléctrica en un material conductor? Volvamos a nuestro modelo del "juego de las manzanas verdes". Si permitimos que más individuos se incorporen al juego y, de este modo, aumentamos la longitud del grupo en relación al campo de juego, ¿qué sucederá con la conducción de las manzanas? Pues bien, dado que ahora existe una mayor cantidad de individuos a través de los cuales debe pasar cada manzana, observaremos que la conducción cambia. Esto, pues habiendo una mayor cantidad de personas, aumenta el número de manzanas que se caen al suelo, o bien el número de ellas que son mordisqueadas, lo que trae como consecuencia que la conducción empeore.

Por otra parte, si en vez de aumentar la longitud del grupo, aumentamos el espacio por donde pasarán las manzanas es decir, aumentamos el ancho, incorporando más jugadores distribuidos en el campo de juego, también observaremos que la conducción cambia. Puesto que, si bien en este caso, al aumentar la cantidad de individuos, es mayor la cantidad de manzanas que se caen al suelo o son mordisqueadas, a su vez es mayor también la cantidad de manzanas que circulan por el grupo, dado que al aumentar el ancho de este hay más personas sacando manzanas desde los cajones, con lo cual observaremos -contrario al caso anterior, donde solo saca manzanas quien está al comienzo de la fila de jugadores que la conducción de manzanas mejora.

Análogamente a nuestro modelo, en un material conductor la resistencia eléctrica aumenta mientras mayor sea el largo del conductor por el cual circula una corriente, y disminuye cuando aumenta el área de este.
La respuesta dielectrica: Se denomina dieléctricos a los materiales que no conducen la electricidad, por lo se pueden utilizar como aislantes eléctricos.

Algunos ejemplos de este tipo de materiales son el vidrio, la cerámica, la goma, la mica, la cera, el papel, la madera seca, la porcelana, algunas grasas para uso industrial y electrónico y la baquelita. Los dieléctricos se utilizan en la fabricación de condensadores, para que las cargas reaccionen. Cada material dieléctrico posee una constante dieléctrica k. que es conocida como la constante de proporcionalidad directa e inversamente proporcional hablando matematicamente
Tenemos k para los siguiente dieléctricos: vacío tiene k = 1; aire (seco) tiene k = 1,00059; teflón tiene k = 2,1; nylon tiene k = 3,4; papel tiene k = 3,7; agua tiene k = 80.
Los dieléctricos más utilizados son el aire, el papel y la goma.

El magnetismo es un fenómeno físico por el que los materiales ejercen fuerzas de atracción o repulsión sobre otros materiales. Hay algunos materiales conocidos que han presentado propiedades magnéticas detectables fácilmente como el níquel, hierro, cobalto y sus aleaciones que comúnmente se llaman imanes. Sin embargo todos los materiales son influenciados, de mayor o menor forma, por la presencia de un campo magnético.
También el magnetismo tiene otras manifestaciones en física, particularmente como uno de los dos componentes de la onda electromagnética, como, por ejemplo, la luz.

Expansión térmica: La mayoría de los sólidos se expanden cuando se calientan y se contraen cuando se enfrían.
Esta es una propiedad del material que es indicativa de la magnitud a la cual un material se expande bajo calentamiento y tiene unidades de temperatura recíproca (ºC)-1 ó (ºF)-1. Por supuesto el calentamiento ó el enfriamiento afecta toda las dimensiones de un cuerpo con un cambio en el volumen resultante.Desde el punto de vista atómico la expansión térmica se refleja por un incremento en el promedio de la distancia entre los átomos . Este fenómeno se puede entender mejor observando la curva de energía potencial versus espaciamiento interatómico para un material sólido.