Aquí se supone que en un futuro, esperemos que no muy lejano, vaya un mini/micro/pico curso de electrónica básica. Intentaremos explicar con términos sencillos, y con las matemáticas justas, los principios de funcionamiento de los dispositivos electrónicos más comunes, así como los circuitos típicos de aplicación.
PÁGINA EN CONSTRUCCIÓN. No te molestes en seguir leyendo.
Llamamos carga eléctrica a la cantidad de electricidad que tiene un cuerpo. A pesar de que la materia -los átomos- es eléctricamente neutra, no ocurre así con las partículas que la componen.
Las partículas subatómicas que componen los átomos son: Protones: están en el núcleo y tienen carga positiva. Neutrones: están en el núcleo y no tienen carga, ni positiva ni negativa. Electrones: están en la corteza (las capas exteriores del átomo) y tienen carga negativa.
Los átomos son neutros eléctricamente. Esto quiere decir que no poseen carga neta, o lo que es lo mismo, que la suma de sus cargas positivas y negativas da cero. Sin embargo, la carga de un átomo puede verse alterada si su número de electrones aumenta (adquiere carga negativa) o disminuye (adquiere carga positiva).
Una carga eléctrica situada en el espacio, solo por el hecho de estar ahí, produce un campo eléctrico y provoca una fuerza de atracción o repulsión con otras cargas situadas dentro del campo eléctrico generado. Si las dos cargas eléctricas son del mismo signo se repelen, mientras que si son de signo contrario sufrirán una fuerza de atracción.
Vamos ahora a conceptos un poco más abstractos. Se dice que cuando tenemos un campo eléctrico presente, el potencial eléctrico de un punto del espacio es el trabajo necesario para trasladar una carga positiva desde un punto de referencia hasta el punto del espacio considerado.
Vamos a explicar esto otra vez para que se entienda mejor:
Ahora vamos a contar lo mismo, pero en lugar de campo eléctrico vamos a utilizar la gravedad:
Pues bien, si hemos entendido más o menos lo que significa el concepto de potencial eléctrico, ahora toca decir que lo realmente interesante de todo este rollo no es el potencial en sí, sino la diferencia de potencial. Vamos a dar una pista para que veáis a dónde queremos llegar: el potencial eléctrico se mide en Voltios (V).
Si soltamos una carga eléctrica en medio de un campo eléctrico, la carga se moverá desde donde esté hacia la zona donde su energía potencial sea menor (de la misma forma que cuando soltamos un objeto en un campo gravitatorio, se mueve hacia la zona donde su energía potencial es menor), y realizará un trabajo en su recorrido.
Dicho de otra forma, las cargas eléctricas se mueven de un punto a otro cuando existe una diferencia de potencial. Las cargas positivas se moverán de los puntos con potencial más positivo a los puntos con potencial más negativo, mientras que las cargas eléctricas se moverán de los puntos con potencial más negativo a los de potencial más positivo.
¿Y a qué viene todo esto del potencial y la diferencia de potencial? Pues bien, para conseguir que las cargas eléctricas se muevan, lo de situar una carga puntual en el vacío para que genere un campo eléctrico, etc… no resulta muy práctico. Pero hay muchas formas de producir una diferencia de potencial, que al fin y al cabo es lo que nos interesa.
Los métodos más habituales para producir una diferencia de potencial eléctrico son los químicos (baterías) y la inducción electromagnética (alternadores y dinamos).
Dado que el potencial eléctrico se mide en Voltios (V), la diferencia de potencial también se mide en Voltios, y es lo que comúnmente llamamos voltaje.
Por lo tanto, el resumen de todo esto es que el voltaje entre dos puntos es la diferencia de potencial eléctrico entre esos dos puntos, o dicho de otra forma, es la //caída// que experimentan las cargas cuando pasan de un punto al otro, equivalente a la caída que sufre nuestro Arduino desde lo alto del armario hasta el suelo.
Cuanto mayor es el voltaje, mayor es la diferencia de potencial y mayor es el //salto// o //caída//, y por lo tanto la energía o trabajo producido es mayor.
Ahora que conocemos el concepto de voltaje, vamos con la intensidad, y ya puestos, con la resistencia.
¿Recordáis el Arduino que teníamos encima del armario? Pues imaginemos ahora que en lugar de un arduino tenemos una caja llena. Todos esos Arduinos están al mismo potencial gravitatorio que cuando sólo teníamos uno, es decir, su voltaje es el mismo. Sin embargo, no es lo mismo que dejemos caer uno solo a que los dejemos caer a todos. Podéis hacer la prueba vosotros mismos: probad a dejar caer un Arduino sobre vuestro pie, y luego probad a dejar caer una caja entera. Comprenderéis que a pesar de que la altura es la misma en ambas caídas, una duele más que la otra (¿en serio me habéis hecho caso?).
Se llama intensidad de corriente eléctrica a la cantidad de carga eléctrica que circula a través de un medio por unidad de tiempo. La cantidad de carga eléctrica se mide en Culombios ©, y la intensidad de carga eléctrica en Amperios (A). Un Amperio equivale a la circulación de un Culombio por segundo. O dicho de otra forma:
I = Q / t
Así, en nuestra analogía gravitatoria, la intensidad sería el número de Arduinos que se caen del armario por unidad de tiempo. Deberíamos estar ya en condiciones de saber diferenciar entre voltaje e intensidad: el voltaje es la altura del armario, la intensidad es el número de Arduinos que se caen en cada segundo.
Ahora bien, ¿de qué depende el hecho de que caigan más o menos Arduinos por segundo? Aquí es donde toca introducir el otro concepto: la resistencia. Si nuestros Arduinos, en lugar de caer atravesando el aire, estuviesen en una piscina cubiertos de agua y cayesen hacia el fondo, veríamos que caen más despacio. El agua ofrece una mayor resistencia al paso de los Arduinos en comparación con el aire, y por eso los Arduinos caerían más lentamente, a un ritmo menor.
Este concepto es más fácil de entender que los otros dos, y es el que cierra el círculo. Llamamos resistencia eléctrica a la mayor o menor dificultad que encuentra la corriente eléctrica al atravesar un medio conductor.
La resistencia eléctrica se mide en Ohmios (Ω). La resistencia no es una propiedad intrínseca de cada material, sino que depende de la forma de cada conductor en cuestión. Sin ánimo de profundizar mucho en la teoría, solamente diremos que la propiedad intrínseca de cada material que indica el grado de permisividad al paso de la corriente eléctrica, es la conductividad eléctrica. Es la conductividad lo que nos permite clasificar los materiales en mejores o peores conductores. Asimismo, llamamos resistividad eléctrica a la propiedad contraria, esto es, al grado de oposición que muestra un material al paso de la corriente eléctrica.
Dicho de otra forma, la resistividad es la propiedad inversa de la conductividad:
ρ = 1 / σ
ρ = Resistividad
σ = Conductividad
Luego, para saber la resistencia que tendrá un conductor particular de una longitud determinada y con un espesor concreto, obtenemos la resistencia a partir de la fórmula:
R = ρ · L / S
R = Resistencia del conductor
ρ = Resistividad del material con el que está hecho el conductor
L = Longitud del conductor
S = Área de la sección del conductor
De esta última fórmula podemos deducir dos cosas:
//Vale, fenomenal, ya nos has explicado lo del armario, los arduinos que se caen y todo eso pero, ¿qué es lo que se «cae» cuando hablamos de corriente eléctrica?//
La corriente eléctrica se produce cuando se mueven cargas eléctricas a través de un medio, pero no existen cargas eléctricas así sin más, sino que lo que existe son partículas con carga eléctrica. Ya habíamos comentado antes que los átomos que forman la materia son eléctricamente neutros, pero que estaban formados por partículas que sí tenían carga eléctrica. De las dos partículas subatómicas que tienen carga eléctrica, protones y electrones, son estos últimos los que son capaces de moverse en ciertas condiciones y producir así la corriente eléctrica.
La mayor o menor libertad con la que se pueden mover los electrones depende del tipo de material que estemos considerando. Los metales ofrecen, por regla general, una buena conductividad eléctrica. Esto se debe a las propiedades del enlace metálico con el que se unen sus átomos. En un metal, la materia se organiza como una especia de «sopa» de átomos en los que los electrones más externos tienen una movilidad casi total y no pertenecen a ningún átomo en concreto. En esas condiciones, los electrones pueden moverse fácilmente a lo largo del metal. Y por eso los metales son excelentes conductores de la electricidad.
Otros materiales se comportan de una forma totalmente distinta. La sal común, por ejemplo, es un cristal iónico. Eso significa que está formado por iones (átomos con carga eléctrica) y no por átomos neutros. Los iones son átomos que han ganado o perdido electrones, con lo que su carga deja de ser neutra. Paradójicamente, aunque los iones podrían servir para que la carga eléctrica circulase por el material, resulta que forman una estructura cristalina, reticulada, en la que cada ión tiene su sitio y está fuertemente retenido por las fuerzas de atracción y repulsión electrostática que generan los iones vecinos. Los electrones en estos cristales no tienen movilidad y están fuertemente atraídos por los núcleos de los iones. Y los iones tampoco se pueden mover porque están inmovilizados en la estructura cristalina. El resultado de todo esto es que los cristales iónicos conducen muy mal la electricidad cuando están en estado sólido. Cuando están en estado líquido, o cuando están disueltos en un líquido, ocurre todo lo contrario: los iones pasan a estar libres y al no ser átomos neutros, la corriente eléctrica se establece cuando los iones positivos se mueven en una dirección y los iones negativos en la contraria.
En un conductor metálico, los electrones (con carga negativa, recordemos) se moverán desde el extremo con voltaje negativo hacia el extremo con voltaje positivo.
En una disolución de sal, los iones negativos se mueven hacia el electrodo positivo y a su vez los iones positivos se mueven hacia el electrodo negativo.
//Anda, ¿pero entonces la corriente que pasa por un cable va del negativo al positivo? ¡Pero si de toda la vida nos han dicho que va del positivo al negativo!//
Sí, es cierto. Es una mentirijilla que se ha mantenido durante unos cuantos siglos. Aunque llamarla mentirijilla sería injusto, y veamos por qué.
La existencia de la electricidad se conoce desde hace miles de años. La palabra electricidad mismamente viene del griego //êlektron//, que en griego significa //ámbar//. Y es así porque los griegos sabían que el ámbar era un material electrostático, que al frotarlo con otros materiales hacía unas cosas extrañas como atraer materiales ligeros, cabellos, etc… Vamos, lo que nosotros hemos hecho alguna vez con un globo y un jersey de lana.
Lo que ocurre es que los griegos conocían las propiedades del ámbar, pero no entendían muy bien el porqué de su comportamiento. No fue hasta después de unos cuantos siglos, a partir del S. XVI, cuando se comenzaron a conseguir avances importantes en el estudio del fenómeno eléctrico, y en consideración a los clásicos griegos que lo habían estudiado mucho antes, se le llamó //electricidad//.
Y claro, comenzar a estudiar un fenómeno tiene algunos inconvenientes, como asumir cosas que luego resultan ser al revés. Después de unos cuantos cientos de años de grandes avances en el conocimiento de la electricidad, resulta que a finales del S. XIX se descubre el electrón. Durante todo ese tiempo se había considerado siempre que la corriente eléctrica fluía desde el polo positivo hacia el negativo (que esa es otra, porque lo de positivo y negativo es otra convención más). Ahora, con la confirmación de la existencia del electrón y con su carga negativa, se sabía que la corriente eléctrica era en realidad un flujo de electrones que iba del polo negativo hacia el positivo.
Es bien sabido que el hombre es un animal de costumbres, y tener que darle la vuelta a una convención asumida desde hacía dos o tres siglos era muy difícil, así que se continuó considerando que el flujo de la corriente eléctrica era de positivo a negativo (lo que llamamos sentido convencional de la corriente eléctrica), aunque el sentido real fuese de negativo a positivo. Esto no trastocaba nada, ya que se trata solamente de un signo matemático.
Da igual considerar cargas eléctricas negativas que se mueven en un sentido, o cargas eléctricas positivas que se mueven en el sentido contrario. Además, también se habla muchas veces de //corriente de huecos//, ya que cuando un electrón se mueve deja un hueco que debe ser reemplazado por otro electrón que viene detrás. Los electrones se mueven en una dirección y el hueco se va moviendo en la contraria.
PERO YA ESTÁ BIEN DE HISTORIAS…
Conocemos el concepto de voltaje eléctrico, o diferencia de potencial. Es la altura de la «caída» que experimentan las cargas eléctricas cuando pasan de un extremo al otro de un circuito.
Conocemos el concepto de intensidad de corriente eléctrica. Es el número de cargas, o la cantidad de carga, que atraviesa un circuito por unidad de tiempo.
Conocemos, o intuimos, el concepto de resistencia eléctrica. Es la mayor o menor oposición que muestra un material ante el paso de la corriente eléctrica.
Bueno, pues atentos ahora porque llegamos al final del capítulo con un cierre espectacular: ¿cómo se relacionan voltaje, intensidad y resistencia entre sí?
Es el momento de presentaros a la Ley de Ohm.
Lo mejor para aprenderse la ley de Ohm es la terapia de choque, así que ahí va:
I = V / R
V = I · R
R = V / I
La Ley de Ohm viene a decir que la intensidad que atraviesa un circuito es directamente proporcional al voltaje entre sus extremos, e inversamente proporcional a la resistencia que ofrece ese circuito al paso de la corriente eléctrica. O dicho de otra forma:
De todo esto podemos deducir algunas cosas. Lo primero es que una sola de las magnitudes no define las condiciones de lo que ocurre en un circuito eléctrico. Podemos tener un circuito sometido a un voltaje muy alto, pero sólo ese dato no nos dice si la intensidad que lo atraviesa es muy alta, sino que necesitamos además saber su resistencia. Sólo cuando conocemos dos de las magnitudes podemos conocer la tercera.
Si vemos un circuito donde la intensidad de corriente es muy baja, no podemos deducir que se debe a que la resistencia es muy alta. Antes necesitamos saber el voltaje que hay entre sus extremos, y solo entonces podremos sacar conclusiones.
Como vemos, la Ley de Ohm es algo muy simple y que describe un fenómeno lineal (lo de lineal significa que sus magnitudes son proporcionales, directa o inversamente):
Espera, espera… ¿cómo que //con una intensidad constante//? ¿Pero la intensidad no dependía de la tensión y del voltaje?
A modo de spoiler para que en un futuro no nos asombremos, vamos a hacer un pequeño inciso.
Estamos habituados a que todas las fuentes de energía eléctrica que conocemos y utilizamos en nuestra vida diaria, sean fuentes de voltaje constante. Así, en el enchufe de nuestras casas tenemos 230V (no, no, no son 220V como pensáis, la tensión oficial en España es de 230V desde el Real Decreto 842/2002). Y esos 230V estarán siempre ahí tanto si enchufamos el cargador del móvil, o si enchufamos la tostadora. Por eso se llaman fuentes de voltaje constante: porque su tensión no depende de la carga que conectemos.
Pues resulta que, además de las fuentes de tensión constante, existen también las fuentes de corriente constante. Son fuentes que suministran siempre la misma intensidad de corriente, sin depender de la carga que conectemos. Si conectamos una resistencia pequeña el voltaje que aparecerá entre sus extremos será pequeño, y si conectamos una resistencia grande también lo será el voltaje entre sus extremos.
Ahora bien, seguramente estéis pensando que una fuente de corriente constante no resulta de mucha utilidad ya que nunca sabremos el voltaje que va a resultar de ahí. Os parecerá algo absurdo. Pero no es más que una convención (como otras tantas). En nuestra casa la convención es que todo funciona a 230V, los fabricantes de electrodomésticos lo saben y nos dicen qué intensidad va a circular cuando los enchufemos (nosotros debemos comprobar si nuestra instalación soporta esa intensidad). Una convención igual de válida podría ser que en nuestra casa todo funcionase a 10A, y que los fabricantes nos dijesen el voltaje que iba a aparecer en el enchufe cuando los conectásemos (para que nosotros comprobásemos si nuestra instalación soporta esa intensidad).
En realidad, lo de usar el voltaje constante no es que fuese una decisión arbitraria, sino que derivó de aspectos prácticos: los alternadores generan un voltaje determinado cuando los hacemos girar a una velocidad concreta (y una batería genera un voltaje concreto en función de sus elementos químcos), así que la adaptación natural es la de usar un voltaje estandarizado y estandarizar la intensidad no sería más que una tontería, aparte de algo inviable. Por otro lado, los aislantes empleados en una instalación dependen de su voltaje, con lo que lo de los voltajes variables en función de la carga tampoco parece muy adecuado. Aunque las fuentes de corriente constante tampoco son algo inútil. Si llegamos algún día a escribir el capítulo sobre amplificadores, acabaremos hablando de ellas.
Pero bueno, dejémonos de tanta teoría y hagamos algunos cálculos para desperezarnos un poco.
Problema 1:
A una fuente de 48V conectamos una resistencia de 15Ω. ¿Qué intensidad circulará por ella?
I = V / R ⇒ I = 48V / 15Ω = 3.2A
Problema 2:
En un enchufe de 230V tenemos conectada una tostadora por la que pasan 5.8A. ¿Cuál es su resistencia eléctrica?
R = V / I ⇒ R = 230V / 5.8A = 39,65Ω
Problema 3:
A una batería de voltaje desconocido tenemos conectada una resistencia de 2200Ω, y medimos con un amperímetro que la intensidad que circula por ella es de 1,68mA. ¿Cuál es el voltaje de la batería?
V = I · R ⇒ V = 0.00168 · 2200Ω = 3.7V
(Ya sabemos que es una tontería medir con un amperímetro y luego calcular, cuando se podría haber medido con el voltímetro. Permitidnos alguna licencia, demonios.)
La definición que se da en física a la energía es «la capacidad para realizar un trabajo». Debido a ello, los términos trabajo y energía se confunden a veces, ya que se miden en las mismas unidades. El trabajo realizado sobre un sistema equivale siempre a la energía que se aporta al sistema. Si es el sistema el que realiza un trabajo, significa que cede energía al entorno.
Las unidad de energía del sistema internacional es el julio (J).
En cuanto a la potencia, no es más que la cantidad de energía que se aporta o que se recibe de un sistema por unidad de tiempo. Energía y potencia están relacionados, pero no son lo mismo. Podemos tener mucha potencia durante un breve periodo de tiempo, con lo que la energía total será pequeña, y podemos tener una potencia baja pero durante mucho tiempo, en cuyo caso la energía total no será despreciable. Si subimos nuestro Arduino muy poco a poco, estaremos desarrollando una potencia baja. Si lo hacemos rápidamente la potencia será mayor. Pero en ambos casos la energía aportada al Arduino será la misma.
La expresión matemática para la potencia será entonces:
P = E / t
, siendo E la variación de energía de un sistema, o bien el trabajo realizado sobre él.
La unidad de potencia del sistema internacional es el vatio (W).
Vamos a ver qué es la energía en un escenario de mecánica clásica. ¿Recordáis ese Arduino UNO que se caía desde lo alto del armario? Pues ese Arduino pierde energía potencial durante su caída, que se va convirtiendo en energía cinética (velocidad). Al llegar al suelo, esa energía cinética se emplea en realizar un trabajo: seguramente el Arduino haya sufrido alguna fractura, o alguna pieza se habrá deformado, e incluso una parte de la energía se habrá disipado en forma de calor.
Podemos decir que la energía potencial perdida por el Arduino se ha empleado en realizar un trabajo (romper algo, doblar un pin, etc…).
De la misma forma, cuando cogemos el Arduino del suelo y lo subimos de nuevo al armario estamos realizando un trabajo sobre él. Este trabajo que realizamos sobre el Arduino le aporta energía al mismo. ¿Qué tipo de energía? Pues energía potencial, ya que lo estamos trasladando desde el suelo hasta una posición más elevada. Más concretamente, la energía que le hemos aportado equivale al peso del Arduino (en Newtons) multiplicado por la altura a la que lo subamos.
Resumiendo:
Si hablamos de la electricidad, lo que tenemos son cargas eléctricas moviéndose entre dos puntos de diferente potencial, pero la analogía es la misma. Una carga libre se moverá hacia el punto donde su potencial sea menor, y durante el proceso cederá energía al entorno. Si lo que queremos es que las cargas se muevan a puntos donde su energía potencial sea mayor, lo que hay que hacer es aportarles esa energía realizando un trabajo sobre ellas.
Cuantas más cargas se muevan de un punto a otro, más energía liberarán (o más energía habrá que aportarles, dependiendo de en qué sentido queremos que se muevan). Dicho de otro modo, la cantidad de energía implicada en un lapso de tiempo concreto será directamente proporcional a la cantidad de cargas que se muevan en ese intervalo de tiempo, y también será directamente proporcional al salto de potencial que experimenten dichas cargas.
Mmmmm…. Analicemos con un poco más de calma lo que acabamos de decir:
Por lo tanto, la expresión de la potencia eléctrica que nos queda es así de simple:
P = V · I
Las unidades en las que se mide la energía, como ya hemos dicho antes, son los vatios (W). Si lo que queremos es conocer la cantidad de energía, necesitamos saber la cantidad de tiempo durante la cual se desarrolla esa potencia, y no tenemos más que realizar la multiplicación:
E = P · t
Esta última fórmula es la misma que hemos dado antes para la potencia, pero ahora hemos despejado el término de la energía. Si la potencia era la energía por unidad de tiempo, la energía se puede definir como la potencia multiplicada por el tiempo.
En electricidad, lo más habitual es hablar de energía no en julios, sino en vatios·hora (W·h, o Wh). O más bien en su múltiplo, los kilovatios·hora (KW·h, o KWh).
Fijémonos muy bien en estas unidades, porque es muy frecuente interpretarlas mal:
Insistimos:
Ya hemos hablado antes de la resistencia eléctrica, así que no vamos a contar aquí nada nuevo. El fenómeno de la resistencia eléctrica es la oposición que muestran los diferentes materiales al paso de la corriente eléctrica.
Una resistencia convierte la energía eléctrica en calor. Así de simple. Hay ocasiones en las que eso es precisamente lo que queremos: calor. Pensemos en una estufa, o una plancha, o una cocina. Seguro que se os ocurren más casos.
Las resistencias, como componentes de un circuito electrónico, son elementos destinados a ofrecer la oposición necesaria para conseguir que la intensidad que recorre el circuito sea la que nosotros queramos o necesitemos. Energéticamente son un desastre, ya que no obtenemos de ellas ningún rendimiento (todo se pierde en calor). Pero las resistencias son algo necesario, ya que nos permite polarizar (veremos qué significa esto más adelante) correctamente los componentes activos (como los transistores) que necesitan funcionar bajo una intensidad de corriente determinada. Y sí, lo habéis adivinado: nosotros conseguimos la intensidad necesaria eligiendo la resistencia adecuada.
Pero no adelantemos acontecimientos y veamos cómo se comportan las resistencias, y sobre todo, cómo se comportan los grupos de resistencias cuando las conectamos entre sí.
[poner aquí un circuito serie con dos resistencias]
En la figura de arriba podemos ver un circuito serie de dos resistencias. ¿Por qué se llama «en serie»? Pues porque una resistencia está conectada a continuación de la otra, en cadena (en otras palabras: en serie). Tampoco hay que ser muy listo, vamos.
Veamos qué podemos deducir de este tipo de circuitos:
Tenemos claro que la intensidad es la misma en las dos resistencias, ¿no?. Pues entonces podemos decir que:
I = IA = IB
, o dicho de otra forma, que la intensidad que recorre el circuito es la que recorre cualquiera de las dos resistencias.
¿Cuál será la tensión presente en cada una de las resistencias? No tenemos más que aplicar la Ley de Ohm:
VA = IA · RA
VB = IB · RB
, pero hemos dicho que la intensidad es la misma para las dos resistencias, luego:
VA = I · RA
VB = I · RB
, y además sabemos que la suma de las tensiones parciales debe ser igual a la tensión total, luego podemos decir que:
V = VA + VB
V = I · RA + I · RB
, y si sacamos factor común de la expresión anterior, nos queda que:
V = I · (RA + RB)
Supongamos ahora que ese conjunto de dos resistencias en serie lo sustituimos por una sola resistencia equivalente. Cuando hablamos de resistencia equivalente nos referimos a que si la conectamos a la misma batería, circulará la misma corriente. Por eso se llama equivalente, porque se comporta igual.
En ese caso, tendríamos que al aplicar la Ley de Ohm a nuestra resistencia equivalente:
V = I · RE
Así que ahora no tenemos más que igualar las dos expresiones:
V = I · RE = I · (RA + RB)
, y si de la segunda igualdad eliminamos la intensidad que aparece multiplicando a ambos lados, nos queda:
RE = RA + RB
, que es la expresión que nos da la resistencia equivalente de dos resistencias en serie.
[poner aquí un circuito paralelo con dos resistencias]
En la figura de arriba podemos ver un circuito paralelo de dos resistencias. ¿Por qué se llama «en paralelo»? Pues porque todas las resistencias están conectadas a los bornes de la batería. Sus bornes están unidos y todas ellas están colocadas paralelamente entre sí. La corriente que sale de la batería se divide en las conexiones y entra en todas las resistencias. De ahí lo de «en paralelo».
Veamos qué podemos deducir de este tipo de circuitos:
Tenemos claro que el voltaje es el mismo en las dos resistencias, ¿no?. Pues entonces podemos decir que:
V = VA = VB
¿Cuál será la intensidad que circula por cada una de las resistencias? No tenemos más que aplicar la Ley de Ohm:
IA = VA / RA
IB = VB / RB
, pero hemos dicho que el voltaje es el mismo para las dos resistencias, luego:
IA = V / RA
IB = V / RB
, y además sabemos que la suma de las intensidades de ambas resistencias es igual a la intensidad total que sale de la batería, luego podemos decir que:
I = IA + IB
I = V / RA + V / RB
, y si sacamos factor común de la expresión anterior, nos queda que:
I = V / (1 / RA + 1 / RB)
Supongamos ahora que ese conjunto de dos resistencias en paralelo lo sustituimos por una sola resistencia equivalente.
En ese caso, tendríamos que al aplicar la Ley de Ohm a nuestra resistencia equivalente:
I = V / RE
Así que ahora no tenemos más que igualar las dos expresiones:
I = V / RE = V / (1 / RA + 1 / RB)
, y si de la segunda igualdad eliminamos la intensidad que aparece multiplicando a ambos lados, nos queda:
1 / RE = 1 / RA + 1 / RB
, que es la expresión que nos da la resistencia equivalente de dos resistencias en paralelo.
Esta es muy fácil. No os preocupéis. A la Ley de Corrientes de Kirchhoff se la conoce también como Ley de Nodos de Kirchhoff, o simplemente Primera Ley de Kirchhoff
¿Y qué dice esta ley? Pues algo muy fácil de entender: la suma de las corrientes que entran o salen de un nodo es cero.
Dicho de otra forma, aún más fácil de entender: la suma de las corrientes que entran a un nodo es igual a la suma de las corrientes que salen de ese nodo.
Cuando hablamos de nodo, nos referimos a una conexión eléctrica. Cuando tenemos varios conductores unidos en un punto, en algunos de ellos la corriente fluirá hacia el punto de unión, y en otros lo hará en sentido contrario, alejándose del punto de unión. Lo que nos dice Kirchhoff es algo que a lo mejor nos parece obvio: el ese nodo o punto de unión no se puede acumular carga, así que la suma de las corrientes que entran al nodo (que viene a ser como una suma de flujos de partículas portadoras de carga) debe ser igual a la suma de las corrientes que salen.
Que puede parecer que no tenga mucho mérito esta Ley, pero oye, Kirchhoff se lo curró.
Aaaaaamigoooss… Esta ya no va a ser tan fácil, aunque si lo pensáis un poco también es fácil de entender.
La Ley de Tensiones de Kirchhoff, o simplemente Segunda Ley de Kirchhoff (seguramente fue la segunda porque le costó un poco más deducirla), nos dice que la suma de las tensiones en un circuito cerrado es cero.
A ver, no os asustéis. Ya qué que muchos de vosotros habéis jugado a encender bombillas con pilas y cosas así, y tenéis claro lo que es un circuito cerrado, y las bombillas se encendían cuando se cerraba el circuito, con lo cual la tensión no puede ser cero.
Vamos a ver qué es lo que quería decir Kirchhoff con esto de las tensiones que suman cero.
¿Os acordáis cuando usábamos la analogía de la altura para explicar lo que era la diferencia de potencial? Pues vamos a volver a ese modelo. Supongamos que somos un pequeño primate en la selva africana, hambriento y a los pies de un platanero. La altura inicial a la que estamos es la del suelo, que podemos equiparar a cero. Ahora vamos a realizar unos cuantos saltos:
Si sumamos todos los incrementos, tenemos que 2 + 3 + (-1.5) + (-2.5) + (-4) = 0, o lo que es lo mismo, dado que salimos del suelo y hemos vuelto al suelo, la suma de los incrementos parciales forzosamente tiene que ser cero.
(Vale, en este momento estáis pensando que Kirchhoff era una reencarnación del Capitán Obvio. Paciencia)
Traslademos ahora el ejemplo al circuito eléctrico de la figura siguiente:]]]]]
Supongamos que somos un electrón que sale del borne negativo de la batería. Nuestra posición inicial, por lo tanto, es una en la que nuestro potencial es de 0 voltios. En el circuito circula una corriente determinada, dado que es un circuito cerrado, y en cada resistencia habrá una diferencia de potencial entre sus extremos.
Ahora sí que hemos llegado al punto de partida. Aquí es donde podemos aplicar la Segunda Ley de Kirchhoff, con lo que nos queda:
V1 + V2 + V3 - Vbat = 0
Y a esto es a lo que se refería el bueno de Kirch.
Mientras vamos redactando este minicurso, no tenemos muy claro si realmente es necesario explicar este teorema, pero lo dejamos por aquí por si acaso.
El amigo Thévenin nos dice que dado un circuito lineal (se refiere a que sus componentes tienen un comportamiento lineal, no que a estén conectados en línea) que esté conectado entre dos puntos A y B, se puede sustituir por un circuito simple formado tan solo por una fuente de tensión constante y una resistencia en serie.
Dicho de otra forma, podemos sustuir un circuito entre dos puntos A y B, por enrevesado que sea, y usar un modelo simplificado que conste tan solo de una fuente de tensión y una resistencia. De puertas afuera, es decir, visto desde esos dos puntos A y B, el circuito simplificado se comportará exactamente igual que el circuito original.
¿De qué nos sirve esto? Pues para muchas cosas, pero lo mejor es que lo veáis con un ejemplo. Cuando alguien diseña un amplificador y desea dar sus características, nos dice cuál es su impedancia de entrada y su impedancia de salida. Con esos datos ya sabemos cómo se comportará el amplificador cuando le conectemos un micrófono concreto y un altavoz concreto. No es necesario que nos den el detalle de cómo es el circuito interno, sino que aplicando el Teorema de Thévenin, nos basta con saber cuál es la resistencia que «se ve» desde la conexión de entrada y desde la conexión de salida.
El Teorema de Thévenin no se limita a resistencias, aunque puede que lo veamos más adelante. En un circuito con resistencias, bobinas y/o condensadores, su equivalente Thévenin tendrá una fuente de tensión constante y una impedancia en serie (aún no hemos visto lo que es una impedancia, pero es la resistencia equivalente de un circuito que tenga bobinas y/o condensadores).
El Teorema de Norton es el complemento del Teorema de Thévenin, solo que el amigo Norton asegura que un circuito se puede sustituir por otro equivalente que esté compuesta por una fuente de corriente constante y una resistencia en paralelo.
Ambos teoremas dicen lo mismo: que cualquier circuito lineal puede ser reducido a un circuito equivalente y simplificado. A Thévenin le gustaban más las fuentes de tensión constante, y a Norton le iban más las fuentes de corriente constante. Nada más.
Un condensador es un dispositivo pasivo eléctrico que es capaz de almacenar energía eléctrica en forma de campo eléctrico. Se dice que los condensadores almacenan carga eléctrica aunque si nos ponemos exquisitos eso no es cierto, ya que el condensador en conjunto siempre va a tener una carga total neutra. A pesar de ello, se usa muchísimo la expresión de «almacenar carga» ya que sirve para entender su funcionamiento en un circuito eléctrico.
Un condensador se compone simplemente de dos conductores en forma de placa enfrentados y aislados entre sí por un material dieléctrico. Cuando conectamos los terminales del condensador a una batería, entre sus placas se establece un campo eléctrico, con cargas negativas y positivas concentradas en cada uno de sus electrodos (pero ojo, que la carga total del condensador sigue siendo neutra). Cuando hablamos de la carga o de la descarga de un condensador no estamos diciendo que el condensador pase a contener carga eléctrica ya que su carga siempre será neutra. Lo que ocurre es que el condensador se carga de energía haciendo que sus electrodos se carguen ambos con la misma carga pero de signo contario. La suma de la carga de ambos electrodos siempre será cero.
La capacidad de un condensador depende directamente de la superficie de sus dos electrodos, e inversamente a la distancia que los separa. Para aumentar la capacidad de un condensador podemos aumentar dicha superficie, reducir su separación, o ambas cosas. Además, también influye el material usado como dieléctrico. Un condensador que utilice como dieléctrico láminas de polietileno tendrá 2,25 veces la capacidad que tendría si sólo utilizase el aire como aislante.
La unidad de capacidad de los condensadores es el Faradio (F), aunque esta es una unidad muuuuuy grande para los condensadores que podemos utilizar normalmente, y lo más habitual es trabajar con condensadores cuya capacidad sea una fracción de la misma:
Dependiendo de la tecnología de fabricación, existen condensadores no polarizados, esto es, cuyos terminales se pueden conectar indistintamente a la parte positiva o a la negativa de un circuito; mientras que otros tipos de condensadores (los electrolíticos son los principales) son polarizados, o dicho de otra forma, uno de sus terminales debe ir conectado a la parte positiva y el otro a la negativa y no pueden ser intercambiados si no queremos destruir el condensador (y disfrutar de un bonito «¡¡¡pop!!!»).
Pero vamos al meollo.
¿Qué ocurre cuando conectamos un condensador a una batería?
En la siguiente figura podemos ver un circuito básico RC donde un condensador C (previamente descargado) se conecta a una batería mediante una resistencia R y un interruptor:
[PONER IMAGEN DE CIRCUITO RC]
Veamos ahora qué ocurre cuando cerramos el interruptor:
Como el condensador está descargado, la diferencia de potencial entre sus terminales es de 0 voltios. Por lo tanto, en el mismo instante en que cerramos el interruptor, la corriente que comienza a circular es de V/R amperios.
Pero las placas del condensador están aisladas. ¿Cómo puede circular corriente? Lo que ocurre es que la placa superior va acumulando carga positiva, mientras que la placa inferior acumula carga negativa. Por lo tanto, no es que la corriente atraviese el condensador, sino que la misma cantidad de carga en una placa, se genera en forma de carga opuesta en la otra. Esto quizás se comprenda mejor si pensamos en los electrones: los electrones salen del negativo de la batería y llegan a la placa inferior, haciendo que acumule carga negativa. En la placa superior los electrones salen del condensador hacia el positivo de la batería, dejando a la placa donde estaban con carga positiva (la placa era neutra, y al perder electrones se vuelve positiva). Vemos que el efecto es como si circulase corriente a través del condensador, aunque realmente lo que hay es un //quito de aquí y pongo allá//. Bueno, prosigamos con lo que estábamos haciendo.
Si representamos la evolución de la tensión e intensidad, nos queda una gráfica tal que así:]
No vamos a entrar en matemáticas demasiado complejas, pero si os fijáis en la gráfica resulta fácil adivinar que la intensidad va disminuyendo indefinidamente pero en realidad nunca llega a desaparecer del todo.
Sí, sí, habéis leído bien; la intensidad nunca desaparece del todo. Esto implica que el condensador nunca acaba de cargarse realmente. Esto es así porque se trata de una curva exponencial, que disminuye indefinidamente pero sin acercarse nunca a su límite. Sin embargo, a efectos prácticos se da por hecho que el condensador está cargado cuando han transcurrido 5 veces la constante de tiempo (no seáis impacientes, ya veremos después qué es la constante de tiempo).
Una vez desconectemos el condensador ya cargado del circuito, conservará indefinidamente su carga ya que ambos electrodos están aislados eléctricamente entre sí. Bueno, lo de indefinidamente aplicaría si se tratase de un condensador ideal. En la práctica (lo veremos más adelante), los condensadores se van descargando poco a poco debido a las características de los materiales de los que están hechos. Sin embargo, nos pueden dar algún susto si manipulamos condensadores que hace poco que se hayan cargado y que posean un potencial elevado, como los que podemos encontrar en los circuitos de alta tensión de los televisores antiguos (los que usan tubo de rayos catódicos).
Ahora toca ver qué es lo que ocurre cuando descargamos el condensador. Supongamos que el condensador anterior, bien cargadito a una tensión V, nos lo llevamos a otro circuito como el siguiente:]]
Las condiciones iniciales de nuestro circuito son: VC = V (porque hemos cargado antes el condensador) I = 0 (porque tenemos el interruptor abierto)
Así que accionamos el interruptor, y:
Las gráficas de este proceso de descarga serán similares a éstas:]
Nuevamente vemos que la curva de descarga tiende a cero, pero matemáticamente nunca llega a ella. En teoría, el condensador nunca se descargará del todo. A efectos prácticos, la descarga estará completa cuando hayan transcurrido 5 veces la constante de tiempo del circuito.
¿Pero qué demonios es eso de la constante de tiempo?
La constante de tiempo de un circuito RC se conoce como τ (letra griega tau) y equivale al tiempo que tardaría en cargarse/descargarse el condensador si la intensidad fuese en todo momento la inicial. Dado que, como ya hemos visto, la intensidad no permanece constante sino que decrece exponencialmente, el tiempo de carga/descarga de un circuito RC se considera que es de 5τ, a efectos prácticos (matemáticamente la carga/descarga no termina nunca).
Vamos a hablar ahora de la energía. Decíamos al principio que los condensadores no realmente no almacenan carga porque su carga total siempre es neutra, sino que almacenan energía separando las cargas entre sus dos electrodos y estableciendo un campo eléctrico entre ellos. ¿Cuánta energía es capaz de almacenar un condensador?
A medida las placas del condensador se van cargando, se va estableciendo una diferencia de potencial. Debido a esta diferencia de potencial, resulta más difícil seguir cargando el condensador ya que su potencial se opone al sentido de la corriente. Y cuanto más cargado está, mayor es el potencial y más cuesta seguir cargándolo.
Seguro que no lo habéis entendido, así que vamos con las analogías, que hace tiempo que no usamos ninguna. Cargar un condensador es como apilar cajas: ponemos la primera en el suelo y apenas nos cuesta trabajo, porque su potencial es cero (está en el suelo), cuando vamos a poner la segunda caja tenemos que colocarla a unos centímetros de altura, así que hemos tenido que realizar una cantidad de trabajo para trasladar esa caja desde el suelo hasta la parte superior de la primera caja. Y sucesivamente, conforme vamos aumentando la cantidad de cajas apiladas, cada vez nos cuesta más subir una nueva caja porque la altura a la que tenemos que subirla es mayor. En esta analogía las cajas son la carga eléctrica de cada una de las placas del condensador, la altura de la pila es la tensión o voltaje entre placas del condensador, y la energía que hemos empleado en apilar las cajas corresponde con la energía almacenada en el condensador.
Vamos con otra analogía, que además la usaremos en más ocasiones: el condensador es un depósito de agua, la carga de sus placas es la cantidad de agua que contiene, y el potencial o tensión entre sus terminales es la altura que alcanza el agua contenida. Imaginemos que estamos llenando ese depósito mediante una toma colocada en su extremo inferior. Cuando el depósito está vacío resulta muy fácil meter agua, porque no encontramos resistencia. Pero a medida que el agua va llenando el depósito y a alcanzar cierta altura, genera una presión en la parte inferior que se opone a que sigamos llenándolo, o dicho de otra forma, nos cuesta más seguir llenando el depósito cuanto más lleno se encuentre.
En esta analogía podemos ver también otra característica de los condensadores que no era tan visible con el ejemplo de las cajas: la anchura del depósito. Para una misma cantidad de agua, la altura de la misma será diferente en función de si el depósito es ancho o estrecho, y la altura que alcance será diferente. La anchura (más concretamente, la superficie de su base) equivaldría a la capacidad del condensador.
Y podemos decir lo siguiente: A mayor anchura/capacidad para una misma cantidad de agua/carga la altura/voltaje es menor, y la cantidad de energía que nos ha costado llenarlo es menor. A mayor anchura/capacidad para una misma altura/voltaje, la cantidad de agua/carga es mayor, y también es mayor la cantidad de energía que nos ha costado llenarlo.
¿Y cuánta energía almacena un condensador?
La cantidad de carga en las placas de un condensador, el voltaje presente entre ellas, la capacidad del condensador y la cantidad de energía almacenada se relacionan mediante estas fórmulas:
C = Q / V
E = 1/2 · C · V2 = 1/2 · Q · V = 1/2 · Q2 / C
Como podemos deducir de estas expresiones, la capacidad de un condensador es directamente proporcional a la carga en sus placas, e inversamente proporcional al potencial entre ellas. Además, la energía acumulada aumenta con el cuadrado del voltaje: un mismo condensador tendrá cuatro veces más energía acumulada si lo cargamos al doble del voltaje.
Como no hay nada perfecto en este mundo, tampoco lo son los condensadores reales. Como ya avisábamos en el capítulo sobre el proceso de carga, si nuestro condensador fuese ideal podríamos guardar el condensador una vez cargado de forma indefinida, y éste conservaría su energía. Pero esto en realidad no es así.
Veamos cómo es el circuito equivalente de un condensador real:
[[PONER EL ESQUEMA DE UN CONDENSADOR REAL CON RESISTENCIA SERIE Y RESISTENCIA PARALELO|]]
El primer desengaño es que los dos electrodos del condensador no están completamente aislados. Siempre tendremos presente una resistencia parásita conectada entre ellos, que los irá descargando poco a poco. Esto se debe a que el dieléctrico utilizado para mantener separados los electrodos nunca va a ser un aislante perfecto. Aunque muy pequeña, siempre habrá una pequeña corriente eléctrica circulando entre los dos terminales del condensador debido al dieléctrico. Normalmente podemos obviar esta resistencia parásita, ya que como hemos dicho es de valores muy altos y por regla general no es necesario tenerla en cuenta al diseñar nuestros circuitos.
La otra resistencia que podemos ver en nuestro condensador real es la resistencia equivalente en serie, o ESR (Equivalent Series Resistance). Esta resistencia sí puede tener cierta relevancia en según qué circuitos. Los electrodos de un condensador no dejan de ser conductores eléctricos, y como tales ofrecen una resistencia al paso de la corriente eléctrica. Si bien esta resistencia es baja, a veces puede no ser despreciable. Otras veces no se trata de si la ESR es alta o no, sino de si es comparable a la resistencia que ofrece el propio condensador (esto lo tendremos que ver más adelante, cuando veamos la corriente alterna).
Tanto la resistencia parásita en paralelo como la ESR dependen de cómo esté fabricado el condensador. El tipo de dieléctrico, el tamaño del condensador, la superficie de los electrodos, etc…
Otro aspecto a tener en cuenta, no ya al diseñar, sino al elegir el tipo de condensador que necesitamos, es la tensión de trabajo. En un condensador real no podemos aplicar la tensión que queramos a los terminales de un condensador, porque todo material tiene una tensión de ruptura dieléctrica límite. Dicho de otra forma, más tarde o más temprano, si vamos subiendo la tensión en un condensador llegará un momento en el que saltará una chispa entre ambos electrodos. Eso se debe a que el dieléctrico ya no es capaz de soportar el intenso campo eléctrico que se genera, y sus moléculas se ionizan permitiendo que circule la corriente eléctrica por ellos. Es lo mismo que ocurre cuando cae un rayo durante una tormenta: la tierra y las nubes son los electrodos de un gran condensador, y el dieléctrico es el aire; cuando la tensión entre ambos extremos es tan alta que el dieléctrico ya no es capaz de seguir manteniéndolos aislados, salta una chispa (el rayo). En función del tipo de condensador, la ruptura del dieléctrico puede suponer la destrucción por completo del componente.
Resulta un poco redundante hablar por separado del comportamiento en continua y del comportamiento en alterna de un condensador, porque su comportamiento es siempre el mismo. Sin embargo, suele resultar útil asociar alguna analogía que nos ayude a interiorizar la función que cumple el condensador en nuestros circuitos,
Cuando hablamos del comportamiento en continua de un condensador nos referimos a aquellos circuitos en los que su misión es acumular carga energía. ¿Y de qué circuitos hablamos? pues por regla general, cuando el condensador va conectado directamente a la alimentación de un circuito.
Cuando un condensador está conectado directamente a las líneas de alimentación, suele ser por dos razones:
En cuanto al primero de los motivos anteriores, el uso más típico son los condensadores de filtrado en un circuito de alimentación. Sin pretender adelantar temario, vamos a ver un circuito de rectificación básico, la llamada rectificación de media onda:
[[PONER ESQUEMA RECTIFICADOR DE MEDIA ONDA|]]
En el circuito anterior, la misión del condensador es la de almacenar energía en los periodos en los que el diodo conduce, para liberarla en los periodos en los que el diodo no conduce. El condensador hace las veces de «depósito» para que nunca baje el voltaje en el circuito y que la corriente circule siempre. Cuanto mayor sea la capacidad del condensador, menor será la bajada de tensión en los periodos en los que el diodo está en off. O volviendo al símil del depósito de agua, cuanto mayor sea nuestro depósito, menos bajará el nivel de agua hasta que el diodo vuelva a abrir el grifo.
La segunda de las razones que exponíamos antes podrían corresponder con este circuito:
[[PONER ESQUEMA DE UNA FUENTE DE TENSIÓN CON UNA RESISTENCIA EN SERIE, ALIMENTANDO A UN CIRCUITO PERO SIN CONDENSADOR DE FILTRADO|]]
En este circuito, la fuente de tensión y la resistencia que tiene conectada en serie pretende representar a un sistema de alimentación cuya capacidad de suministrar corriente es limitada. Decimos que es limitada, porque si aumenta mucho la demanda de corriente, la tensión en sus bornes baja debido a la caída de tensión que origina la resistencia serie.
Ahora supongamos que el circuito al que alimentamos tiene un comportamiento por el cual en ciertos momentos se producen picos de corriente elevados. Durante estos picos de corriente la tensión en el circuito bajará considerablemente, y eso seguramente hará que nuestro circuito no se comporte correctamente. En estos casos lo que se suele hacer es poner condensadores no ya para estabilizar la tensión, que de por sí podría ser ya estable, sino para poder hacer frente a estos picos de demanda de corriente.
El circuito anterior, con el correspondiente condensador, quedaría así:
[[PONER ESQUEMA DE UNA FUENTE DE TENSIÓN CON UNA RESISTENCIA EN SERIE, ALIMENTANDO A UN CIRCUITO CON UN CONDENSADOR DE FILTRADO|]]
Ahora, cada vez que se produzca un pico de corriente, será el condensador el encargado de suministrarla. La tensión en el condensador bajará, claro, pero lo hará en menor medida que cuando no teníamos ningún condensador. El tiempo entre que ocurre un pico de corriente y el siguiente también deberá ser suficiente para que el condensador recupere la energía perdida, o de lo contrario no serviría de mucho.
Así que quedémonos con la idea de que usamos los condensadores en continua como reservas de energía, para «suavizar» las fluctuaciones en la tensión de alimentación o para poder hacer frente a picos de corriente que el sistema de alimentación no podría satisfacer.
Ahora hablemos de cómo se comporta el condensador en alterna, es decir, qué es lo que se busca con un condensador cuando no lo usamos para almacenar carga energía.
Vamos a evitar entrar en expresiones matemáticas, pero podemos decir que la corriente que atraviesa un condensador es proporcional al ritmo de variación del voltaje entre sus bornes.
Dicho de otra forma, el condensador es un almacén de energía que se carga haciendo circular corriente por él, y como resultado de esa circulación de corriente va apareciendo un voltaje que aumenta progresivamente según se va acumulando energía. Si fluye mucha corriente, el voltaje variará rápidamente. Si fluye poca corriente, el voltaje variará poco. Esto también dependerá de la capacidad del condensador, claro: para la misma corriente el voltaje variará poco si el condensador es de mucha capacidad, mientas que variará mucho si el condensador es de poca capacidad. Mirémoslo desde este punto de vista: un condensador pequeño (de poca capacidad) es un almacén de energía que se llenará muy rápidamente, mientras que un condensador grande (de mucha capacidad) con la misma intensidad de corriente tardará más en llenarse.
En las cosas de la electricidad muchas veces es más fácil de entender las cosas si identificamos una causa y una consecuencia, aunque realmente las leyes físicas no dicen cuál es la causa ni la consecuencia: simplemente nos dicen que dos fenómenos se relacionan de tal o cual forma. Si pensamos en la intensidad de corriente que atraviesa un condensador como la causa, entonces la consecuencia será el aumento o disminución del voltaje en los bornes del mismo. Pero también podríamos pensar que el voltaje es la causa, en cuyo caso podríamos decir que si provocamos una variación de tensión entre los bornes de un condensador, circulará una corriente a través de él.
Si tuviésemos que resumirlo muy, muy mucho, podríamos decir que el condensador se opone a los cambios de tensión, permitiendo que fluya a través de él una intensidad cuando el voltaje varía. Cuanto más rápido sea dicha variación, mayor será la intensidad. Por lo tanto, hablando en términos de frecuencia podemos decir que por un condensador fluirá más corriente cuanta más alta sea su frecuencia, mientras que la corriente sea cero si su frecuencia es cero (0 Hz, o lo que es lo mismo, DC -corriente continua-).
Ojo, todo esto se refiere a un régimen permanente. Cuando conectamos un condensador a una fuente de tensión continua, o cuando lo desconectamos y dejamos que se descargue, aparecen unos transitorios como ya hemos visto en el apartado anterior. Pero transcurridos estos transitorios, el comportamiento del condensador será el descrito aquí.
Lo que podemos decir acerca del condensador es que su impedancia (un término análogo al de resistencia, solo que hablamos de impedancia cuando hablamos de señales de corriente alterna) disminuye con la frecuencia. Esto es algo novedoso si hasta ahora solamente habíamos trabajado con resistencias. Una resistencia tendrá la misma resistencia sea cual sea la naturaleza de la tensión que apliquemos entre sus extremos, o de la corriente que hagamos circular por ella. En una resistencia siempre se cumplirá la ley de Ohm.
Sin embargo, los condensadores no ofrecen siempre la misma oposición a que fluya la corriente eléctrica. Como ya hemos dicho, es mayor cuanta más baja sea su frecuencia, y menor cuanto más alta la frecuencia. También depende de su capacidad: a igualdad de frecuencia, un condensador de mayor capacidad ofrecerá menor resistencia, y viceversa.
Habíamos prometido no meter matemáticas, pero hay un mínimo que es inevitable, lo sentimos.
La expresión de la impedancia de un condensador viene dada por la expresión:
XC = 1 / (2·PI·f·C)
, donde:
PI = 3.14159…
f = Frecuencia en Hercios.
C = Capacidad en Faradios.
Como podemos apreciar, al tener el término de frecuencia y de capacidad en el denominador, el valor de la impedancia será inversamente proporcional a estas dos magnitudes.
Ahora volvamos al capítulo anterior, en el que comentábamos el comportamiento del condensador en continua. ¿Cómo encaja esta nueva explicación con lo ya visto anteriormente? Pues muy fácil. Cuando usamos un condensador para estabilizar un voltaje (bien sea a la salida de un rectificador, o cuando ponemos un condensador en paralelo con los pines de alimentación de algún integrado), lo que estamos haciendo realmente es //cortocircuitar// las variaciones de voltaje. Un condensador es un circuito abierto ante la componente continua, y un cortocircuito (o resistencia baja, si queréis) ante una señal alterna. Por eso, si conectamos un condensador a una alimentación que sufre perturbaciones o variaciones, el condensador intentará minimizar dichas fluctuaciones comportándose como un camino de baja impedancia ante las variaciones de tensión, pero siendo un circuito abierto para la componente continua.
Los condensadores tienen tres usos principales:
La expresión de la capacidad equivalente de dos condensadores conectados en serie es la siguiente:
1 / CE = 1 / CA + 1 / CB
[desarrollar la explicación]
La capacidad equivalente de dos condensadores conectados en paralelo viene dada por la expresión:
CE = CA + CB
Esto se puede entender muy fácilmente: dos condensadores en paralelo son dos almacenes de energía conectados entre sí, por lo que su capacidad para almacenar energía será igual a la suma de sus capacidades.
[desarrollar la explicación matemática]
Una bobina o inductor es un dispositivo pasivo eléctrico que es capaz de almacenar energía eléctrica en forma de campo magnético.
Un inductor se forma mediante el arrollamiento de un conductor. Cada vuelta de ese arrollamiento es una espira, y el conjunto de espiras forman el inductor. El núcleo del inductor puede estar vacío (núcleo de aire) o estar hecho de un material paramagnético (ferrita, chapas de hierro, etc…). Los factores que afectan a las características del inductor son:
Número de espiras: Al ser un hilo continuo cada espira está conectada en serie con la siguiente y, para una misma intensidad circulante, el campo magnético producido será más intenso cuantas más espiras tenga nuestro inductor.
Área de las espiras: A mayor área abarcada por las espiras, el flujo magnético producido es mayor.
Longitud del inductor: Cuanto más largo sea el inductor, más resistencia presentará a la formación de flujo magnético.
Material del núcleo: El flujo magnético conseguido para una misma geometría de bobina será mayor cuanto más alta sea la permeabilidad magnética de su núcleo.
La unidad de inductancia de las bobinas es el Henrio (H), aunque igual que ocurría con los condensadores, esta es una unidad bastante grande y los inductores que usaremos normalmente serán de algún submúltiplo:
1 milihenrio (mH) = 0.001 F = 10-3 F
1 microhenrio (μH) = 0.001 mF = 10-6 F
Un caso de uso particular de los inductores es el de los transformadores. Un transformador consta de dos arrollamientos, el primario y el secundario, que están acoplados por un mismo núcleo magnético. El primario convierte energía eléctrica alterna en un flujo magnético también alterno. Este flujo magnético alterno hace que, mediante el fenómeno de la inducción electromagnética, aparezca en el secundario una fuerza electromotriz alterna. Alterando las características del primario y secundario podemos hacer que la energía eléctrica del secundario sea de un voltaje mayor o menor que el voltaje aplicado al primario. Otra ventaja del transformador es que proporciona un desacoplamiento eléctrico, esto es, que el circuito secundario no está eléctricamente conectado al circuito primario, lo cual resulta muy útil para ciertos usos.
Igual que hemos visto cómo un condensador se iba cargando de energía, vamos a ver ahora el mismo caso pero con un inductor. De la misma forma que el condensador, el inductor también se cargará de energía, pero en lugar de ser energía en forma de campo eléctrico va a ser en forma de campo magnético.
¿Qué ocurre cuando conectamos una bobina a una batería?
En la siguiente figura podemos ver un circuito básico LR donde un inductor L (previamente descargado) se conecta a una batería mediante una resistencia R y un interruptor.
[[https://www.bricolabs.cc/wiki/guias/poner_aqui_el_esquema_rc|[[PONER IMAGEN DE CIRCUITO LR]]]]
Veamos ahora qué ocurre cuando cerramos el interruptor:
No lo hicimos en el condensador y tampoco lo vamos a hacer aquí, pero sospecharéis también que la intensidad va subiendo indefinidamente sin llegar nunca a alcanzar el valor V/R, y la tensión en la bobina nunca llega a cero del todo.
Sí, sí, habéis leído bien; la intensidad nunca deja de crecer, con lo que la bobina nunca acaba de cargarse realmente. Estamos ante el mismo caso que con el condensador. Cosas de las curvas exponenciales, ya sabéis. Aquí también aplicamos la regla de las 5 veces la constante de tiempo.
En el caso del condensador era muy fácil retirar el condensador cargado del circuito y que éste conservase su energía. En el caso de la bobina, para que pudiese mantener su energía habría que desconectarla del circuito pero de forma que la corriente pudiese seguir fluyendo a través de ella (por ejemplo, con sus bornes cortocircuitados), lo cual no es sencillo. Además, las bobinas con las que se trabaja normalmente almacenan mucha menos energía que los condensadores, por lo que en una bobina real su energía se perdería casi de inmediato al no ser un componente ideal.
¿Cómo descargamos ahora la bobina? Imaginemos ahora que pasamos el conmutador a la otra posición:
[[https://www.bricolabs.cc/wiki/guias/poner_aqui_el_circuito_de_descarga_rc|[[IMAGEN DESCARGA LR]]]]
Las condiciones iniciales de nuestro circuito son: I = V/R (porque hemos cargado antes la bobina hasta esa intensidad); VL = 0 (porque la corriente ya no aumenta); VR = V.
Así que accionamos el conmutador de forma que la fuente quede desconectada y la bobina la resistencia queden unidas, y:
Las gráficas de este proceso de descarga serán similares a éstas:
[[PONER GRAFICAS DESCARGA LR|]]
Nuevamente vemos que la curva de descarga tiende a cero, pero matemáticamente nunca llega a ella. En teoría, la bobina nunca se descargará del todo. A efectos prácticos, la descarga estará completa cuando hayan transcurrido 5 veces la constante de tiempo del circuito.
La constante de tiempo de un circuito LR se conoce como τ (letra griega tau) y equivale al tiempo que tardaría en cargarse/descargarse el inductor si la intensidad fuese en todo momento la final. Dado que, como ya hemos visto, la intensidad parte de cero y va subiendo con una exponencial inversa, el tiempo de carga/descarga de un circuito LR se considera que es de 5τ, a efectos prácticos (matemáticamente la carga/descarga no termina nunca).
Encontrar un símil que se pueda entender fácilmente como hacíamos con el condensador es algo que ya no va a ser tan sencillo para la bobina. En un condensador es muy fácil imaginarlo como un depósito de agua que se va llenando, pero para la bobina ya no tenemos ejemplos tan fáciles de entender.
A medida que el flujo magnético aumenta dentro de una bobina, para que siga aumentando debemos mantener la tensión entre sus bornes, y eso es difícil porque en la resistencia siempre habrá una caída de tensión que irá haciendo que disminuya la tensión en la bobina.
Pero, ¿y si no hubiese resistencia, o si fuese muy pequeña? En ese caso no habría límite a que la corriente siguiese aumentando hasta llegar a valores altísimos. Por eso no tiene sentido conectar una bobina directamente a los polos de una fuente de tensión, porque transcurrida una fracción de segundo, esa bobina será a efectos prácticos un cortocircuito.
Pero dejémonos de analogías y vayamos a lo importante: ¿cuánta energía almacena un condensador?
La intensidad que circuila por una bobina, su inductancia y La cantidad de carga en las placas de un condensador, el voltaje presente entre ellas, la capacidad del condensador y la cantidad de energía almacenada se relacionan mediante esta fórmula:
E = 1/2 · L · I2
La energía acumulada aumenta con el cuadrado de la intensidad: una misma bobina tendrá cuatro veces más energía si hacemos circular el doble de intensidad.
Sí, lo habéis adivinado: tampoco tenemos bobinas perfectas.
Veamos cómo es el circuito equivalente de una bobina real:
[[https://www.bricolabs.cc/wiki/guias/poner_el_esquema_de_un_condensador_real_con_resistencia_serie_y_resistencia_paralelo|PONER EL ESQUEMA DE UNA BOBINA REAL]]
El factor «no ideal» más importante en una bobina es la resistencia de su bobinado. Una bobina es un arrollamiento de un conductor, y todos los conductores reales ofrecen algo de resistencia al paso de la corriente. Habrá casos en los que esta resistencia sea pequeña o despreciable (pocas vueltas con hilo grueso), pero podría darse el caso de necesitar muchísimas vueltas (para ganar inductancia) con hilo muy fino (para reducir volumen), en cuyo caso la resistencia podría alcanzar varios cientos de ohmios.
El otro factor «no ideal» relevante de una bobina, y que debemos tener siempre bajo control, es la corriente de saturación. El núcleo magnético de una bobina tiene un límite en cuanto a la cantidad de flujo magnético que puede permitir en su interior. Una vez que se supera dicho límite, la bobina deja de comportarse como tal y pasa a comportarse como un simple conductor eléctrico. Es decir, ese efecto de «oposición a los cambios de corriente» desaparece si la corriente es demasiado alta.
Existe otro valor de corriente que no debemos superar para no destruir la bobina por acumulación de calor. En función del grosor del conductor empleado en la construcción de la bobina, y en función de las características de disipación térmica que tenga el inductor en su conjunto, habrá un valor de intensidad que no debe ser superardo para no generar excesivo calor, lo cual llevaría a la destrucción del componente.
Como recordaréis, para el caso del condensador habíamos resumido su comportamiento en que «un condensador se oponía a los cambios de tensión», dejando que fluyese una corriente a través de él cuando la tensión entre sus bornes variaba.
Pues bien, la bobina se comporta de forma complementaria y podemos decir que un inductor se opone a los cambios de corriente, generando entre sus bornes una tensión cuando la intensidad que lo atraviesa varía.
Cuando hacíamos pasar una corriente a través de un condensador, éste se iba cargando y aumentando el voltaje entre sus electrodos. De forma análoga pero complementaria, cuando aplicamos una tensión a los bornes de un inductor, la intensidad que lo atraviesa va aumentando y haciendo que acumule energía en forma de campo magnético.
La expresión de la capacidad equivalente de dos inductores o bobinas conectados en serie es la siguiente:
LE = LA + LB
[desarrollar la explicaión]
La capacidad equivalente de dos inductores o bobinas conectados en paralelo viene dada por la expresión:
1 / LE = 1 / LA + 1 / LB
[desarrollar la explicación matemática]
Hasta ahora todas las fuentes de energía eléctrica que hemos visto tienen un borne positivo y otro negativo. Eso nos permite saber en qué sentido circulará la corriente eléctrica cuando conectemos algún circuito (no vamos a discutir de nuevo lo del sentido convencional y el sentido real de la corriente eléctrica).
Pues bien, existen fuentes de energía eléctrica en las que no existe un borne (o polo) positivo y otro negativo, sino que su polaridad cambia constantemente con el tiempo. Recalcamos algo muy importante: en cada instante de tiempo siempre habrá un borne que sea positivo y otro negativo, ya que es algo necesario para que las cargas eléctricas fluyan. La única «dificultad» añadida es que mientras en una pila sabemos cuál es el polo positivo y cuál es el negativo, en una fuente de energía alterna no podemos seguir utilizando esos términos porque el papel de positivo/negativo está cambiando continuamente entre un polo y otro.
Si la polaridad está cambiando, ¿significa que la corriente eléctrica está cambiando de sentido continuamente? Sí.
Si los electrones están cambiando de sentido, ¿significa que los que salen de un polo no llegan realmente a alcanzar el otro polo porque están avanzando y retrocediendo consecutivamente? Probablemente sí (la velocidad real de los electrones dentro de un conductor es bastante lenta).
Si los electrones que salen de un polo realmente nunca llegan a alcanzar el otro polo, ¿significa que la energía eléctrica no se consume? No.
No confundamos la energía eléctrica con los electrones, que son los portadores de esa energía. En una fuente de corriente continua, la energía eléctrica es la que hace que la corriente fluya del polo positivo al negativo (en el sentido real, recordemos que los electrones fluyen desde el polo negativo hasta el positivo). Esos electrones, al atravesar las diferentes partes del circuito (una resistencia, por ejemplo) ceden esa energía en su viaje de un polo al otro. En una fuente de corriente alterna ocurre lo mismo: la energía eléctrica hace que los electrones se muevan, y éstos ceden su energía al atravesar el circuito. Esa misma energía es también la que obliga a los electrones a cambiar de sentido, pero los electrones también cederán energía cuando recorran el circuito en sentido inverso.
Por hacer un símil, es como cuando estamos usando una sierra para cortar un trozo de madera: tanto si empujamos la sierra como si tiramos de ella, somos nosotros los que entregamos energía a los dientes de la sierra, que son los encargados de ceder esa energía a la madera para arrancar trozos de ella.
En una fuente de corriente alterna, lo más habitual es que el cambio de polaridad no ocurra bruscamente, sino que la diferencia de potencial entre ambos bornes siga algún tipo de ley. Lo más habitual es que estemos hablando de un tipo de señal senoidal.
Si todavía no habéis estudiado nada de trigonometría, vamos a intentar explicarlo de manera sencilla: el seno es una función matemática que relaciona el ángulo de un segmento que gira alrededor de uno de sus extremos con la altura que alcanza el otro extremo. Veamos un ejemplo con un palo:
Pues bien, la senoide o función senoidal es la gráfica que relaciona el ángulo de giro de nuestro palo con la altura que alcanza su extremo. No os resultará difícil entender que hay zonas donde la altura varía poco para un mismo incremento de ángulo, mientras que en otras varía mucho. Cuando el palo está cerca de sus picos (las posiciones donde está en vertical), una ligera variación en el ángulo apenas influye en la altura del extremo. Sin embargo, cuando el palo está en posiciones más o menos horizontales a poco que variemos el ángulo haremos que la altura varíe apreciablemente. Esta característica de la senoide es la que le da esa forma tan estilizada: su pendiente es alta cuando cruza el nivel cero, y en sus máximos y mínimos tiene forma redondeada: su pendiente se va reduciendo poco antes de llegar al límite superior para luego comenzar a descender lentamente, y algo similar ocurre en los mínimos.
Podemos ver también que la curva senoidal pasa por cero en los puntos donde el ángulo es 0° o 180°, y que su valor alcanza un máximo en los 90° y un mínimo en los 270°. También es correcto decir que alcanza el máximo positivo en los 90° y el máximo negativo en los 270°, mientras que los mínimos son los puntos donde la señal vale cero, esto es, 0° y 180°.
¿Hay más tipos de señal alterna? Sí. Infinitos. En función del tipo de aplicación, se usan señales de un tipo u otro. Por ejemplo:
Pero si hablamos de fuentes de energía de corriente alterna, hablaremos prácticamente siempre de señales senoidales. Las redes de distribución de energía eléctrica, esto es, la tensión que tenéis en los enchufes de vuestras casas, utilizan una forma de onda senoidal. ¿Y por qué? Pues porque como hemos visto antes, la senoide es la curva que se obtiene de forma natural a partir de un movimiento de giro y en las centrales eléctricas, los generadores que producen electricidad son máquinas rotativas, que producen energía al girar.
En el apartado anterior explicábamos cómo la corriente alterna iba cambiando de polaridad. Aunque no se mencionaba expresamente, supongo que habréis caído en la cuenta de que además de cambiar de polaridad, la onda (habitualmente nos referiremos al voltaje) va cambiando su valor oscilando entre dos valores de pico, uno positivo y otro negativo, sin que deje de cambiar constantemente.
Lo primero que nos preguntaremos es: ¿a qué valor nos referimos cuando decimos que una tensión alterna es de tantos o cuantos voltios?
Si tuviéseis que decidir vosotros cómo indicar el valor del voltaje de una fuente de tensión alterna seguramente iríais a lo más lógico, que es dar el valor máximo o de pico. Al fin y al cabo, si decimos que una tensión alterna es de 100V de pico, cualquiera puede deducir que entre sus bornes tendremos a lo sumo 100V de diferencia, sin importar la polaridad.
Sin embargo, lo que se utiliza habitualmente para indicar el voltaje de una tensión alterna es otro valor llamado valor eficaz. Y ahora vamos a explicar el motivo.
Si conectamos una resistencia de 100 Ohm a una fuente de tensión continua de 100 V, circulará una corriente de 1 A. Esta corriente también será continua, esto es, su valor será de 1 A en todo momento.
Por lo tanto, la potencia disipada por la resistencia será de 100 V · 1 A = 100 W. Esta potencia, dado que la tensión y la intensidad son continuas (o dicho de otra forma, constantes), también será continua. Podemos decir entonces que la potencia instantánea que la resistencia estará disipando será de 100 W, y además, dado que es constante, si hacemos un promedio en un intervalo de tiempo determinado (un segundo, un minuto, una hora, o el tiempo que sea), la potencia media será también de 100 W porque como hemos dicho, esa potencia es constante y no varía.
Supongamos ahora que la fuente de tensión es alterna. Supongamos también que el valor de la tensión sigue siendo de 100 V, pero ahora nos referimos a la tensión máxima o de pico.
Por nuestra resistencia ahora circulará una corriente que también será alterna, y cuyo valor será de 1 A. Pero ojo, que ese valor se refiere también al valor máximo de la corriente.
¿Qué ocurre con la potencia? Pues en principio nada particular. Seguimos multiplicando la tensión por la corriente, con lo que seguimos teniendo 100 W. Pero ojo, 100 W de pico. Y aquí comienzan las diferencias.
Si representásemos la curva de la potencia disipada por la resistencia, veremos que representa una forma peculiar. La potencia será máxima cuando la tensión y la corriente sean máximas. Además, como multiplicar dos valores negativos da un resultado positivo, la potencia siempre será positiva aunque la tensión y la intensidad sean negativas. Pero también tendremos momentos en los que la resistencia no disipará nada de potencia. Cada vez que la tensión (y por lo tanto, la intensidad) pase por cero, la resistencia no estará disipando calor. Es fácil entender que si hiciésemos el promedio de esa potencia fluctuante, nos saldría un valor menor de 100 W.
Si nuestra resistencia fuese un calefactor veríamos que conectándola a una fuente de tensión continua de 100 V calienta más que si la conectamos a una fuente de tensión alterna de 100 V de pico. Y por eso no se suele utilizar los valores de pico para indicar el voltaje de las fuentes de alterna.
¿Qué valor debemos utilizar? Pues lo hemos dicho antes: el valor eficaz. Y este valor no es más que el valor que tendría que tener una fuente de tensión continua para que una resistencia disipase la misma potencia media.
Vamos a explicarlo de nuevo con nuestro ejemplo del calefactor:
Si medimos ahora la tensión de nuestra fuente alterna, veremos que su valor de pico supera los 100 V. Esto es totalmente normal. Ya habíamos visto que la potencia en alterna era fluctuante, con lo que si queremos obtener un valor medio de 100 W será necesario que en ciertos momentos se sobrepasen esos 100 W para compensar los momentos en los que la potencia es cero.
Se puede demostrar matemáticamente (cosa que no haremos aquí) la relación entre el valor eficaz de una tensión senoidal y su valor de pico, que es esta:
Vpico = Veficaz · sqrt(2)
, o lo que es lo mismo:
Veficaz = Vpico / sqrt(2)
Esto quiere decir que, por ejemplo, si en nuestras casas tenemos un suministro eléctrico de 230 V en corriente alterna, eso quiere decir que la tensión en los enchufes tendrá un valor de pico de 230 V · sqrt(2) = 325 V
OJO !!! Esta relación entre valor eficaz y valor de pico es solamente válida para las formas de onda senoidales. Cada tipo de onda (cada forma, por decirlo coloquialmente) tendrá un valor diferente. No podemos usar esta fórmula si estamos ante una onda triangular, porque el cálculo sería erróneo.
Por lo general, si no se especifica otra cosa, cuando nos den un valor de tensión o de corriente alterna, se estarán refiriendo al valor eficaz. Cuando nos estemos refiriendo al valor de pico lo debemos indicar de forma explícita.
Para según que cálculos o criterios de dimensionamiento, deberemos tener en cuenta el valor de pico. Por ejemplo, si tenemos un condensador conectado a entrada de alimentación alterna de algún aparato, debemos asegurarnos de que ese condensador puede soportar esa tensión. Y para ello no podemos utilizar el valor eficaz sino el de pico, porque el condensador debe soportar la tensión máxima que tendremos en el circuito, no solamente la eficaz.
¿Os habéis parado a pensar qué ocurre con la potencia cuando se trata de corriente alterna? ¿Tendrá también la potencia momentos en los que es positiva y momentos en los que se vuelve negativa?
Aunque la cosa se complicará un poco en el siguiente capítulo, por ahora podéis respirar tranquilos. La potencia respeta siempre la fórmula que hemos visto:
P = V · I
En el caso de una tensión alterna aplicada a una resistencia, la corriente tendrá el mismo signo que la tensión, esto es, será positiva cuando la tensión sea positiva, mientras que la corriente se volverá negativa cuando la tensión sea negativa. Por lo tanto, el producto de V · I será siempre positivo.
Pero ojo, esto ya no será así cuando hablemos (dentro de muy poco) de condensadores y bobinas.
Mientras hemos estado hablando de corriente continua, hemos estado hablando de la resistencia como la característica de un material que determina el mayor o menor grado de oposición que ofrece al paso de corriente eléctrica.
Ese concepto sigue siendo válido para la corriente alterna, pero no suficiente. Una vez entramos en el mundo de la señales periódicas, aparece un nuevo concepto: la fase.
¿Qué es la fase? Pues la fase (o desfase, ya puestos) consiste en la diferencia temporal entre dos señales periódicas. Dicho de otro modo, se refiere a la distancia entre el inicio del periodo de una señal con el inicio del periodo de otra señal. Esta distancia se acostumbra a dar en grados: así, un periodo completo equivale a 360 grados, y la fase de una señal respecto de otra se indica con la fracción equivalente del periodo expresada en grados.
[PONER IMAGEN CON LA EXPLICACION. DOS SEÑALES PERIODICAS DESFASADAS DONDE SE MUESTRE LA DIFERENCIA ENTRE EL COMIENZO DE UNA CON EL COMIENZO DE OTRA]
El concepto de fase hace necesario que se amplíe el concepto de resistencia. Ahora ya no es suficiente con indicar si un material deja pasar mejor o peor la corriente eléctrica, sino que también es necesario indicar el desfase que provoca entre la tensión aplicada y la corriente que circula por él. Por lo tanto, es necesario ampliar el concepto de resistencia y pasar a utilizar los conceptos de reactancia e impedancia. Si la resistencia se representaba por la letra R, para la reactancia e impedancia utilizaremos las letras X y Z respectivamente.
Dado que la reactancia e impedancia implica desfase en señales periódicas, ya no se puede expresar con números reales y es necesario utilizar números complejos (lo sentimos mucho). Pero no os preocupéis porque no son tan complicados como parecen. Todo lo que hemos aprendido hasta ahora sobre la resistencia y la Ley de Ohm es válido para la impedancia, pero ahora tendremos que hacer todos los cálculos con números complejos.
Un elemento resistivo mostrará cierto grado de resistencia al paso de la corriente eléctrica pero no introduce desfase, esto es, la corriente será máxima cuando la tensión sea máxima y será cero en los instantes en los que la tensión sea cero. Ahora veremos cómo hay otros elementos que además de oponerse en mayor o menor grado al paso de la corriente eléctrica, introducen un desfase entre la tensión aplicada y la corriente que los atraviesa. Este comportamiento es lo que se llama reactancia. Atendiendo a si una reactancia retrasa la corriente o retrasa la tensión, se contemplan dos tipos:
Llamamos impedancia a la combinación entre resistencia y reactancia:
Z = R + jX
En el mundo real es imposible encontrar un elemento reactivo puro (así como también es difícil encontrar un elemento resistivo puro), aunque muchas veces hagamos simplificaciones para facilitar los cálculos. Una bobina o un condensador siempre tendrán cierta resistencia interna debido al material con que están hechos, una resistencia mostrará normalmente cierta inductancia debido a los arrollamientos internos, ¡incluso un simple par de pistas rectas en una PCB forman un condensador y muestran una capacidad entre ellas!
Una reactancia inductiva es aquella que provoca un desfase de 90º entre la tensión aplicada y la corriente circulante, estando la corriente retrasada respecto de la tensión. Este es el comportamiento que muestran los inductores o bobinas, de ahí el nombre.
El valor de la reactancia inductiva de una bobina viene determinado por la fórmula:
XL = w·L = 2·pi·f·L
, donde:
ZL = jXL
De la fórmula de la reactancia inductiva se deduce fácilmente que, dado que es proporcional a la frecuencia, la reactancia de una bobina aumenta con la frecuencia. Por eso se dice que las bobinas se oponen al paso de la corriente alterna. Para la corriente continua, en la que la frecuencia es cero, la reactancia también se vuelve nula. De ahí que también se diga que una bobina en corriente continua equivale a un cortocircuito.
Una reactancia capacitiva es aquella que provoca un desfase de 90º entre la tensión aplicada y la corriente circulante, estando la tensión retrasada respecto de la corriente. Este es el comportamiento que muestran los condensadores, de ahí el nombre.
El valor de la reactancia capacitiva de un condensador viene determinado por la fórmula:
XC = 1 / (w·C) = 1 / (2·pi·f·C)
, donde:
ZC = -jXC
De la fórmula de la reactancia capacitiva se deduce fácilmente que, dado que es inversamente proporcional a la frecuencia, la reactancia de un condensador disminuye con la frecuencia. Por eso se dice que los condensadores dejan pasar la corriente alterna. Para la corriente continua, en la que la frecuencia es cero, la reactancia se hace infinita. De ahí que también se diga que un condensador en corriente continua equivale a un circuito abierto.
Como ya hemos explicado, la reactancia se indica empleando números imaginarios. Sin embargo, la resistencia se indica empleando números reales. Por lo tanto, para indicar la impedancia de un componente o de un circuito, deberemos expresarla como un número complejo, donde tengamos una parte real más una imaginaria:
Z = R + j·(XL - XC)
Si en un circuito o componente tenemos partes que muestran reactancia inductiva y otras que muestran reactancia capacitiva, se cancelarán parcial o totalmente y el resultado final será solamente de un tipo, bien capacitivo o inductivo.
Todo lo que hemos visto anteriormente sobre equivalencia de resistencias en serie o en paralelo es aplicable a las impedancias.
Impedancia equivalente en serie:
ZE = ZA + ZB
Impedancia equivalente en paralelo:
1 / ZE = 1 / (ZA + ZB)
Lo volvemos a repetir: todo lo que hemos explicado sobre la resistencia es igual de válido para la impedancia (con sus particularidades matemáticas, claro). Eso aplica también al papel que ocupa la resistencia en la Ley de Ohm, y podemos sustituirla por la impedancia sin alterar la relación matemática.
Eso sí, en la Ley de Ohm que hemos visto, tanto la tensión como la intensidad y la resistencia eran valores reales. Como ahora introducimos la impedancia que se expresa en términos complejos, la tensión e intensidad pasarán también a expresarse en términos complejos.
La Ley de Ohm podemos reformularla así:
I = V / Z
V = I · Z
Z = V / I
Ahora parémonos a analizar las implicaciones que tiene el usar una impedancia compleja. Como sabréis (y si no lo sabéis entonces deberemos añadir un pequeño capítulo para explicarlo), los números complejos se pueden expresar de dos formas diferentes: la binómica o rectangular, y la polar.
La forma polar consiste en indicar el módulo o magnitud del número complejo junto con su argumento o fase. Además, cuando se multiplican números complejos en forma polar, las fases se suman, mientras que cuando se dividen, se restan.
Ahora vayamos con la primera expresión de las tres que hemos puesto de la Ley de Ohm:
I = V / Z
Consideremos ahora que la tensión tiene fase cero, ya que será nuestra referencia. ¿Qué ocurre con la fase de la intensidad? Pues dependerá del tipo de impedancia que tengamos en Z, a saber:
Aunque en electrónica se simplifica mucho, muchas veces, lo cierto es que nunca existe una impedancia puramente resistiva, capacitiva o inductiva. Además, en un circuito donde tengamos resistencias con condensadores y/o bobinas, la impedancia total del mismo tendrá una parte resistiva y otra capacitiva/inductiva (una de las dos).
Cuando un circuito produce un desfase entre tensión e intensidad, se necesita una forma de indicar dicho desfase. La más directa es indicar dicho desfase en grados, con lo que un circuito podrá provocar un desfase en la intensidad respecto de la tensión que oscilará entre 90º (circuito totalmente capacitivo) y -90º (circuito totalmente inductivo), pasando por 0º (circuito totalmente resistivo).
A este ángulo de desfase se le suele llamar phi.
Pero existe otra forma de indicar el desfase entre tensión e intensidad, y es a través del coseno de la fase, en lugar de indicar los grados.
Así, para un circuito puramente resistivo con desfase de 0º tendríamos un coseno igual a 1, mientras que para desfases de 90º o -90º tendríamos un coseno igual a 0. Y para cualquier otra fase intermedia tendremos un valor de coseno que oscilará entre 0 y 1.
Utilizando el coseno de phi perdemos la información de si el desfase es en adelanto o en retraso, por lo que se suele indicar si el circuito es de naturaleza inductiva o capacitiva.
[AÑADIR IMAGEN EXPLICATIVA DEL COSENO DE PHI PARA UN CASO INDUCTIVO Y OTRO CAPACITIVO]
Cuando comenzamos a hablar de potencia en alterna, vimos que el producto V·I era siempre positivo. Esto es cierto si nuestra carga es puramente resistiva, esto es, si V e I están en fase y por lo tanto se hacen positivas o negativas al mismo tiempo.
Pero, ¿qué ocurre cuando existe un desfase entre V e I? Pues creo que ya os lo estáis imaginando: habrá momentos donde la tensión (V) se haga negativa cuando la intensidad (I) todavía sea positiva -o viceversa-, con lo que su producto se volverá negativo.
[PONER IMAGENES DE EJEMPLO DEL PRODUCTO DE DOS SENOIDES, SIN DESFASE Y CON DESFASE]
¿Cómo afecta esto a la potencia media? Matemáticamente hablando, lo que llamamos potencia eléctrica es el valor medio del producto de dos ondas senoidales (la onda senoidal de tensión y la de corriente). Como ya hemos dicho, cuando esas dos ondas están en fase su producto siempre es positivo, pero cuando hay algún desfase entre ambas, habrá ciertos periodos en los que la potencia sea positiva y otros en los que la potencia sea negativa. Al calcular la media, los tramos negativos se restan de los positivos, y el resultado es que el valor medio será menor que si no hubiese desfase.
No es objetivo de esta introducción el dar una clase sobre integrales, así que no vamos a poner la demostración, pero todas esas integrales acaban simplificándose en una expresión bastante sencilla:
P = V · I · cos phi
¡Anda! ¡Pero si tenemos por aquí el coseno de phi! Pues sí, menuda sorpresa, ¿no?. La potencia eléctrica en un circuito donde la tensión y la intensidad están desfasadas queda afectada por el coseno del ángulo de desfase. Dado que un coseno puede tomar valores entre 0 y 1, la potencia máxima ocurrirá cuando cos phi = 1, esto es, cuando phi = 0º; y la potencia mínima ocurrirá cuando cos phi = 0, o lo que es lo mismo, cuando phi sea 90º o -90º.
Y atención, porque esto tiene una implicación importante: en un circuito puramente inductivo o capacitivo, donde el desfase entre V e I sea de 90º (bien en adelanto o en retraso), la pontencia eléctrica será CERO. Sí, lo habéis leído bien: un condensador o una bobina conectadas a una fuente de tensión alterna no consumen potencia (suponiendo que se trate de condensadores o bobinas ideales, claro).
¿Cómo se explica esto? Pues si dibujamos las gráficas de dos senoides desfasadas 90º, y calculamos su producto, nos sale que los tramos positivos son exactamente iguales a los negativos, con lo que se anulan mutuamente. Cuando un condensador o una bobina se conectan a una fuente de tensión alterna, lo que ocurre es que se produce un intercambio mutuo de energía entre la fuente y el elemento reactivo, donde la potencia va de uno a otro sucesivamente.
Acabamos de usar la expresión «elemento reactivo» por una buena razón. La expresión de potencia que hemos visto antes es lo que se llama potencia activa, y es la que produce trabajo. La energía/potencia que intercambian los elementos reactivos (bobinas/condensadores) se llama potencia reactiva, y no podemos realizar ningún trabajo con ella.
Y como no hay dos sin tres, existe otra potencia más, que es la llamada potencia aparente, y que tiene la misma expresión que habíamos visto hasta ahora en los circuitos de corriente continua.
Resumamos ahora las expresiones de las tres potencias:
Potencia aparente: Pap = V · I
Potencia activa: Pa = V · I · cos phi
Potencia reactiva: Pr = V · I · sen phi
Estas tres potencias se suelen representar como los tres lados de un triángulo rectángulo (también cumplen el teorema de Pitágoras):
[PONER IMAGEN DEL TRIÁNGULO DE POTENCIAS]
Y ahora, algo más propio de la electrotecnia que de la electrónica: ¿por qué es importante el coseno de phi cuando hablamos de potencias?
El coseno de phi es algo que hace disminuir la potencia activa respecto de la aparente. Si quiero conseguir una potencia determinada, y tengo un coseno de phi bajo, deberé compensarlo aumentando la tensión o la intensidad. Aumentar la tensión pocas veces es posible, ya que estamos limitados a la tensión del suministro eléctrico, así que lo que casi siempre ocurre es que tendremos que aumentar la intensidad.
Pongamos un ejemplo: Tengo una lámpara fluorescente de 50W/230V que tiene un coseno de phi de 0,5. ¿Qué corriente circulará por él?
I = P / (V · cos phi) = 50 W / (230V · 0,5) = 0,435 A
Ahora supongamos otra lámpara fluorescente de 50 W de otro fabricante que ha mejorado el coseno de phi hasta 0,85:
I = P / (V · cos phi) = 50 W / (230V · 0,85) = 0,256 A
Como podéis ver, cuanto más alto es el coseno de phi, menor es la intensidad necesaria para alcanzar la misma potencia. En el segundo caso necesitamos poco más de la mitad de la intensidad.
Esto, en algo que no consuma mucha potencia, apenas tiene importancia. Pero cuando la potencia alcanza valores considerables, deja de ser algo trivial. No es lo mismo una instalación que deba soportar 100A para iluminar un campo de fútbol, a tener que soportar 200A. Además de que todo el aparetaje tendrá que resistir más intensidad, los cables se calentarán más y las pérdidas por calor serán más altas.
La influencia que tiene el coseno de phi en la potencia activa de un aparato eléctrico es el motivo por el que también es conocido como factor de potencia.
En los contratos de suministro domésticos no es algo que se tenga en cuenta, pero en los consumidores industriales sí es algo penalizable. Las compañías suministradoras nos cobrarán más si nuestro factor de potencia es muy bajo, ya que estaremos demandando más intensidad de la red innecesariamente.
Normalmente el factor de potencia de un aparato eléctrico es inherente a su construcción y poco podemos hacer por modificarlo (por ejemplo, un motor eléctrico), pero sí se puede compensar mediante el uso de condensadores. En la mayoría de los casos, los aparatos eléctricos tienen carácter inductivo, por lo que si ponemos en paralelo con los mismos algunos condensadores (o bien una batería en paralelo con toda la instalación), podremos corregir el factor de potencia y acercarlo a la unidad.
Básicamente, se trata de contrarrestar reactancia inductiva añadiendo reactancia capacitiva.
En los circuitos electrónicos, como por ejemplo amplificadores, son frecuentes las situaciones en las que no tenemos señales puramente continuas ni puramente alternas. En su lugar, lo que suele haber es una mezcla, o suma, de una señal alterna a la que se le superpone un nivel de continua.
Tomemos, por ejemplo, el circuito de la siguiente figura:
[AÑADIR CIRCUITO SIMPLE DE UNA ENTRADA A UN AMPLIFICADOR, CON UN PAR DE RESISTENCIAS DE POLARIZACION ENTRE POSITIVO Y NEGATIVO, Y UNA FUENTE DE SEÑAL ALTERNA CON UNA RESISTENCIA EN SERIE CONECTADA AL PUNTO MEDIO]
El circuito representa lo que sería una entrada típica de señal a un amplificador. El circuito se alimenta con una tensión de continua, y es necesario polarizar la entrada de forma que la tensión en la misma quede justo a la mitad de la tensión de alimentación.
Luego, la señal alterna que aplicamos a la entrada se suma a este nivel de continua, haciendo que la entrada al amplificador oscile alrededor del punto medio de polarización.
¿Cómo debemos analizar entonces estos circuitos? ¿Se trata de un circuito de corriente continua porque, al fin y al cabo, está alimentado por una tensión continua? ¿Son circuitos de corriente alterna porque la señal es alterna? Pues ni una ni otra. Lo que debemos analizar es cada una de las componentes por separado.
Por un lado, se hace un análisis en continua para obtener los valores de polarización del circuito, esto es, los valores de tensión y corriente presentes en los componentes del mismo en ausencia de señal de entrada (asumiendo que estamos hablando de un amplificador).
Una vez resuelta la polarización, nos olvidamos de la corriente continua y nos centramos en el análisis de la señal teniendo en cuenta solamente las fuentes de corriente alterna.
Tenemos que tener en cuenta que lo que ocurrirá en realidad en el circuito será la suma de los dos análisis, pero podemos realizarlos por separado.
Vamos con un ejemplo:
Supongamos que tras analizar la polarización de un amplificador, hemos visto que en el colector de un transistor (no os preocupéis, ya veremos qué es eso) tenemos una tensión en reposo de 6V; y tras analizar el comportamiento con una señal aplicada, vemos que ese mismo colector tendrá una señal alterna de 3 V de pico (dicho de otra forma, la señal oscilará entre +3 V y -3 V).
¿Quiere decir esto que en el colector habrá momentos en que la tensión sea negativa? No, ni mucho menos. Para saber lo que ocurre realmente debemos tener encuenta ambos análisis, el de continua y el de alterna. En ese colector de ese transistor, lo que tendremos es una señal alterna de 3 V de pico superpuesta a un nivel de continua de 6V. Visto con un osciloscopio, sería una onda que oscilaría entre +9 V y +3 V.
En general, se puede realizar el análisis de un circuito donde tengamos varias señales simplemente con análisis parciales en los que apliquemos solamente cada una de las señales y anulemos las otras. Luego, para conocer la respuesta global del circuito tendremos que sumar las diferentes respuestas parciales.
Esto es lo que se llama como teorema de superposición, y viene a decir que cuando en un circuito tenemos dos o más fuentes (de tensión o de corriente, nos da igual), podemos analizar el circuito simplemente con análisis parciales en los que apliquemos cada una de las fuentes por separado. La respuesta final será la suma de los análisis parciales.
Para ello hay que tener algunas cosas en cuenta:
¿Cuál es el motivo de los tres puntos anteriores?
Tomemos el circuito del que hablábamos antes, en el que debemos polarizar la entrada a un amplificador y además conectar la señal de alterna que queremos polarizar:
En este circuito, el punto marcado como «Vtotal» es el punto donde conectamos la entrada del amplificador (puede ser un transistor, un operacional, o lo que sea). Debemos hacer que este punto esté a la mitad de la tensión de alimentación cuando está en reposo, y además debemos aplicar también la señal que queremos amplificar.
Vayamos ahora con el análisis. Como tenemos dos fuentes de tensión (la de alimentación y la de la señal de entrada), debemos calcular el comportamiento del circuito con cada una de las fuentes por separado, y luego sumar los resultados. En cada análisis, la fuente que no intervenga en el mismo debe ser sustituida por su impedancia interna (cortocircuito para las fuentes de tensión y circuito abierto para las fuentes de corriente).
¿Habéis entendido la misión de C1? Poner un condensador a la entrada hace que la fuente de señal de entrada no influya en la polarización de continua, ya que el condensador es un circuito abierto para la corriente continua, pero a la vez permite transmitir la señal alterna. Tan solo debemos preocuparnos de que tenga una capacidad suficiente para que su impedancia sea despreciable frente a las resistencias presentes en el circuito.
Este condensador se llama condensador de desacoplo (o de acoplo), por que nos permite independizar (desacoplar) los niveles de continua entre la red de polarización y la fuente de señal, a la vez que nos permite transmitir (acoplar) la señal que queremos enviar a nuestro circuito.
La presencia de condensadores de acoplo/desacoplo es muy habitual en los amplificadores, tanto a la entrada (como acabamos de ver), como a la salida (para que al altavoz no llege ninguna tensión continua), como internamente entre las diferentes etapas del amplificador (para aislar los niveles de polarización de una etapa respecto de la siguiente).
Ahora tomaremos el mismo circuito que en el ejemplo anterior, pero sustituiremos la resistencia R2 por una fuente de corriente constante, tal que así:
[INSERTAR IMAGEN CIRCUITO]
Cuando teníamos dos resistencias, el punto de polarización quedaba situado justamente a la mitad de la tensión de alimentación porque R1 y R2 eran iguales. No lo hicimos en su momento, pero no es difícil calcular que por estas resistencias, y en reposo (sin señal a la entrada), circulará una corriente de 0.5 mA (10 voltios divididos por 20 KOhm). Ese es el motivo de que le hayamos puesto a la fuente de corriente justamente el valor de 0.5 mA.
Vayamos ahora con el análisis. Tenemos que tener en cuenta que ahora contamos con tres fuentes y no dos, por lo que tendremos que calcular tres aportes parciales de cada una de las fuentes.
¿Os habéis fijado en la ventaja que nos aporta la fuente de corriente? Antes, cuando polarizábamos con dos resistencias, su impedancia equivalente en el análisis de alterna era la mitad porque quedaban en paralelo, y de la señal aplicada a la entrada tan sólo nos quedaba la tercera parte. Ahora la fuente de corriente mejora un poco la situación, porque ante la señal de entrada se comporta como un cortocircuito y gracias a eso el nivel de señal que nos queda pasa de 0.33 a 0.5 voltios.
El uso de fuentes de corriente es también algo frecuente en los amplificadores, ya que permiten polarizar partes del circuito sin provocar bajadas de señal (precisamente porque ante la señal se comportan como un circuito abierto). ¿Y cómo conseguimos una fuente de corriente? No os preocupéis, veréis más adelante que existen componentes que se comportan como fuentes de corriente.
Recordemos las fórmulas que determinan el valor de las reactancias inductivas y capacitivas que vimos no hace mucho:
XL = w·L = 2·pi·f·L
XC = 1 / (w·C) = 1 / (2·pi·f·C)
Las bobinas y los condensadores son elementos cuya impedancia varía con la frecuencia. Como ya habréis adivinado, una de sus principales aplicaciones es la de construir filtros para separar unas frecuencias de otras.
Los condensadores, al tener una impedancia que disminuye con la frecuencia, dejan pasar las frecuencias más altas cuando los ponemos en serie (intercalados en el camino de la señal, se entiende), bloqueando las más bajas. Si en lugar de ponerlos en serie los ponemos en paralelo derivando la señal a masa, se comportarán como un cortocircuito para las frecuencias altas, dejando sin derivar las frecuencias bajas.
El mismo razonamiento podemos aplicarlo a las bobinas, solo que ahora las bobinas presentan una impedancia que aumenta con la frecuencia. Por lo tanto, insertadas en serie bloquearán las frecuencias altas y dejarán pasar las bajas, mientras que en paralelo (derivando la señal a masa) anularán las frecuencias bajas y dejarán inalteradas las altas.
Veamos algunos ejemplos de circuitos RC y RL en sus dos posibles configuraciones, junto con sus curvas de respuesta en frecuencia:
[INSERTAR IMAGENES DE CIRCUITOS RC/CR y RL/LR JUNTO CON SUS CURVAS DE RESPUESTA]
¿Se pueden usar filtros LC? ¡Pues claro! Es más, su curva de respuesta es más abrupta, lo cual indica que son mejores separando frecuencias. Sin embargo, como las bobinas son componentes más caros (no son tan fáciles de fabricar como las resistencias y los condensadores), para los filtros se suelen utilizar redes RC con diferentes topologías y/o varias etapas. Pero eso ya lo veremos otro día, si eso.
[INSERTAR IMAGENES DE FILTROS LC Y CL JUNTO CON SUS CURVAS DE RESPUESTA]
¿Recordáis cuando hablábamos del comportamiento de los condensadores en continua, y cómo los utilizábamos como depósitos para disminuir las oscilaciones en las fuentes de alimentación. Bien, pues esa era una de las posibles ópticas bajo la que se podía explicar su comportamiento. La otra forma es decir simplemente que los condensadores de filtrado simplemente cortocircuitan la componente alterna (el rizado), manteniendo el nivel de continua (la tensión continua que queremos obtener).
Lo mismo aplica para los inductores que se utilizan en muchas fuentes de alimentación. Si los condensadores de filtrado se ponían en paralelo para derivar a masa el rizado, los inductores iban en serie (entre la entrada y la salida) para bloquear la componente de corriente alterna y que solo pueda circular la componente de corriente continua.
Ya hemos explicado en el capítulo anterior cómo se pueden utilizar los condensadores y las bobinas para filtrar frecuencias, así que vamos directamente a explicar cada cada caso.
Un filtro paso bajo es aquel que deja pasar las frecuencias bajas, mientras que anula las frecuencias altas. Como siempre, el término «altas» y «bajas» es relativo, ya que podemos establecer el punto de corte donde nosotros queramos.
A continuación podéis ver el circuito de un filtro paso-bajo construido con una red RC:
[INSERTAR IMAGEN DE FILTRO RC PASO BAJO, JUNTO CON RESPUESTA EN FRECUENCIA Y FASE]
El filtro RC paso-bajo, y todos los filtros realmente, se comportan como un divisor de tensión: por un lado tenemos una resistencia cuyo valor permanece fijo para todas las frecuencias, y por otro lado un condensador cuya impedancia varía con la frecuencia. Conforme aumenta la frecuencia, el valor de la impedancia del condensador disminuye, y por lo tanto la salida del divisor de tensión también disminuye a medida que aumenta la frecuencia.
Y con eso es suficiente. Tenemos un divisor de tensión que va reduciendo el valor de la tensión de salida en función de la frecuencia, que es precisamente lo que buscamos. Nuestro filtro paso-bajo.
Hay un punto bastante interesante en este filtro, y es el que corresponde a la frecuencia en la que la impedancia del condensador iguala al valor de la resistencia. En esa situación, la salida del filtro será exactamente la mitad de la tensión de entrada. Expresado en decibelios, equivale a una disminución de 3 dB en la tensión de salida. Esta frecuencia es a la que llamamos frecuencia de corte.
El valor de esta frecuencia es por lo tanto:
XC = R
1 / (wC·C) = R ; wC = 1 / (R·C)
1 / (2·pi·fC·C) = R ; fC = 1 / (2·pi·R·C)
Analicemos las tres partes de la curva de respuesta:
A todo esto, es necesario indicar que las gráficas de respuesta en frecuencia se suelen dar en formato semilogarítmico. Aunque el eje vertical (la ganancia del filtro) utilice una graduación lineal, en el eje horizontal (la frecuencia) es necesario utilizar una escala logarítmica para poder abarcar grandes rangos de frecuencia sin perder detalle.
Si utilizásemos una escala lineal para la frecuencia y quisiésemos ver algún detalle en las frecuencias bajas, no nos cabrían en el gráfico las frecuencias altas. Y viceversa, si quisiésemos ver algún detalla de las frecuencias altas, las frecuencias bajas estarían tan comprimidas (ocuparían centésimas de milímetro solamente) que no podríamos ver nada en ellas. Por eso la escala logarítmica es tan útil: cada orden de frecuencias (de 1 Hz a 10 Hz, de 10 Hz a 100 Hz, de 1KHz a 10KHz, etc…) ocupa el mismo espacio en la escala.
Debido a las características de esta curva de respuesta, muchas veces se simplifica su representación a solamente dos rectas: plana hasta la frecuencia de corte, y la pendiente de -20 dB/década a partir de la misma.
[INSERTAR IMAGEN DE UNA CURVA DE RESPUESTA SIMPLIFICADA]
¿Podemos construir un filtro paso bajo con bobinas en lugar de condensadores? Pues claro que sí. Pero como la bobina, al contrario de lo que hace el condensador, aumenta su impedancia con la frecuencia, debemos intercambiar las posiciones. Algo tal que así:
[INSERTAR IMAGEN DE FILTRO RL PASO BAJO, JUNTO CON RESPUESTA EN FRECUENCIA Y FASE]
En el caso del filtro RL paso-bajo, por debajo de la frecuencia de corte la bobina ofrece una impedancia más baja que la resistencia, con lo que el factor de reducción que se produce en el divisor de tensión es cercano a 1. Para valores cercanos a la frecuencia de corte, la impedancia de la bobina comienza a tener relevancia y la salida del divisor de frecuencia comienza a bajar. Al igual que en el filtro RC, una vez superada la frecuencia de corte nos encontramos con una pendiente casi constante de -20 dB/década.
La definición de frecuencia de corte es la misma que antes: el punto donde la salida del divisor es la mitad de la entrada, o dicho de otro modo, el punto donde la impedancia de la bobina iguala a la resistencia.
XL = R
wC·L = R ; wC = R / L
2·pi·fC·L = R ; fC = R / (2·pi·L)
Si comparáis el filtro paso bajo RC que hemos visto antes con el filtro RL que acabamos de describir, veréis que trabajan en el mismo rango de frecuencias. Pero fijaos ahora en los valores de los componentes, más concretamente en el valor de la inductancia de la bobina.
Sí, es de un Henrio. No es un error, no nos hemos olvidado del «micro» ni del «mili». Un Henrio enterito, desde arriba hasta abajo. Ahora os váis a la web de cualquier distribuidor o fabricante de componentes y buscáis inductores de 1 H, y entenderéis por qué los filtros se hacen siempre con condensadores.
El empleo de filtros basados en inductores tiene sentido cuando se trabaja a frecuencias muy altas (de señales de radio para arriba), porque a esas frecuencias los valores de inductancia que se necesitan son pequeños y por lo tanto asumibles.
Seguro que no os lo imagináis, así que vamos a sorprenderos: un filtro paso alto es aquel que deja pasar las frecuencias altas, mientras que anula las frecuencias bajas. Seguimos insistiendo: el término «altas» y «bajas» es relativo, ya que lo elegimos nosotros.
Un filtro RC paso-alto tiene una topolgía similar a la del paso-bajo, pero con los componentes intercambiados. Donde antes teníamos el condensador, ahora tenemos la resistencia y viceversa:
[INSERTAR IMAGEN DE FILTRO RC PASO ALTO, JUNTO CON RESPUESTA EN FRECUENCIA Y FASE]
Seguro que ya váis comprendiendo la mecánica. Sí, volvemos a tener un divisor de tensión, pero ahora el condensador está intercalado entre la entrada y la salida. Conforme la frecuencia aumente, su impedancia irá disminuyendo y por lo tanto la relación de división del divisor de tensión se irá acercando a 1.
Igual que ocurría con el filtro paso-bajo, el punto de interés es cuando se igualan las impedancias del condensador y la resistencia, y su fórmula es la misma:
wC = 1 / (R·C)
fC = 1 / (2·pi·R·C)
También de forma similar a lo que ocurría en el filtro paso-bajo, tenemos tres zonas en la curva de respuesta:
Y por supuesto, podemos construir una gráfica simplificada siguiendo los mismos criterios que vimos en el filtro paso-bajo.
[INSERTAR IMAGEN DE UNA CURVA DE RESPUESTA SIMPLIFICADA DE UN FILTRO PASO-ALTO]
Vale, vale, ya sabemos que lo estáis pillando. Claro que podemos construir un filtro paso-alto con bobinas, no podía ser de otra forma. Este es:
[INSERTAR IMAGEN DE FILTRO RL PASO ALTO, JUNTO CON RESPUESTA EN FRECUENCIA Y FASE]
Como queremos que el filtro paso-alto anule las bajas frecuencias, y dado que la bobina muestra una impedancia baja para las bajas frecuencias, lo que hacemos es poner la bobina «cortocircuitando» la señal a masa. En bajas frecuencias funcionará esta especie de cortocircuito, y en altas frecuencias el cortocircuito se irá desvaneciendo poco a poco.
wC = R / L
fC = R / (2·pi·L)
¿Y si queremos un filtro que rechace las frecuencias por debajo de un cierto valor, pero también las que estén por encima de otro valor determinado? Lo que estamos buscando en ese caso se llama un filtro paso-banda. El filtro paso-banda permite el paso de un rango de frecuencias, y rechaza las que estén por debajo o por encima de ese rango:
[INSERTAR IMAGEN DE FILTRO RC PASO-BANDA, JUNTO CON RESPUESTA EN FRECUENCIA Y FASE]
¿Véis algo familiar? Un filtro paso banda no es más que la concatenación de dos filtros, un paso-bajo y un paso-alto. La señal de la entrada tendrá que sortear dos redes RC: en una de ellas perderá las frecuencias bajas, y en otras perderá las frecuencias altas. Las frecuencias que sobrevivan serán las que lleguen a la salida.
Obviamente, al diseñar un filtro paso-banda hay que tener cuidado de que la frecuencia de corte de la etapa paso-bajo debe ser superior a la frecuencia de corte de la etapa paso-alto. Si no fuese así, ¡ninguna frecuencia conseguiría pasar el filtro!
Podemos hacer cálculos más precisos, pero si las frecuencias de corte están lo suficientemente separadas, las fórmulas que hemos visto antes siguen siendo válidas:
wC1 = 1 / (R1·C1)
fC1 = 1 / (2·pi·R1·C1)
wC2 = 1 / (R2·C2)
fC2 = 1 / (2·pi·R2·C2)
¿Qué hay que poner antes, la etapa paso-bajo, o la paso-alto? Pues realmente da igual. Esto también funcionaría:
[INSERTAR IMAGEN DE FILTRO RC PASO-BANDA CON LAS ETAPAS INTERCAMBIADAS, JUNTO CON RESPUESTA EN FRECUENCIA Y FASE]
¿Y con bobinas? Claro que se pueden hac… ¡No, hombre, no! ¿Pero no has visto las pedazo bobinas que tenemos que usar? El empleo de bobinas para hacer filtros tiene sentido en muy altas frecuencias, pero aquí vamos a olvidarnos de eso. Que sepáis que se puede, y punto.
[INSERTAR IMAGEN FILTRO RL PASO-BANDA, JUNTO CON RESPUESTA EN FRECUENCIA Y FASE]
En el apartado anterior dijimos que para el filtro paso-banda, la frecuencia de corte de la etapa paso-bajo tenía que ser superior a la frecuencia de corte de la etapa paso-alto. De esa forma tenemos un grupo de frecuencias que serán más altas que el corte del paso-alto, por lo que podrán pasar por él, y también serán más bajas que el corte del paso-bajo, con lo que tampoco les afectará.
¿Cómo conseguimos el efecto contrario? Es decir, ¿cómo hacemos que por un filtro pasen TODAS las frecuencias EXCEPTO un intervalo determinado. Eso es lo que llamamos un filtro de rechazo de banda. Y no, no se consigue intercambiando las etapas del paso-banda, porque ya habíamos indicado que eso no tenía ningún efecto.
Para que se produzca el rechazo de una banda ya basta con algo tan obvio como encadenar dos etapas bajo+alto. Debemos cambiar la topología de nuestro filtro para que la señal tenga dos caminos alternativos, en lugar de una cadena en serie. En el filtro paso banda la señal atravesaba dos etapas, y en cada una de ellas se iban descartando frecuencias. Ahora, en el filtro de rechazo de banda tenemos que hacer que la señal pase por dos etapas simultáneamente, y que a la salida tengamos todas las frecuencias que hayan podido pasar por alguna de ellas. Las frecuencias que no hayan podido pasar por ninguna de las etapas (que, recordemos, están en paralelo) serán las que desaparezcan y no consigan llegar a la salida.
[INSERTAR IMAGEN DE FILTRO RC RECHAZO BANDA. JUNTO CON RESPUESTA EN FRECUENCIA Y FASE]
Vamos a ver si entendemos cómo funciona:
XR1C1 = XR2C2
R1/(1 + wR1C1) = (1 + wR2C2) / wC2
wR1C2 = (1 + wR1C1)·(1 + wR2C2)
wR1C2 = 1 + wR1C1 + wR2C2 + w2R1C1R2C2
w2(R1C1R2C2)+w(R1C1+R2C2-R1C2) + 1 = 0
w1 = [-(R1C1+R2C2-R1C2)-sqrt((R1C1+R2C2-R1C2)2 - 4R1C1R2C2)] / 2R1C1R2C2
w2 = [-(R1C1+R2C2-R1C2)+sqrt((R1C1+R2C2-R1C2)2 - 4R1C1R2C2)] / 2R1C1R2C2
Se hace durillo, eh?
Veamos mejor un caso numérico:
R1 = 10 KOhm
R2 = 1 KOhm
C1 = 100 nF
C2 = 1 uFw1 = 127,02 Hz
w2 = 7872,98 Hz
Otra topología muy utilizada para los filtros de rechazo de banda es la de doble T. Consiste en dos ramas en paralelo, una RCR para el paso bajo y otra CRC para el paso alto. No vamos a entrar en el cálculo de las frecuencias de corte porque excedería los objetivos de esta pequeña (ja, ja) introducción.
[INSERTAR IMAGEN DE FILTRO RC RECHAZO BANDA. JUNTO CON RESPUESTA EN FRECUENCIA Y FASE]
Hasta ahora hemos visto filtros construidos con redes RC, o con redes RL, pero sin mezclar todos los tipos de componentes. El filtrado se consigue aprovechando la variación de impedancia de los elementos reactivos (C, L) respecto de los elementos no reactivos ®.
Los filtros resonantes utilizan redes RLC, y aprovechan la cancelación (o el refuerzo) de impedancia entre condensadores y bobinas. Estos filtros son por lo tanto «de banda», bien sea para dejarla pasar o para cancelarla, y más que banda, podríamos decir «de canal» ya que se suelen utilizar precisamente para eso, para filtrar (o seleccionar) una franja relativamente estrecha de frecuencias.
El circuito RLC serie utiliza un grupo LC conectado en serie para que en una frecuencia concreta sus impedancias se anulen mutuamente. En función de la topología del circuito, el filtro podrá dejar pasar esa frecuencia o bien eliminarla.
Este sería el esquema de un filtro RLC serie que permitiría el paso de una banda de frecuencias:
[INSERTAR ESQUEMA FILTRO RLC SERIE PASO BANDA]
Este sería el esquema de un filtro RLC serie que rechazaría una banda de frecuencias:
[INSERTAR ESQUEMA FILTRO RLC SERIE RECHAZO BANDA]
Con un condensador y una bobina en serie, la frecuencia a la cual sus impedancias se anulan es la siguiente:
XC = XL
1 / (wC·C) = wC·L
wC2 = 1 / (L·C)
wC = 1 / sqrt(L·C)
fC = 1 / (2·pi·sqrt(L·C))
En los dos esquemas anteriores, el grupo LC y la resistencia R son las dos partes de un divisor de tensión. En la frecuencia de resonancia y su entorno, el grupo LC tiene una impedancia nula o muy cercana a cero. En función de si el grupo LC está en una mitad u otra del divisor de tensión, hará que estemos dejando pasar esa frecuencia desde la entrada hacia la salida, o bien que estemos cortocircuitándola hacia masa.
Si en una disposición serie, un grupo LC tiene una frecuencia a la cual su impedancia se anula, cuando colocamos esos componentes en paralelo se produce el efecto inverso: su impedancia tiende a infinito. Es lo que se llama un circuito tanque.
A la frecuencia de resonancia, la impedancia de la bobina y del condensador son exactamente iguales, pero recordemos que son reactancias de signo contrario. Esto implica que:
Y el nombre de circuito tanque viene precisamente de ahí, porque el condensador y la bobina van intercambiando la energía: el condensador se carga hasta que la bobina deja de proporcionar corriente, luego se descarga sobre la bobina y cuando la tensión llega a cero es cuando la bobina está en su máximo de intensidad, volviendo a cargar el condensador pero con la polaridad contraria, y vuelta a completar el ciclo.
Este sería el esquema de un filtro RLC paralelo que permitiría el paso de una banda de frecuencias:
[INSERTAR ESQUEMA FILTRO RLC PARALELO PASO BANDA]
Este sería el esquema de un filtro RLC paralelo que rechazaría una banda de frecuencias:
[INSERTAR ESQUEMA FILTRO RLC PARALELO RECHAZO BANDA]
La condición de resonancia es la misma, que ambas impedancias sean iguales, y por lo tanto la frecuencia de resonancia tienen la misma expresión matemática que en el filtro RLC serie.
Si recordáis, los filtros RC que hemos visto antes tenían una pendiente característica de 20 dB por década (sea ascendiente o descendiente). Esto se debe a que en la expresión de la impedancia de un elemento reactivo (bobina o condensador) aparece la frecuencia. Si la frecuencia varía en un factor de 10, la impedancia también lo hará, y esa variación de un factor de 10 en la amplitud de una señal equivale a 20 dB.
¿Y si tuviésemos más de un elemento reactivo? En la expresión que nos da la salida del filtro aparecería la frecuencia dos veces, y por lo tanto una variación de un factor de 10 en la frecuencia significaría una variación de un factor de 100 en la expresión total. Y una variación de un factor de 100 en amplitud equivale a 40 dB.
Y así sucesivamente: tres elementos reactivos, 60 dB; cuatro, 80 dB; etc.
Cuando se necesitan filtros cuyo corte se produzca más abruptamente, los filtros de primer orden no son suficientes y debemos emplear filtros más elaborados.
Podemos combinar bobinas y condensadores en una misma etapa, con lo que tendríamos un filtro de segundo orden en una sola etapa (un solo divisor de tensión), o podemos concatenar etapas de primer orden (etapas RC, por ejemplo) para conseguir el filtro del orden que queramos.
La filosofía del filtro LC es la misma que hemos visto en apartados anteriores. La única diferencia es que antes teníamos un divisor donde una de las mitades iba cambiando su impedancia, y ahora serán las dos mitades las que lo hagan:
[INSERTAR ESQUEMA FILTRO LC PASO BAJO]
¿Véis que la pendiente ahora es más pronunciada?
Uy, ¿qué es ese pico? ¡Es la resonancia, amigos!
La fórmula de la frecuencia de corte es la misma que en los filtros resonantes, porque la condición es la misma: el punto donde las dos impedancias se igualan:
fC = 1 / (2·pi·sqrt(L·C))
Si le damos la vuelta al filtro LC paso bajo, nos queda un filtro LC paso alto:
[INSERTAR ESQUEMA FILTRO LC PASO BAJO]
No deberíais preguntar a estas alturas cuál es la fórmula de la frecuencia de corte.
Construyamos ahora un filtro de segundo orden, pero con redes RC.
Esto sería un filtro RC paso bajo de segundo orden (con dos etapas):
[INSERTAR ESQUEMA FILTRO RC PASO BAJO DE ORDEN 2]
¿Cuál es la expresión de la frecuencia de corte? Pues la cosa se va complicando, la verdad. Podríamos pensar que, dado que todos los condensadores y resistencias son del mismo valor, la expresión debería ser la misma que en el filtro de primer orden. Pero no.
Para empezar, ambas etapas no son independientes. La segunda etapa altera el divisor de tensión de la primera etapa. Podríamos aislar las etapas con un amplificador intermedio. Ese amplificador tendría una impedancia de entrada casi infinita, y tendría ganancia unitaria, de forma que la primera etapa no percibiese que tiene conectada a la segunda etapa.
Aún así, en esas condiciones, la expresión de la frecuencia de corte de primer orden tampoco sería válida, porque a esa frecuencia nuestro filtro estaría perdiendo 6 dB por tener dos etapas.
Para nuestro filtro de segundo orden, y asumiendo que todas las resistencias y condensadores son iguales, la frecuencia de corte sería:
[PONER AQUI EL CALCULO]
Lo sentimos mucho. Dijimos que iba a haber pocas matemáticas y se nos ha ido la mano. Intentaremos que no vuelva a ocurrir.
Podemos seguir añadiendo etapas a nuestro filtro y aumentar la pendiente, pero la cosa se irá complicando cada vez más. A medida que se va aumentando el orden del filtro, su respuesta en la banda de paso deja de ser plana y el cálculo se complica bastante. Ya en el filtro de segundo orden se aprecia que la zona de la frecuencia de corte tiene una curva más suave que en el filtro de segundo orden, y la zona donde la pendiente es ya una línea recta está más alejada que antes. Pues bien, conforme aumentamos el orden, este efecto se agrava.
Existe infinidad de literatura y el mundo de los filtros da para abarcar asignaturas completas en una carrera universitaria. Existen filtros más avanzados, como los Butterworth, Chebyshev, Bessel, elípticos, etc., cada uno con unas características más adecuadas a según qué uso. Su cálculo es arduo y para diseñarlos se suelen emplear tablas de coeficientes precalculadas.
Comienza lo interesante!
El silicio es un material semiconductor, al igual que el germanio. En la tabla periódica, está en la frontera de los metales con los no-metales. Aún así, el silicio puro tampoco es que conduzca mucho, la verdad. Forma cristales y los cristales lo suelen tener todo atado y bien atado. Aunque el germanio es un elemento hermano del silicio con propiedades parecidas y se sigue utilizando hoy en día, su uso se limita a aplicaciones muy concretas y la mayoría de semiconductores de uso general están basados en el silicio.
El silicio tiene cuatro electrones en su última capa (síiii, y el gemanio también), y con esos cuatro electrones forma enlaces covalentes entre sus átomos. Estos cuatro electrones quedan bastante bien retenidos en la retícula cristalina, y su movilidad es tirando a baja.
¿Qué ocurre si al silicio le metemos impurezas?
Al silicio con impurezas se le llama silicio dopado. Podemos doparlo con algún elemento que tenga más electrones en su última capa que los que tiene el silicio, o podemos doparlo con algún elemento que tenga menos electrones.
Si lo dopamos con un elemento que, por ejemplo, tenga cinco electrones en su última capa, los átomos de este elemento buscarán su sitio en la retícula del silicio y pasarán a ser uno más, pero con la particularidad de que tienen un electrón desemparejado que no tiene con quién formar enlace, y por lo tanto tendrá cierta movilidad. A este silicio se le llama silicio de tipo N, porque posee cargas negativas móviles que pueden actuar como portadoras de carga. El silicio dopado adquiere así mucha mayor conductividad que el silicio puro.
Si por el contrario dopamos el silicio con un elemento que, por ejemplo, tenga solo tres electrones en su última capa, lo que ocurrirá es que los átomos de este elemento extraño formarán parte de la retícula del silicio pero no podrán formar los cuatro enlaces de rigor. Por lo tanto, se quedará un «hueco» en la red de enlaces. Pero resulta que la existencia de este hueco hace que los electrones de otros enlaces puedan saltar hacia este hueco y llenarlo, dejando un nuevo hueco en su ubicación original. A este fenómeno se le llama movimiento de huecos y a este tipo de silicio se le llama silicio de tipo P porque la conducción eléctrica se produce por cargas positivas (sí, la falta de cargas negativas -huecos- se consideran cargas positivas).
Hemos hablado de electrones y huecos como portadores de carga. En el silicio N, los electrones son portadores mayoritarios, porque son la inmensa mayoría de cargas que son libres para moverse; de igual forma, en el silicio P los portadores mayoritarios con los huecos.
Pero en el silicio, además de los portadores mayoritarios existen también los portadores minoritarios. Son aquellos que, por el simple efecto de la temperatura, adquieren la suficiente energía para liberarse de la red cristalina y moverse libres. En el silicio tipo N los portadores minoritarios son los huecos, mientras que en el silicio tipo P son los electrones. En el funcionamiento normal de un diodo no tienen un impacto notorio, pero sí cobran un papel fundamental en ciertas condiciones, como veremos más adelante.
¿Qué ocurre si juntamos silicio de tipo P con silicio de tipo N?
Los electrones que «sobran» en el silicio tipo N comenzarán a llenar los huecos del silicio de tipo P, fenómeno conocido como recombinación. Esto hace que la zona de silicio tipo N de donde han salido esos electrones se quede con una carga neta positiva (porque los núcleos de los átomos de impureza sí que siguen teniendo todos sus protones), mientras que la zona donde se han llenado los huecos queda con una carga neta negativa (porque los núcleos de impureza no han ganado ningún protón).
Estas dos zonas cargadas eléctricamente forman una barrera de potencial que se opone al movimiento de electrones desde la zona N a la P, y hace que la recombinación, que comenzó cuando ambos silicios se pusieron en contacto, acabe por detenerse cuando se alcanza el potencial suficiente. A la zona donde se forma la barrera de potencial, y donde ya no quedan electrones ni huecos libres, se le llama zona de agotamiento.
Este potencial depende de la naturaleza del material semiconductor, así como de la concentración de impurezas (la intensidad del dopaje). Típicamente, para el silicio se adopta como valor de potencial estándar el de 0,7 voltios, mientras que para el germanio es de 0,3 voltios. A pesar de ello, la realidad es que la barrera de potencial puede variar mucho de un modelo de diodo a otro, a pesar de que ambos estén basados en el silicio, por lo que en ciertos casos es conveniente no dar por sentado que la barrera de potencial será de 0,7 V, y necesitaremos consultar los datos del fabricante.
Pero vayamos a lo importante: ¿qué tiene de particular la unión P-N? Pues ni más ni menos que su comportamiento ha dejado de ser linear: os presentamos al diodo.
Como hemos dicho antes, en una unión P-N tenemos una barrera de potencial que hace que los electrones dejen de fluir del lado N hacia el lado P. Pero con ayuda exterior, podemos hacer que esos electrones continúen moviéndose.
Si conectamos el positivo de una fuente de voltaje al silicio tipo P, y el negativo al silicio tipo N de una unión P-N, el potencial de la fuente contrarrestará la barrera de potencial interna del diodo, y esta anulación se produce completamente la recombinación comenzará a producirse de nuevo. Además, a medida que nuevos electrones entran desde el negativo de la fuente hacia el silicio-N, otros electrones abandonan el silicio-P hacia el positivo de la fuente de voltaje. En esta situación se dice que el diodo está en polarización directa, y permite el paso de corriente eléctrica por su interior.
El voltaje mínimo que debe tener la fuente externa para anular la barrera de potencial, es precisamente el voltaje de esa barrera de potencial, que recordemos es de unos 0,7 voltios para el silicio (0,3 voltios para el germanio).
Supongamos ahora que hemos conectado la batería al revés, con el negativo al silicio-P de nuestro diodo, y el positivo al silicio-N. En un primer momento, los electrones móviles del silicio-N se irán hacia el positivo de la fuente, mientras que nuevos electrones entrarán desde el negativo de la fuente hacia el silicio-P, ocupando huecos.
Esto hace que la zona de agotamiento se haga más grande, y la barrera de potencial aumente todavía más. Prácticamente ningún electrón de la zona P podrá pasar ya a la zona N, porque la barrera de potencial se lo impide, y por lo tanto no se establecerá ninguna corriente eléctrica.
Prácticamente ningún electrón de la zona P podrá pasar ya a la zona N. ¿Ninguno? ¡¡¡No!!! Una irreductible aldea gala se resiste a… Perdón, perdón.
Con una unión P-N en polarización inversa acabamos de ver que no se produce establecimiento de corriente eléctrica, al menos de forma apreciable. Aquí es donde cobran importancia los portadores minoritarios.
Tanto en la zona N como en la P, se forman espontáneamente pares de electrón-hueco por efecto de la temperatura. Eso implica que los portadores minoritarios (los electrones de la zona P y los huecos de la zona N) sí están en condiciones de atravesar la zona de agotamiento. Afortunadamente, los portadores minoritarios son muy pocos, por lo que esta corriente es muy pequeña (el diodo polarizado inversamente en un buen aislante, pero no perfecto).
Pero cuando la tensión inversa aplicada al diodo excede ciertos límites, estos portadores minoritarios cruzan con tanta energía la zona de agotamiento, que en su viaje chocan con otros enlaces, rompiéndolos y produciendo nuevos pares electrón-hueco, en un efecto de avalancha. La corriente inversa comienza a crecer de forma muy brusca y se produce la ruptura por avalancha de la unión P-N.
La energía liberada en la ruptura por avalancha es tan grande que normalmente supone la destrucción del elemento. Sin embargo, existen diodos diseñados específicamente para trabajar en conducción inversa (los diodos de avalancha y los diodos Zener).
La curva característica de un diodo es la gráfica que relaciona los valores de tensión aplicada a sus terminales con la corriente que circula entre ellos. Dado que el diodo es un elemento muy poco lineal, su curva característica va a ser, efectivamente, algo muy alejado de una recta.
Y sin más que comentar, aquí la tenéis:
[INSERTAR GRAFICA V/I DE UN DIODO]
Olvidémonos por un momento de la mitad izquierda y fijémonos en la derecha:
Ahora vamos a reformular el último punto de los anteriores. No vamos a decir nada diferente, pero cambiaremos la relación causa efecto:
¿Os quedó claro cuál es el comportamiento de un diodo en conducción? Os lo diremos de otra forma: cuando un diodo conduce, la tensión entre sus terminales es prácticamente constante, y apenas varía por mucho que varíe la corriente que lo atraviesa.
El valor donde la curva se dispara es la tensión característica de la unión PN, que ya comentamos antes. Diferentes tipos de diodo (según material, dimensiones, fabricación, etc…) comenzarán a conducir con diferentes valores de tensión directa.
Fijémonos ahora en la mitad izquierda de la gráfica. En esta zona, para un intervalo muy grande de tensiones, la curva es plana y prácticamente cero (tendríamos que hacer bastante zoom para ver que hay una pequeñísima separación entre la gráfica y el eje). Digámoslo de otra forma: por mucho que aumentamos la tensión (negativa) aplicada al diodo, la intensidad apenas es apreciable. Por lo tanto, esta es la zona de bloqueo del diodo, en la que no conduce.
Pero, ¡ojo!, que todos los diodos tienen un límite, y si lo superamos llegamos a esa caída abrupta que se ve a la izquierda: cuando la tensión llega a un valor crítico (que también depende del tipo de diodo) de tensión negativa, se pone a conducir de forma brusca. Es el punto en el que alcanza la ruptura por avalancha, y normalmente viene acompañado de humo mágico.
Por qué sustituimos un diodo cuando estémos diseñando un circuito, o analizando su funcionamiento. La simpliicación más fácil que podemos hacer es: el diodo es un interruptor abierto cuando no conduce, y un interruptor cerrado cuando sí lo hace. Este sería el modelo:
[AÑADIR IMAGEN DE CIRCUITO EQUIVALENTE SIMPLE DE UN DIODO]
El modelo anterior nos va a servir perfectamente en muchos casos, pero puede que tengamos que hilar algo más fino. ¿Recordáis que cuando el diodo conduce tenemos una tensión entre sus terminales?, pues podemos mejorar nuestro modelo incluyendo ese potencial:
[AÑADIR IMAGEN DE CIRCUITO EQUIVALENTE CON BATERIA DE UN DIODO]
La batería que véis en el modelo anterior no significa que el diodo sea una fuente de energía. La batería solamente está ahí para que se tenga en cuenta el efecto de que vamos a «perder» unas cuantas décimas de voltio (o puede que algo más de un voltio) en ese diodo. Además, si os fijáis, veréis que cuando el diodo conduce, la corriente entra al positivo de la batería. Eso significa que es el diodo el que recibe energía, no el que la entrega (si fuese una batería que alimenta a un circuito, la corriente tendría que salir del positivo).
Venga, mejoremos un poco más el modelo. En la gráfica I/V del diodo, la zona de conducción era muy, muy empinada, pero no vertical del todo. Eso significa que a pesar de que el diodo se encuentre en la zona de conducción, presenta una pequeña resistencia al paso de la corriente (resistencia que será inversamente proporcional a lo inclinada que sea la gráfica en esta zona), y cuyo efecto es el de hacer que VF varíe ligeramente en función de IF. Para simular este efecto, añadiremos una resistencia en serie al modelo:
[AÑADIR IMAGEN DE CIRCUITO EQUIVALENTE CON BATERIA Y RESISTENCIA DE UN DIODO]
¿Podemos seguir mejorando este modelo? Podemos. Otra cosa es que nos interese seguir complicándolo ad-infinitum. Veamos qué podemos hacer ahora en la zona de no conducción. La corriente inversa del diodo era muy baja, pero no inexistente. Eso podemos simularlo poniendo una resistencia bastante alta en paralelo con el interruptor en el diodo polarizado inversamente:
[AÑADIR IMAGEN DE CIRCUITO EQUIVALENTE CON BATERIA, RESISTENCIA SERIE Y RESISTENCIA PARALELO DE UN DIODO]
¿Ad infinitum? Ad infinitum, claro que sí. Cuando un diodo está conduciendo, tiene en su interior una cantidad de cargas libres. Cuando deja de conducir no lo hace de forma brusca, porque primero hay que evacuar todas esas cargas (durante unos microsegundos, el diodo conduce de forma inversa hasta que esas cargas de su interior desaparecen). Además, un diodo polarizado de forma inversa también se comporta como un condensador, porque ¿acaso dos cristales de silicio enfrentados y entre los que no puede circular corriente no es lo mismo que decir que tenemos dos placas enfrentadas y aisladas?. Para tener en cuenta esa capacidad parásita, podemos añadir un condensador a nuestro diodo:
¿Cuáles son los valores característicos de un diodo? O dicho de otra forma, ¿en qué debemos fijarnos a la hora de escoger un diodo?
Los dos valores más importantes son:
Otros datos algo menos importantes son:
Los diodos Zener son unos diodos fabricados especialmente para trabajar en conducción inversa. Además de poder trabajar en la zona de ruptura sin destruirse, variando los niveles de dopaje del silicio se pueden conseguir tensiones de ruptura a voluntad, con lo que disponemos de una amplísima variedad de diodos de diferentes tensiones.
¿Para qué se utilizan los diodos Zener? Pues tienen dos usos básicos:
[INSERTAR ESQUEMA DE COMPARADOR DE TENSION CON UN ZENER Y UN OPERACIONAL]
[INSERTAR ESQUEMA DE REGULADOR DE TENSION CON UN ZENER]
Los diodos Schottky son un tipo especial de diodos en los que no tenemos una unión P-N con dos tipos de silicio, sino que utilizan una unión Metal-Semiconductor (M-S). En ciertas condiciones, esta unión M-S forma una barrera de potencial (llamada barrera Schottky por su inventor) igual que ocurría en la unión P-N, y por lo tanto presenta una conducción unidireccional.
Pero si ya tenemos los diodos «normales», ¿para qué queremos los Schottky? Pues bien, los diodos Schottky tienen un valor de tensión directa inferior al de los diodos de silicio. Si para un diodo rectificador de silicio estándar podemos estar hablando de 0,7-1,0 voltios de VF, para un Schottky se reduce a unos 0,5 voltios.
Estas pocas décimas de diferencia pueden parecernos poco, pero si tenemos una fuente que trabaja con una tensión muy baja, pongamos 3 V por ejemplo, un diodo con VF=1V supondría perder 1 de cada 4 voltios para que lleguen 3 voltios a la carga (un 25% de pérdidas). Si empleásemos un Schottky, perderíamos 0,5 de cada 3,5 voltios, o lo que es lo mismo un 14% de pérdidas solamente.
Otra gran ventaja de los diodos Schottky es su bajísimo tRR. De los microsegundos de un diodo estándar, con los Schottky pasamos a solo unas decenas de nanosegundos. ¡Incluso hay algunos que bajan del nanosegundo!
Tanto por la baja VF como por el bajísimo tRR, la aplicación principal de los diodos Schottky está en las fuentes de alimentación conmutadas (SMPS, Switching Mode Power Supply).
[INSERTAR IMAGEN DE LOS POSIBLES SIMBOLOS DE LOS DIODOS SCHOTTKY]
Los diodos varicap sacan partido de la capacidad parásita que presenta un diodo polarizado inversamente. Aumentando la tensión inversa, la zona de agotamiento se hace más gruesa, con lo que la capacidad parásita disminuye. Al reducir la tensión inversa, la zona de agotamiento adelgaza y aumenta la capacidad.
Un diodo varicap está fabricado expresamente para sacar partido de este efecto, y se pueden conseguir diodos para varios rangos de capacidad (hasta cierto punto, claro está). Con un varicap podemos hacer que un oscilador varíe su frecuencia simplemente controlando un nivel de tensión DC.
[INSERTAR IMAGEN DE LOS POSIBLES SIMBOLOS DE LOS DIODOS VARICAP]
Y llegamos al apartado que todos estábamos esperando. ¡Hágase la luz!
En los diodos LED (Light Emitting Diode), los semiconductores empleados tienen la propiedad de que cuando los electrones y los huecos se recombinan, se emiten fotones de luz. La frecuencia (y por lo tanto el color) de la luz emitida depende del salto de energía que sufren los electrones, que a su vez viene determinada por la naturaleza de los materiales empleados y su disposición.
El primer diodo LED trabajaba en el rango de los infrarrojos. Algo lógico, porque inicialmente no se conseguían grandes saltos de energía, y por lo tanto la frecuencia de la luz era baja. A medida que mejoraron las técnicas de fabricación, se fueron abaratando los costes, y también se fueron desarrollando los LEDs para los demás colores (rojo, ámbar, amarillo, verde).
El primer LED se consiguió en 1927. La producción de LEDs infrarrojos comerciales en 1967. ¡El LED azul no se consiguió hasta la década de 1990 con la técnica del pozo cuántico, y le valió a sus inventores el Premio Nobel!
[INSERTAR IMAGEN DE LOS POSIBLES SIMBOLOS DE LOS DIODOS LED]
En el campo de los diodos LED es donde más variación de VF vamos a ver. Como la frecuencia/color de la luz depende del salto de energía de los electrones, esto tiene una repercusión directa en la barrera de potencial que hay que vencer, y por lo tanto de la VF del diodo. Estos son unos valores aproximados:
LED infrarrojo: VF=1,2V
LED rojo: VF=1,8V
LED ámbar: VF=2,0V
LED amarillo: VF=2,2V
LED verde: VF=3,2V
LED azul: VF=3,9V
Recordemos que los diodos LED no se han diseñado para comportarse como un diodo. Eso es algo secundario. Su resistencia a las tensiones inversas es muy baja, y algunos modelos de LED pueden destruirse con tan solo 5 V de tensión inversa.
Por último solo queda aclarar que la «D» de «LED» viene de «Diode». Sí, decir «diodo LED» es redundante.
Al diodo estándar de silicio se le suele llamar diodo rectificador porque su principal uso es ese, el de rectificar. Ahora bien, ¿qué es eso de rectificar? Pues no es más que obtener, a partir de una fuente de corriente alterna, una salida que nos ofrezca corriente continua.
La rectificación forma parte de muchísimos circuitos electrónicos, porque todo lo que no se alimente con baterías deberá rectificar el suministro de AC para obtener el voltaje DC necesario para su funcionamiento. Incluso los más modernos sistemas de alimentación conmutados (las SMPS que comentamos ya con anterioridad) necesitan una primera etapa de rectificación.
El circuito rectificador más sencillo que nos permite pasar de AC a DC consiste en coger un diodo y ponerlo en serie con la carga, así sin más:
[INSERTAR ESQUEMA DE RECTIFICADOR DE MEDIA ONDA SIN CONDENSADOR]
Seguro que le véis pegas, es normal. Pero cumple lo que le hemos pedido: este circuito permite alimentar una carga con DC a partir de una fuente de AC. Claro que la calidad de ese suministro de DC deja muuuuucho que desear.
En el semiciclo positivo de la onda de AC el diodo estará en polarización directa, y por tanto conducirá. En la carga tendremos la misma forma senoidal de la tensión de entrada, menos la caída de tensión directa que tenemos en el diodo.
Cuando finaliza el semiciclo senoidal y llega el negativo, el diodo queda polarizado inversamente. Por lo tanto, deja de conducir y toda la tensión de la entrada aparece entre los terminales del diodo, dado que la caída de tensión en la carga es prácticamente cero (al no circular corriente).
Primer problema: la tensión en la carga no es constante. Es una senoide.
Segundo problema: además de no ser constante, hay periodos muy largos (relativamente hablando, claro) en los que no tenemos tensión a la salida.
Como podéis suponer, utilizar este rectificador para alimentar algo nos daría muchos problemas, salvo que el tipo de circuito fuese muy poco exigente. Por ejemplo, para una resistencia cuya única finalidad es producir calor nos daría un poco igual esos periodos en los que no tenemos tensión a la salida. Pero una resistencia la podríamos alimentar con alterna directamente, claro.
¿Qué valor de tensión continua estamos obteniendo? (si es que se le puede llamar continua)
Es innegable que la tensión de salida tan solo periodos en los que la tensión es positiva, y en ningún momento se hace negativa. Se le puede llamar tensión continua en el sentido de que presenta siempre la misma polaridad, pero quizás hubiese que llamarla «pulsante», «intermitente» o algo así.
Ahora haced un poco de memoria, ¿recordáis lo que era el valor eficaz de una tensión alterna?. Sería interesante saber cuál es ahora el valor eficaz de esta tensión intermitente, ¿no creéis?. Pues bien, el valor eficaz de la salida de un rectificador de media onda es:
Vef = Vp / 2
Lo interesante es que, una vez que tenemos solamente semiciclos positivos, podemos hablar ya del concepto de voltaje medio. Llamamos voltaje medio al valor promedio de la tensión durante un periodo completo. Aquí, dado que tenemos semiciclos positivos de senoide alternados con intervalos de tensión nula, un periodo abarcaría desde el comienzo de un semiciclo hasta el comienzo del siguiente: exactamente el mismo periodo que tenía la señal alterna original.
Este valor promedio se puede calcular de forma matemática, y su valor es:
Vm = Vp / pi
¿Qué otras magnitudes interesantes podemos deducir de este rectificador básico?
La tensión inversa a la que se ve sometido el diodo es la tensión de pico de la senoide:
VR = Vp
Ha llegado el momento de mejorar un poco nuestro rectificador.
[INSERTAR ESQUEMA DE RECTIFICADOR DE MEDIA ONDA CON CONDENSADOR]
¿Recordáis lo que habíamos comentado hace varios capítulos sobre la utilización de condensadores en continua? Le hemos puesto un condensador a nuestro rectificador para que haga de almacén de energía y que la tensión no desaparezca del todo durante los semiciclos negativos.
En el primer semiciclo positivo, en cuanto la tensión de entrada supere la tensión directa del diodo, el condensador comenzará a cargarse. Esto hará que circule una intensidad importante por él (los condensadores se oponen a las variaciones de tensión!!!). Además de la intensidad necesaria para que se cargue el condensador, por el diodo también circulará la intensidad que demande la carga.
Cuando la tensión de entrada alcance su punto máximo positivo, el condensador habrá alcanzado su tensión máxima de carga. ¿Qué ocurre a partir de ahí?
Pues menudo invento esto de los condensadores, ¿no?. Gracias a ellos hemos conseguido mejorar mucho la tensión de salida, y ahora ya no tenemos momentos en los que nos quedamos a cero (ejem… siempre que no hayamos sido muy rácanos al dimensionar el condensador, claro). Aunque tampoco se puede decir que sea una tensión muy constante.
Repasemos los efectos que tiene la introducción de un condensador de filtrado en nuestra fuente:
Se puede calcular, con bastante matemática, cuál es el valor medio y eficaz de la tensión de salida, pero excederíamos de largo el objetivo de este minicurso. También nos podemos poner en plan ingeniero, liarnos a simplificar, y llegaríamos a una expresión bastante satisfactoria. Pero sería una tontería hacerlo para un rectificador de media onda que no vamos a usar prácticamente nunca.
¿Os habéis preguntado qué ocurre si le damos la vuelta al diodo? Pues que en lugar de dejar pasar los semiciclos positivos, dejaremos pasar los negativos y la salida de nuestro rectificador tendrá una tensión negativa:
[INSERTAR ESQUEMA DE RECTIFICADOR DE MEDIA ONDA CON SALIDA NEGATIVA]
Todo lo explicado anteriormente sigue siendo igual de válido. Dejamos que lo razonéis vosotros.
¿Cómo podríamos conseguir que en nuestro rectificador tuviésemos semiciclos de salida durante todo el tiempo? Pues como diría el amigo Hadden en Contact: ¿Por qué construir una, cuando puedes tener dos por el doble de precio?
¡Venga, derrochemos! ¡Vamos a montar dos rectificadores de media onda!
[INSERTAR ESQUEMA DE RECTIFICADOR DE ONDA COMLETA]
Lo primero que debemos explicar aquí es la doble salida del transformador que se ve a la izquierda. Para construir un rectificador de doble onda necesitamos contar con un transformador cuyo secundario disponga de una toma central. Esta toma central será nuestra masa o potencial de referencia de 0 voltios.
ACLARACIÓN: Puede que alguien os haya explicado esto del secundario con toma central diciendo que son dos secundarios en los que uno va bobinado al revés. Pues bien, podemos decir que es una mentira cochina. En un transformador con toma central en el secundario, las dos mitades del devanado van bobinadas sin cambiar el sentido del arrollamiento. El truco está precisamente en tomar un punto intermedio como referencia, porque de esa forma estamos invirtiendo la tensión de una de las mitades.
Vamos a explicarlo con un par de baterías:
[INSERTAR ESQUEMA DE BATERIAS EN SERIE CON TOMA CENTRAL]
En la imagen anterior podemos ver dos baterías conectadas en serie, y en la que disponemos de una toma central. Fijaos en que las dos baterías van montadas en el mismo sentido, es decir, que si nos movemos del extremo superior al inferior, siempre entramos en cada batería por el positivo y salimos por el negativo.
Si cogemos un polímetro y medimos la tensión de cada batería sin cambiar la orientación de las puntas del polímetro, esto es, poniendo la punta roja arriba y la negra abajo, veremos que las dos baterías nos dan una tensión positiva.
Pero consideremos ahora que el punto intermedio va a ser nuestro potencial de cero voltios, y dejemos la punta negra del polímetro conectada permanentemente a él, y midamos ahora la tensión en los dos terminales de los extremos. Ahora tenemos una tensión positiva en el terminal de arriba, pero una negativa en el de abajo. ¡Claro! ¡Estás midiendo la batería de abajo al revés, mendrugo! nos diréis. Pues ese es el truco del secundario. No hay ninguna historia de bobinados al revés ni zarandajas. Se trata simplemente que, al tomar el punto intermedio como referencia, la mitad inferior queda con la polaridad invertida.
Eso es fácil de ver con baterías, pero no tan obvio cuando la señal es alterna. ¿Qué ocurre si medimos al revés una tensión alterna? Al fin y al cabo, está cambiando de polaridad constantemente. Es como darle la vuelta al enchufe de la tele, no cambia nada en absoluto. Pues sí y no. El secreto aquí es que estamos invirtiendo la polaridad de una mitad respecto de la otra. En los momentos en los que el terminal superior sea positivo, el inferior será negativo y viceversa. Invertir una tensión alterna equivale a darle la vuelta a su vector, girarlo 180º, ponerlo en contrafase, se puede decir de muchísimas formas, pero siempre respecto a algo, y ese algo es la otra mitad del devanado secundario. FIN DE LA ACLARACIÓN
Venga, volvamos a nuestro rectificador. Como acabamos de explicar, nuestro secundario con toma intermedia nos proporciona dos salidas de tensión alterna. Si tomamos el terminal central como referencia y medimos la tensión de los dos extremos con un osciloscopio (un osciloscopio que nos permita ver las dos tensiones a la vez, claro), veremos que una está invertida respecto de la otra y que mientras tenemos un semiciclo positivo en una, en la otra lo tenemos negativo.
Ahora analicemos lo que ocurre en cada semiciclo:
Y ya está. Tenemos dos rectificadores de media onda funcionando de forma alternada, de forma que los huecos que tendríamos en la salida si funcionasen por separado, desaparecen al trabajar conjuntamente.
No hace falta decir todo lo que ha mejorado ahora nuestro rectificador, ¿verdad? Veamos ahora de cuánto es el valor eficaz y el valor medio de la tensión de salida:
Vef = Vp / sqrt(2)
Vm = 2 · Vp / pi
Si en el rectificador de media onda os pedimos un poco de fé, aquí podemos dar una explicación sencilla para estas fórmulas. La salida del rectificador de doble onda es igual a la tensión alterna, solo que con los semiciclos negativos «doblados» hacia arriba y convertidos en positivos. Pero a la resistencia de carga le da igual ese detalle, porque a la resistencia le da igual que la corriente vaya en un sentido u otro, y resistencias gonna resist y esas cosas, así que disipará la misma potencia. Y dado que la resistencia disipa la misma potencia en un caso y otro, la tensión rectificada debe necesariamente tener la misma tensión eficaz que la alterna, porque se producirá la misma cantidad de calor.
En cuanto al valor medio, si donde antes teníamos un vacío de tensión ahora tenemos un semiciclo extra, pasamos a tener el doble de semiciclos en el mismo periodo de tiempo, y por lo tanto el promedio debe ser necesariamente doble. Por eso la tensión media de un rectificador de onda completa es el doble que el de media onda.
Pero aquí no hay ventajas sin inconvenientes. ¿Qué le ocurre a la tensión inversa de los diodos?
VR = 2 · Vp
Fijaos de nuevo en el circuito. Supongamos que D1 conduce y que D2 no, y que estamos en el pico de tensión de los semiciclos. ¿A dónde está conectado el cátodo de D2? A la carga, ya sé. Pero es que D1 está conduciendo, por lo tanto D2 tiene en su ánodo el pico de tensión negativo, y en su ánodo el pico de tensión positivo. Por lo tanto, en el rectificador de onda completa los diodos están sometidos al doble de tensión inversa que en el rectificador de media onda.
Por muy bueno que sea el rectificador de doble onda respecto del de media onda, seguimos teniendo momentos en los que la tensión baja a cero, así que el filtrado sigue siendo necesario:
[INSERTAR ESQUEMA DE RECTIFICADOR DE ONDA COMPLETA CON FILTRADO]
Todo lo explicado anteriormente para el filtrado en media onda sigue siendo exactamente igual. El proceso de carga y descarga del condensador es el mismo, solo que los diodos se van alternando. La ventaja es que ahora nuestro condensador no tiene que aguantar tanto tiempo hasta que le llega la siguiente recarga y por lo tanto la tensión no baja tanto como antes. Otro efecto beneficioso es que al recargarse el condensador el doble de veces por segundo, la descarga del mismo no es tan profunda como antes, luego no necesita tanta intensidad para recargarse y los picos de corriente en los diodos son menores.
Claro que sí, guapi. Aquí lo tienes:
[INSERTAR ESQUEMA DE RECTIFICADOR DE ONDA COMPLETA CON FILTRADO Y SALIDA NEGATIVA]
¿Y qué pasa si no contamos con un transformador con toma intermedia en el secundario? ¿Ya no podemos conseguir una rectificación de doble onda?
Pues por suerte todavía quedan posibilidades. Con una disposición de 4 diodos llamada puente rectificador podemos montar un rectificador que no solo deja pasar los semiciclos positivos, sino que es capaz de invertir los semiciclos negativos. Y este es su esquema:
[INSERTAR ESQUEMA DE PUENTE RECTIFICADOR SIN FILTRADO]
En el puente rectificador los diosos trabajan por parejas:
[INSERTAR ESQUEMA DE PUENTE RECTIFICADOR CON INDICACIONES DE FLUJO DE CORRIENTE EN AMBOS SEMICICLOS]
¿Qué ventajas o inconvenientes tiene el puente rectificador sobre el de doble onda que vimos antes?
La realidad es que la disposición habitualmente empleada en las fuentes de alimentación lineales (esto es, las que no son conmutadas) es la de puente rectificador, tanto si disponemos de toma intermedia como si no. ¿Por qué? Pues porque un puente rectificador no son más que dos rectificadores de doble onda. Seguid leyendo.
Fijaos bien en este circuito:
[INSERTAR ESQUEMA DE PUENTE RECTIFICADOR CON SALIDA SIMETRICA Y TOMA CENTRAL]
Vamos a descomponerlo en dos partes:
[INSERTAR ESQUEMA DE PUENTE RECTIFICADOR DESGLOSADO EN DOS MITADES]
Habíamos visto que el puente rectificador nos permitía conseguir una rectificación de doble onda aún cuando no tuviésemos toma central en el secundario. Pero si contamos con ella, podemos conseguir un rectificador con doble salida simétrica.
Es decir, si tenemos un secundario con toma central, podemos elegir entre conseguir una salida única (usando un puente rectificador sin toma central) o conseguir dos salidas con la mitad de tensión de salida, una positiva y otra negativa.
¿Tiene esto utilidad? Pues sí, y mucha. En muchos montajes, especialmente todos los que impliquen amplificación, se utilizan alimentaciones simétricas. Dado que la señal de entrada puede tomar valores positivos y negativos respecto de la referencia (el punto de 0 voltios), se necesita que el amplificador tenga un punto de trabajo centrado en el cero y que pueda oscilar hacia el positivo y hacia el negativo de la alimentación.
[INSERTAR ESQUEMA DE AMPLIFICADOR CON ALIMENTACIÓN BIPOLAR SIN CONDENSADORES DE DESACOPLO]
¿Quiere decir que si no tengo alimentación simétrica no puedo amplificar una señal? No, claro que no. Cuando contamos con una alimentación unipolar, el punto de reposo del amplificador queda centrado justamente a la mitad del valor de la alimentación: durante los semiciclos positivos se mueve entre V/2 y V, mientras que durante los negativos lo hace entre V/2 y 0. Luego, tanto a la salida como a la entrada, se ponen condensadores de desacoplo que evitan que este nivel de continua de V/2 voltios afecte a lo que tengamos conectado en la entrada o en la salida.
[INSERTAR ESQUEMA DE AMPLIFICADOR CON ALIMENTACIÓN UNIPOLAR Y CONDENSADORES DE DESACOPLO]
El uso de condensadores de desacoplo también es habitual en los amplificadores con alimentación bipolar, como medida de seguridad. Muchas veces es difícil hacer que la salida un amplificador quede centrado justamente en 0 voltios, y nunca se sabe cómo va a ser la señal que nos llegue por la entrada.
La aparición de los diodos de unión fue un hito relevante. Los primeros diodos de germanio y silicio tardaron en utilizarse comercialmente, pero mucho antes ya se conocían las propiedades rectificadoras (conducción en un solo sentido) de algunos materiales. Durante un tiempo se utilizaron diodos de vacío (conducción de electrones a través del vacío en una burbuja de vidrio sellada), que finalmente fueron reemplazados por los nuevos diodos de unión, más pequeños, robustos y duraderos.
Sin embargo, no había ningún material que permitiese la amplificación de señales. Entendamos la amplificación como cualquier mecanismo que nos permita aumentar la magnitud de una señal cambiante. Para amplificar señales lo único que había hasta mediados del siglo XX eran las válvulas termoiónicas, de construcción similar a los diodos de vacío (que también eran válvulas termoiónicas), pero con algún que otro terminal más. Las válvulas (o coloquialmente lámparas, por su parecido a las lámparas de luz) basaban su funcionamiento en la emisión termoeléctrica, en la que un metal caliente y negativo emite electrones que viajan por el vacío hacia otro terminal positivo. Intercalando «obstáculos» en el camino de los electrones una pequeña señal podía provocar grandes cambios en esa corriente de electrones.
Las válvulas eran componentes caros, frágiles (¡eran de vidrio!) y sometidos a desgaste (el calentamiento y la emisión de electrones acababa afectando a las piezas de metal, el vacío se podía degradar, etc…).
La auténtica revolución llegó en 1947 con la invención del transistor de unión, transistor bipolar, o BJT (Bi-Junction Transistor).
Un transistor BJT consiste en dos uniones P-N formadas por tres zonas N y P alternas, en las que la zona central es lo suficiente delgada para conseguir el efecto transistor. Veámoslo en la siguiente imagen:
[INSERTAR ESQUEMA DEL TRANSISTOR NPN Y PNP]
Dado que tenemos tres tipos de silicio, el tipo N y el tipo P, podemos conseguir un transistor uniendo tres zonas N-P-N, pero también con tres zonas P-N-P. Vamos a explicar su funcionamiento con un transistor NPN, porque es intuitivamente más fácil de comprender.
Lo primero es saber cómo se debe polarizar un transistor para conseguir que se comporte como un amplificador. En el caso del transistor NPN es así:
[INSERTAR ESQUEMA DE TRANSISTOR NPN CON LAS DOS FUENTES DE TENSION POLARIZANDO LA UNION E-B Y LA UNION E-B]
Las tres zonas que tiene un transistor BJT son:
¿Qué diferencia hay entre las dos zonas de los extremos, si son ambas de tipo N? Pues aparte de que sus niveles de dopado son diferentes, también son la forma en que deben utilizarse, como explicaremos a continuación.
Analicemos ahora las dos uniones que presenta el transistor y cómo están polarizadas:
Bien, tenemos un diodo que conduce y otro que no. ¿Dónde está el truco?
Dado que la unión E-B está polarizada directamente, por el emisor estarán entrando electrones al estar conectado al negativo de la fuente de tensión. Estos electrones son portadores mayoritarios en el silicio-N, pero en cuanto cruzan al silicio-P se convierten en portadores minoritarios. Si no existiese la zona N del colector, o si tenemos el colector sin polarizar (sin conectar a nada), todos esos electrones saldrían por la base, sin más, como en un diodo cualquiera.
Peeeeeero. Seguro que sabíais que tenía que haber un pero, ¿verdad?. Si la unión base-colector (B-C) está polarizada inversamente, todos esos electrones que entran en tropel a la base y que se convierten en portadores minoritarios, se van a ver atraídos por el potencial del colector, que es más positivo que la base. Y por lo tanto en lugar de salir por la base, acabarán saliendo por el colector.
En el transistor NPN no todos los electrones que entran por el emisor acaban saliendo por el colector, una pequeña fracción sí sale por la base. Se definen dos parámetros que relacionan las corrientes que tenemos en el emisor, la base y el colector:
α = IC / IE
β = IC / IB
NOTA: En las expresiones anteriores, se consideran todas las corrientes positivas. Esto es, las corrientes de base y colector se consideran positivas cuando entran al transistor (en el sentido convencional de positivo a negativo), y la corriente de emisor se considera positiva cuando sale del transistor (en el sentido convencional también).
Ahora un poquito de matemáticas. Gracias a Kirchoff sabemos que todo lo que entra en el transistor tiene que salir. Sabiendo eso, podemos establecer las relaciones entre los dos parámetros anteriores:
IE = IB + IC
α = IC / IE
α = IC / IB + IC
α = ( IC / IB) / ((IB + IC) / IB)
α = ( IC / IB) / ((IB / IB) + (IC / IB))α = β / (1 + β)
β = IC / IB
β = IC / (IE - IC)
β = (IC / IE) / ((IE - IC) / IE)
β = (IC / IE) / ((IE / IE) - (IC/ IE))β = α / (1 - α)
Y ahora vamos a ver unos pequeños ejemplos numéricos como ejemplo de lo que una pequeña variación de α supone en β:
| α | β |
|---|---|
| 0,9 | 9 |
| 0,95 | 19 |
| 0,99 | 99 |
| 0,995 | 199 |
Que sí, que muy bien, que todo muy interesante, estaréis pensando. Y os preguntaréis: Pero, ¿dónde está la ganancia?
Tenemos un dispositivo en el que casi la totalidad de la corriente de un terminal acaba saliendo por otro de sus terminales, y una pequeña porción sale por un tercero. Parece una tomadura de pelo cuando nos dicen que eso es una ventaja, y que nos permite amplificar señales, ¿verdad?. ¿Cómo va a ser una ventaja perder electrones en el camino del emisor al colector?
Hay que mirarlo con otros ojitos para apreciar el valor del transistor:
Aunque no acabéis de entender las ventajas que acabamos de explicar, más adelante veremos las tres posibles configuraciones en las que se puede utilizar un transistor, y ahí veréis sus capacidades para amplificar tensión, intensidad, o ambas.
Teniendo en cuenta cómo estén polarizadas las dos uniones del transistor BJT, podemos tener cuatro modos de funcionamiento. Tres de ellos serán los de uso habitual, y uno de ellos en ciertas aplicaciones que van a quedar fuera del alcance de este minicurso.
Si tenemos en cuenta que una unión P-N solo puede estar polarizada directa o inversamente, y dado que tenemos dos uniones en un transistor, estos son los cuatro estados en los que podemos hacer funcionar a un BJT:
| Unión E-B | Unión B-C | Zona de trabajo |
|---|---|---|
| Directa | Inversa | Activa |
| Inversa* | Inversa | Corte |
| Directa | Directa | Saturación |
| Inversa | Directa | Activa inversa |
*NOTA: Si la unión E-B está polarizada de forma directa pero no lo suficiente para vencer la barrera de potencial interna, se considera que a efectos prácticos es como si estuviese polarizada inversamente, ya que no conduce. Fundamentalmente lo que determina la zona de trabajo de la unión E-B es si conduce de forma directa o no.
La zona activa es la zona de trabajo habitual en un transistor BJT cuya misión sea la de amplificar una señal. Es la zona en la que determinadas características de transferencia del mismo poseen un comportamiento lineal (haciendo algunas concesiones, claro, ya que ningún elemento real es perfecto) y por lo tanto la zona en la que debemos hacer trabajar a un BJT para conseguir que un cambio en una señal de entrada origine otro cambio proporcional (de ahí la importancia de la linealidad) en una señal de salida.
En la zona activa la unión E-B trabaja en polarización directa y por lo tanto conduce, mientras que la unión B-C trabaja en polarización inversa. La linealidad de esta zona viene dada porque una fracción de la corriente de emisor acabará siendo la corriente de colector, y esta proporción es más o menos constante.
En polarización directa, la unión E-B posee una curva característica similar a la de un diodo, y es casi independiente de la tensión que tengamos en la unión B-C. Casi, pero no totalmente: cuando aumenta la tensión de polarización inversa de la unión B-C, hace que aumente la zona de agotamiento de la misma y se produce un efecto de estrechamiento de la base; en consecuencia, la intensidad en la unión E-B aumenta.
[INSERTAR GRAFICA I/V PARA UNION E-B CON VARIAS TENSIONES ENTRE B-C]
La zona de corte del transistor BJT es aquella en la que la unión E-B no conduce, bien porque se encuentre polarizada inversamente, o bien porque la polarización directa no sea suficiente para vencer la barrera de potencial interna de la unión.
Si no hay corriente de emisor, no hay corriente de base ni de colector.
Fin de la historia.
La zona de saturación del transistor BJT es aquella en la que ambas uniones se encuentran en polarización directa, aunque para la unión B-C deberíamos puntualizarlo algo más y decir que es aquella en la que NO se encuentra en polarización inversa.
Expliquémoslo un poco.
Habíamos visto que los electrones que entraban en tropel por el emisor sucumbían al encanto de la polarización inversa del colector y acababan saliendo por él en lugar de hacerlo por la base, ¿verdad?. Habíamos visto también que la tensión inversa entre colector y base tenía cierta influencia, aunque leve, en la corriente que pasaba por la unión B-C. Pues bien, aunque tuviésemos un potencial de cero voltios entre colector y base, seguiríamos teniendo intensidad por el colector.
Pero, ¿qué ocurre si comenzamos a polarizar la unión B-C directamente? Pues tendríamos dos diodos conduciendo, en los que las corrientes de ambos se unirían en la base del transitor. Ahora bien, en esta situación, en el diodo formado entre base y colector se produce un efecto un tanto curioso, y es que esa unión en polarización directa ya no tendrá una tensión en torno a 0,7 V como en la unión E-B, sino que tendrá una tensión algunas décimas menor. Cosas de la física de materiales.
El efecto es que con un transistor BJT en saturación, la tensión entre colector y emisor es de aproximadamente de unos 0,2 V y es lo que se conoce como tensión de saturación:
VCEsat = 0,2 V (aprox.)
Igual que con la tensión de polarización directa de los diodos, esto no es algo constante e inamovible, es solo un valor que podemos tomar como referencia, pero que dependerá de cada modelo de transistor.
Como habíamos comentado antes, un transistor NPN es un NPN lo mires por donde lo mires, porque ambos extremos son N y la zona central es P. Lo mismo ocurre cuando se trata de un PNP. ¿Lo podríamos usar al revés?
Pues eso es precisamente la zona activa inversa: usar el transistor al revés, polarizando directamente la unión B-C e inversamente la unión E-B. O dicho de otra forma, utilizamos el emisor como si fuese el colector, y viceversa.
¿Se puede hacer? Se puede
¿Funciona? Funciona
¿Funciona igual de bien? No funciona igual de bien.
¿Deberíamos usar esta zona? No se nos ocurre, ahora mismo, ninguna razón de peso.
A pesar de la aparente simetría de una estructura tan simple como la de un transistor BJT, la realidad es que el emisor es muy diferente al colector. El emisor está mucho, mucho más dopado que el colector. El colector es mucho, mucho más grande que el emisor (el colector suele «envolver», en muchos casos, a las otras dos zonas del transistor precisamente para recoger los portadores de carga).
La consecuencia de usar un transistor al revés sería una funcionamiento con mucho peor rendimiento, donde los parámetros α y β empeorarían respecto de sus valores en la zona activa normal.
Vamos a ir ahora poco a poco enfocando el funcionamiento de un transistor de forma un poco más práctica. Hagamos un resumen:
Y es precisamente este terminal común a ambas redes de polarización el que establecerá los tres modos de funcionamiento de un transistor: en emisor común, en base común, o en colector común.
La configuración en base común es la que hemos visto hasta ahora para explicar el funcionamiento del transistor, así que no vamos a ver nada nuevo:
[INSERTAR ESQUEMA DE TRANSISTOR NPN EN BASE COMUN]
Por un lado tenemos la polarización E-B, con una curva similar a la de un diodo; y por el otro, tenemos la polarización B-C donde podemos variar la tensión aplicada (ya que la corriente depende principalmente de la otra unión).
La curva característica de salida más interesante en esta configuración es la que nos da la corriente de colector IC en función de la tensión colector emisor VCB, para diferentes valores de intensidad de base IB.
[INSERTAR GRAFICA IC/VCB(IB)]
En estas curvas podemos ver las tres zonas de trabajo del transistor:
La parte plana de las curvas de IC no son completamente horizontales debido al efecto que ya comentamos antes: aumentar la tensión inversa entre colector y base hace que aumente ligeramente la corriente de colector. Esto también depende de las características de cada transistor, habiendo modelos donde este efecto sea más pronunciado y otros donde se más imperceptible.
¿Dónde está la ganancia?
Por lo tanto, la configuración en base común es una configuracioń que nos proporciona ganancia en tensión y no en intensidad.
Todavía no os estaréis enterando de cómo obtenemos esa ganancia, pero en cuanto veamos algún circuito práctico lo veréis, no os preocupéis.
La configuración en emisor común, como su nombre indica, es aquella en la que polarizamos la unión E-B directamente y la unión B-C queda polarizada aplicando una tensión entre emisor y colector. Este sería el esquema:
[INSERTAR ESQUEMA DE TRANSISTOR NPN EN EMISOR COMUN]
No hace falta aplicar una batería entre base y colector para polarizar la unión B-C. También se puede polarizar simplemente aplicando al colector una tensión diferente a la que tenga la base, y que esté referenciada al mismo punto:
Recordáis que en base común, al aumentar la tensión de la unión B-C aumentaba la intensidad de colector? Pues la consecuencia es que, evidentemente, eso hace disminuir la corriente de base.
Por otro lado, si hacemos variar la tensión VCE entre colector y emisor, dado que la tensión VBE varía muy poco estando en conducción, casi toda la variación irá a parar a la tensión entre colector y base VCB. En otras palabras: variar VCE es casi como variar CB.
Por todo lo anterior, la gráfica característica de la corriente de entrada IB/VBE es exponencial y parecida a la que teníamos en emisor común (IE/VEB), pero las curvas exponenciales ahora van en orden inverso conforme aumentamos VCE:
[INSERTAR CURVAS DE IB/VBE PARA DIFERENTES TENSIONES VCE]
Veamos ahora qué ocurre con la salida. En la configuración de emisor común nuestra salida es el colector. La curva característica es la que nos da la intensidad de colector en función de la tensión entre colector y emisor (IC/VCE), para diferentes corrientes de base.
[INSERTAR CURVAS DE IC/VCE DIFERENTES IB]
Estas curvas de salida tienen una forma son bastante parecida a las que teníamos en base común, pero hay algunas diferencias notables:
¿Y la ganancia? ¿Dónde está la ganancia, que yo la vea?
Pues aquí sí que es más obvio el tema de la ganancia. Para empezar, por la intensidad: pequeñas variaciones de corriente de base van a provocar grandes variaciones en la corriente de colector. Y esas grandes variaciones en la corriente de colector se producen en un circuito con una tensión más alta que la de entrada, con lo que también hay ganancia en tensión.
Así que la configuración en emisor común nos proporciona ganancia en tensión y también en intensidad.
¿Hace falta que expliquemos cómo es la configuración en colector común? Bueno, venga, por si queda algún rezagado.
De forma similar a como ocurría en el emisor común, tendremos una fuente de tensión conectada a los terminales de base y colector para polarizar inversamente la unión B-C, pero en la unión E-B no habrá ninguna fuente conectada, sino que la conectaremos entre emisor y colector. ¿Cuál será entonces la tensión que tengamos en la unión E-B? Pues de nuevo, la diferencia entre ambas: VEB=VCE-VCB.
La curva característica de entrada será la que relacione la intensidad de base respecto de la tensión entre base y colector, IB/VBC, para diferentes tensiones VEC entre emisor y colector. Estas curvas características de entrada son bastante parecidas a las que teníamos en emisor común.
En cuanto a la característica de salida, la curva mostraría la intensidad de emisor respecto de la tensión emisor-colector, IE/VEC, para diferentes corrientes de base. Dado que IE es casi igual a IC, estas curvas también son bastante parecidas a las de emisor común.
Por todo esto, no se suelen incluir en las hojas de características de los transistores las curvas de colector común, ya que se puede deducir su comportamiento a partir de las curvas de emisor común.
Eso sí, que las curvas sean parecidas no quiere decir que el funcionamiento sea el mismo. En colector común tenemos una ganancia de corriente alta, ya que la corriente de salida, que es la de emisor, es mucho mayor que la de base. Pero sin embargo, en ambos circuitos tenemos tensiones altas y semejantes, ya que la única diferencia entre el la tensión del circuito de entrada, VBC, y la tensión del circuito de salida, VEC es precisamente la pequeña tensión entre base y emisor, VBE.
Así que resumiendo, la configuración en colector común nos proporciona una gran ganancia en intensidad, pero ninguna ganancia en tensión. Esto hace que la apliación típica de esta configuración sea para aumentar la capacidad de proporcionar corriente sin alterar la tensión. A la configuración de colector común se le llama también seguidor de emisor, porque precisamente la tensión de salida (la del emisor) es un reflejo de la tensión de entrada (la de base).
Hasta ahora hemos visto, a la hora de polarizar las uniones del transistor, que utilizábamos fuentes de tensión conectadas directamente a sus terminales. Eso puede ser válido para estudiarlo desde un punto de vista teórico, ya que sobre el papel podemos hacer que una fuente de tensión tenga exactamente el voltaje que nosotros queramos.
Sin embargo, un transistor conectado de esa forma tendría una vida muy breve. Las uniones polarizadas directamente siguen una ley exponencial, con lo que es muy díficil, en un transistor real y con una fuente de tensión real, conseguir una corriente de base adecuada aplicando directamente una tensión. tendríamos que ser capaces de controlar el voltaje de forma muy, muy precisa.
Polarizar un transistor implica que tanto su terminal de salida como su terminal de entrada estén funcionando en un punto estático con unas condiciones de tensión e intensidad determinadas, tales que luego nos permitan aplicar una señal a la entrada para hacer oscilar el punto de funcionamiento del transistor alrededor del punto de polarización, y provocar unas variaciones proporcionales en la salida.
Este punto de polarización lo conseguiremos mediante fuentes de tensión y resistencias. El uso de resistencias es importante, porque nos da más precisión a la hora de establecer las intensidades que circularán por el transistor. Y también nos permiten aplicar luego las señales que luego queramos amplificar.
Dicho todo esto, vamos a ver diferentes formas de conseguir la polarización de un transistor. No vamos a ver todas las configuraciones posibles, y nos centraremos en las de emisor común por ser las más habituales. También veremos un caso de seguidor de emisor, que también es una configuración habitual.
La técnica más sencilla de polarización es la de establecer las condiciones del punto de trabajo a la salida (en el circuito de colector), con una fuente de tensión y una resistencia. Una vez determinadas y conociendo los parámetros del transistor, calcularemos la polarización necesaria en la entrada (en el circuito de base), que conseguiremos con otra fuente y otra resistencia.
Aquí podemos ver el esquema:
[INSERTAR ESQUEMA DE POLARIZACION FIJA CON DOS FUENTES Y DOS RESISTENCIAS]
En el esquema anterior, la ecuación del circuito de entrada es la siguiente:
VBB = VBE + IB·RB
De la misma forma, la ecuación del circuito de salida es esta:
VCC = VCE + IC·RC
NOTA: Es habitual llamar VBB a la fuente de tensión que polariza la base, VCC a la que polariza el colector, VEE a la que polariza el emisor. Esta nomenclatura se ha heredado incluso para designar los terminales de los circuitos integrados.
¿De dónde partimos para diseñar nuestro circuito? Pues lo primero es conocer las características de nuestro transistor. Damos por hecho de que la fuente VCC no excede la tensión máxima que soporta el transistor. La intensidad de colector dependerá también de lo que necesitemos, y tampoco debería exceder la capacidad del transistor.
Lo habitual es establecer el punto de trabajo del transistor a la mitad de la tensión VCC, y con una intensidad de colector que sea la mitad de la intensidad máxima que tendrá cuando estemos amplificando señal.
Con eso, quedaría determinada la resistencia de colector:
RC = (VCC-VCE)/IC
Una vez establecido el punto de trabajo de salida, tenemos que calcular la polarización necesaria en la base para conseguir esos valores de salida.
La corriente de base estará determiada por las características del transistor:
β = IC / IB
IB = IC / β
Una vez tenemos la intensidad de base que necesitamos, calcularemos la resistencia para conseguirla:
RB = (VBB-VBE)/IB
RB = (VBB-VBE)·β/IC
Y con eso ya estaría. En principio.
¿Podemos simplificar el circuito? Claro que sí. ¿Para qué queremos dos fuentes de tensión? Podemos usar la misma fuente para los dos circuitos, el de colector y el de base, así:
[INSERTAR ESQUEMA DE POLARIZACION FIJA CON UNA FUENTE Y DOS RESISTENCIAS]
Este circuito es equivalente a decir que ahora VBB=VCC, con lo que los cálculos que vimos antes quedarían así:
RC = (VCC-VCE)/IC
RB = (VCC-VBE)·β/IC
La polarización directa cumple su cometido, eso no se pone en duda. Pero el hecho de que la polarización de la base sea independiente del circuito de colector hace que estemos a merced de otros efectos indeseados, como la temperatura, las variaciones en la tensión de alimentación, o la tolerancia en las características del transistor:
Veamos más métodos de polarización, y sus ventajas.
Para compensar la deriva térmica y hacer que el punto de polarización sea más estable, se puede añadir una resistencia en el emisor:
[INSERTAR ESQUEMA DE POLARIZACION FIJA CON RESISTENCIA DE EMISOR]
Las ecuaciones ahora serán:
VCC = VBE + IB·RB + IE·RE
IB·RB + (β+1)·IB·RE = VCC - VBE
IB·(RB + (β+1)·RE) = VCC - VBE
IB = (VCC - VBE) / (RB + (β+1)·RE)VCC = VCE + IC·RC + IE·RE
VCC = VCE + IC·RC + ((β+1)/β)IC·RE
VCC = VCE + IC·[RC+((β+1)/β)·RE]
Para valores suficientemente grandes de β, ((β+1)/β)≈1, por lo que
VCC = VCE + IC·(RC+RE)
¿Qué ocurre ahora si β aumenta por la razón que sea, bien por la temperatura o las tolerancias de fabricación?
Todo esto también se puede explicar matemáticamente. En las ecuaciones anteriores vemos que la intensidad de base viene determinada por un cociente donde β aparece en el denominador. Por lo tanto, si este parámetro aumenta se producirá una bajada en la corriente de base, lo que compensará el aumento de intensidad en el colector.
En resumen, que el circuito se hace más robusto ante variaciones de β.
¿Cómo de robusto? Calculemos la expresión de la corriente de colector:
VCC = VBE + IB·RB + IE·RE
VCC = VBE + (IC/β)·RB + ((β+1)/β)IC·RE
VCC = VBE + IC·RB/β + IC·RE·(β+1)/β
VCC = VBE + IC·[RB/β + RE·(β+1)/β]
Para valores suficientemente grandes de β, ((β+1)/β)≈1, por lo que
VCC = VBE + IC·[RB/β + RE]
IC = (VCC - VBE) / [RB/β + RE]
En la expresión anterior, si RE ≫ RB/β, por ejemplo, si RE > 100·(RB/β), entonces el denominador [RB/β + RE] apenas sufriría variaciones y por lo tanto podríamos decir que el circuito es insensible a los cambios de β.
¿Qué contrapartidas tiene la utilización de una resistencia de emisor? Aunque no toca aquí estudiar eso, podemos decir que reduce la ganancia del circuito y a la vez mejora la linealidad.
A ver si lo podemos explicar sin matemáticas:
Si el BJT era un transistor con dos uniones, lo habéis adivinado: el UJT (Uni-Jnction Transistor) es un transistor con solamente una unión.
Constructivamente, un UJT es una barra de silicio de tipo N con una zona P en uno de sus costados. Los extremos de la barra son los terminales de base (B1 y B2), mientras que la zona P es el emisor. También existen UJT complementarios, donde la barra es de tipo P y la zona del emisor es de tipo N, aunque para explicar el funcionamiento del UJT hablaremos solamente del tipo N que es el más habitual.
En un UJT, la unión entre el emisor y las bases se polariza directamente. El cuerpo del UJT posee una resistencia intrínseca entre una base y la otra, que se puede expresar como la suma de dos resistencias parciales:
RBB=RB1+RB2
, siendo RB1 y RB2 las resistencias medidas desde cada una de las bases hasta el punto donde se ubica la zona P del emisor.
Estas dos resistencias en las que se divide el cuerpo del UJT forman un divisor de tensión: si ponemos la B1 a masa y la B2 a VCC, en la zona de la unión tendremos una fracción de la tensión aplicada. Este voltaje dependerá de las distancias entre el emisor y ambas bases.
En estas condiciones, si aplicamos un voltaje positivo al emisor, la unión P-N no conducirá hasta que hayamos alcanzado una tensión que sea la suma de más la tensión de polarización directa de un diodo.
Es decir:
η = V1/VBB = RB1/(RB1+RB2)
Es fácil demostrar que la caída de tensión en RB1 es:
V1 = RB1/(RB1+RB2)·VBB = η·VBB
Por lo tanto, para que la unión P-N comience a conducir, la tensión mínima que debe tener el emisor será:
Vp = η·VBB + VD
Si solamente se tratase de hacer conducir a una unión P-N, el UJT no tendría mucha más utilidad. Pero lo interesante de este invento es que cuando la unión P-N comienza a conducir se desencadenan unos efectos curiosos:
Este efecto de realimentación se produce hasta que la corriente queda limitada únicamente por el circuito que alimenta el emisor, y hace que la curva del UJT muestre una zona de resistencia negativa, lo que lo convierte en un componente útil para construir osciladores. Y aquí se acaba lo que nosotros vamos a comentar sobre este tipo de transistor.
El transistor BJT que hemos visto hasta ahora (obviaremos el UJT) es un componente que se basa en el control de la intensidad que circula por él. Se dice que es un dispositivo controlado por corriente.
La familia de transistores FET sigue un concepto totalmente diferente: el control ya no se realizará por corriente, sino por tensión. La característica de los transistores FET es que pueden modular la corriente que los atraviesa mediante campos electrostáticos, y de ahí su nombre (Field Effect Transistor).
Dentro de la gran familia de los FET, hablaremos de los dos tipos más comunes, el JFET y el MOSFET.
Las siglas JFET corresponden a Junction-Field Effect Transistor. Como hemos dicho antes, el control de corriente en un JFET se hace modulando un campo electrostático, y en el caso de los JFET ese campo electrostático es el de la unión P-N polarizada inversamente.
Si recordáis lo que decíamos de la unión P-N, cuando esta estaba polarizada inversamente se producía un ensanchamiento de la zona de agotamiento, tanto más cuanto más grande fuese el voltaje inverso aplicado.
El transistor JFET, de forma similar al UJT, está constituído por una barra de silicio tipo N en la que se ha añadido una zona P lateral. Los extremos de la barra N se llamarán ahora Fuente (Source) y Drenador (Drain), mientras que el tercer terminal de la zona P será la Puerta (Gate).
Asimismo, también existen los JFET de canal P, donde el cuerpo principal (el canal) del transistor es silicio de tipo P, mientras que la puerta es de silicio tipo N. Lo que expliquemos a partir de ahora será relativo a un JFET de canal N.
Pues bien, modulando la tensión inversa aplicada a la puerta del JFET, conseguimos que la zona de agotamiento de la unión P-N varíe su espesor. Esto provoca que se produzca un estrangulamiento del flujo de portadores (electrones en el caso del canal N) que circulan desde la fuente hacia el drenador.
Dejemos de imaginarnos el JFET y veamos directamente una representación de su estructura:
[INSERTAR ESQUEMA JFET]
En los extremos del cuerpo principal del JFET están los electrodos de fuente y drenador. Con la puerta desconectada, el JFET se comporta como una resistencia, donde la intensidad es proporcional a la tensión aplicada entre sus extremos.
Veamos ahora nuestro JFET con su polarización aplicada. El terminal de fuente será nuestra referencia de tensión. En el terminal de drenador aplicaremos un voltaje positivo (VDS > 0), mientras que en la puerta aplicaremos un voltaje negativo (VGS < 0). Recordemos que el JFET trabaja con la puerta en polarización inversa, con lo que no circulará corriente por ella.
Como ya hemos comentado antes, con VGS = 0 el JFET se comporta como una resistencia, y la corriente de drenador ID será proporcional a la tensión VDS aplicada. Además, y como vimos también en el UJT, el cuerpo del JFET actúa como un divisor de tensión. Por decirlo de alguna forma, es como si dividiésemos la barra de silicio N en rodajas muy delgadas: cada rodaja sería una resistencia, y todas ellas estarían conectadas en serie. En el extremo de la fuente la tensión sería de cero voltios, y conforme nos fuésemos desplazando hacia el drenador la tensión iría aumentando hasta alcanzar VDS cuando llegásemos al drenador. Exactamente igual a cuando giramos un potenciómetro para subir el volumen de la radio.
Este efecto de potencial ascendente a lo largo de la geometría del JFET tiene un efecto curioso sobre la zona de agotamiento de la unión P⁻N de la puerta: aunque toda la puerta está sometida a la misma tensión VGS, en la zona de la puerta cercana a la fuente la diferencia de tensión es menor que en la zona de la puerta que está más cerca del drenador, y por lo tanto la zona de agotamiento es más estrecha en la zona de la fuente que en la de drenador.
[INSERTAR ESQUEMA JFET DONDE SE VEA LA ZONA DE AGOTAMIENTO CON GROSOR CRECIENTE]
Esto hace que la zona por donde circulan los portadores de carga cuando van de la fuente al drenador se vaya haciendo poco a poco más estrecha. Cuando salen de la fuente hay más sección de silicio por donde circular porque la zona de agotamiento no es demasiado gruesa, pero conforme avanzan hacia el drenador la zona útil se va estrechando poco a poco. Si VGS se hace más negativa, lo que ocurre es que los portadores de carga lo tendrán más difícil para moverse, con lo que la resistencia del canal aumenta.
Cuando VDS y, por lo tanto, IDS no son demasiado altas, el canal se comporta de forma más o menos lineal y se dice que estamos en la zona óhmica. En esta situación, la gráfica que relaciona IDS con VDS es una línea más o menos recta cuya pendiente depende de VGS (cuanto más negativa sea VGS, menor la pendiente de IDS -mayor resistencia del canal-). Si VDS = 0, IDS también será cero, por lo que estas rectas partirán del origen de coordenadas de nuestra gráfica.
Si VDS aumenta, también lo hará IDS, pero solo para valores bajos de tensión. Debemos tener en cuenta que aumentar VDS hace que aumente la diferencia de tensión entre la puerta y el canal por donde circulan los portadores, con lo que la zona de agotamiento crece y el canal se estrecha. Llega un momento en el que el estrangulamiento que se produce en el canal limita la corriente que puede circular por él, y entramos en lo que se conoce como zona de saturación, donde IDS es prácticamente una línea horizontal: aunque VDS siga creciendo la intensidad IDS será constante. En esta zona, el JFET se comporta como una fuente de corriente constante.
¿Y qué papel juega la puerta cuando alcanzamos la saturación? En la zona óhmica la tensión de puerta controlaba la resistencia del transistor (la pendiente de IDS), y ahora en la zona de saturación lo que hace es controlar la intensidad que circula por el JFET. Dicho de otro modo, la tensión de puerta modula el estrangulamiento del canal, haciendo que sea más o menos intenso y por lo tanto controlando la cantidad de portadores que pueden atravesarlo.
El resultado de todo esto produce unas gráficas de IDS con esta forma:
[INSERTAR CURVAS CARACTERÍSTICAS JFET]
Y por si no habíais caído del guindo: todo esto se produce ¡sin que por la puerta circule corriente! Los JFET (bueno, todos los FET en general) son dispositivos controlados por tensión, y no circula corriente por la puerta (solamente una ínfima corriente de pérdidas similar a la que existe entre las placas de un condensador). Por eso los FET son utilizados ampliamente en amplificadores para conseguir impedancias de entrada altas.
Recordemos que la puerta debe estar polarizada negativamente o, a lo sumo, estar al mismo potencial que la fuente, pero nunca debe polarizarse de forma directa. Por eso en un JFET la corriente de saturación máxima que puede circular se produce con VGS = 0. A esta corriente saturación se le llama IDSS y es característica de cada modelo.
Existe también otro valor relevante, y es la tensión de puerta a la cual se interrumpe por completo el paso de corriente por el JFET. Se llama tensión de umbral o de corte y se representa por VT.
Además de las curvas de IDS vs VDS, que definen el comportamiento del JFET en su salida, se trabaja también con otra curva que define la característica de entrada, y que nos muestra la corriente de drenador ID en relación a la tensión de puerta VGS:
[INSERTAR CURVA ID vs VGS]
Como ya habíamos dicho antes, esta curva alcanza su punto máximo con VGS = 0, y en ese punto ID = IDSS.
Ya hemos hablado de dos de los parámetros que definen el comportamiento de un JFET:
Pero todavía echamos en falta algún otro parámetro: ¿cuánta ganancia aporta un JFET?. En el caso de los BJT teníamos los parámetros α y β que establecían las relaciones entre las tres intensidades. Además, estos parámetros eran adimensionales porque eran el resultado de dividir una intensidad por otra intensidad, con lo que no tienen unidades,
Ahora bien, ¿qué parámetro se utiliza con los JFET? La respuesta es: la transconductancia.
La transconductancia es el parámetro que relaciona las variaciones de la tensión de puerta con las variaciones de la corriente de saturación, y se representa como gm.
Por lo tanto, la expresión que define la transconductancia es:
gm = ΔID / ΔVGS
Fijaos en que estamos dividiendo una corriente entre un voltaje, que es justo lo contrario a cuando calculamos una resistencia (en ese caso dividimos un voltaje entre una intensidad). Por eso las unidades de la transconductancia son los mho. Sí, es ohm escrito al revés. Para que luego digan que los ingenieros no tienen sentido del humor… También os podéis encontrar sitios donde hablen de Siemens como unidad de conductancia, que es la unidad del Sistema Internacional.
Pero volvamos a la gráfica de la transconductancia del JFET. ¿Cuál es el valor máximo que puede tener la transconductancia en un JFET? Descartando los valores de VGS positivos, que ya hemos dicho que están prohibidos, la pendiente máxima es la que tenemos para VGS = 0. A este valor máximo de la transconductancia se le llama gm0.
[INSERTAR GRAFICO TRANSCONDUCTANCIA]
No hace falta explicar que esa curva no es una línea recta, ¿verdad? Por lo tanto, el valor de la transconductancia no será constante. Recordemos que la transconductancia es un cociente entre incrementos (para los que sepan algo más de matemáticas, estaríamos hablando de la derivada). Gráficamente, correspondería con la pendiente que tendría una línea recta que fuese tangente a la curva. La transconductancia será más baja para tensiones de puerta cercanas a la tensión de corte, e irá creciendo conforme la tensión de puerta se vaya acercando a los cero voltios.
Todo lo anterior no es suficiente si queremos hacer los cálculos necesarios para diseñar un circuito. Para calcular la corriente de drenador que va a circular por un JFET para una tensión de puerta dada, podemos tirar de gráficas y medir para obtener valores aproximados a partir de ellas, pero siempre viene bien poder tener una expresión matemática que nos proporcione un resultado.
La ecuación que nos da la corriente de saturación de un JFET en función de la tensión de puerta es la ecuación de Shockley:
ID = IDSS (1 − VGS / VT)2
Vemos ahora qué ocurre si relacionamos la ecuación de Shockley con la transconductancia:
gm = ΔID / ΔVGS = δID / δVGS
gm = δ[IDSS (1 − VGS / VT)2] / δVGS
gm = 2 IDSS (1 − VGS / VT) (− 1 / VT)
gm = 2 (IDSS / |VT|) (1 − VGS / VT)
Tenemos además que gm0 es el valor de gm0 cuando VGS = 0, por lo que:
gm0 = 2 (IDSS / |VT|)
, y si sustituimos en la expresión general de gm, tenemos que:
gm = gm0 (1 − VGS / VT)
Al igual que podíamos tener tres posibles configuraciones para un BJT (recordemos: emisor común, base común y colector común), para el JFET también tenemos tres configuraciones análogas:
No vamos a profundizar mucho explicando las tres configuraciones, aunque sí resumiremos sus características principales:
Fuente común: Alta impedancia de entrada con alta ganancia de tensión.
Puerta común: Baja impedancia de entrada y alta impedancia de salida.
Drenador común (seguidor de fuente): Alta impedancia de entrada, baja impedancia de salida, ganancia de tensión (casi) unitaria.
De estas tres configuraciones, la más utilizada es la de fuente común seguida de la de drenador común (seguidor de fuente).
La primera diferencia a la hora de tener que polarizar un JFET, respecto de lo que teníamos con un BJT, es que ahora debemos polarizar la entrada del transistor con tensiones negativas.
Si contamos con dos fuentes de alimentación no hay ningún problema: usamos la tensión negativa para polarizar la puerta, y se acabó la discusión. Podemos seleccionar el voltaje de puerta utilizando un divisor de tensión.
[INSERTAR ESQUEMA]
Pero contar con dos fuentes, una de ellas negativa, no siempre es lo habitual, así que normalmente usaremos circuitos autopolarizados. ¿Qué significa esto de autopolarización? Pues algo que ya habíamos visto también con los BJT, solo que entonces era opcional y ahora es casi obligado: usar una resistencia de fuente de la misma forma que poníamos una resistencia de emisor en los BJT.
Debemos polarizar nuestro JFET con una tensión de puerta negativa, pero eso no significa que debamos disponer de una fuente de alimentación negativa. La puerta debe ser negativa respecto de la fuente, pero no respecto de masa. Así que si no podemos bajar la tensión de puerta por debajo de 0 V, lo más fácil es hacer que suba la tensión de fuente.
Aquí tenéis un ejemplo de circuito de autopolarización para un JFET:
[INSERTAR ESQUEMA]
Y llegamos por fin al transistor estrella de la electrónica moderna: el MOSFET (Metal-Oxide Semiconductor Field Effect Transistor, o transistor de efecto de campo y semiconductor metal-óxido). Este tipo de transistor, además de emplearse como componente discreto, es el empleado a escalas nanométricas para construir la inmensa mayoría de circuitos integrados actuales (especialmente procesadores), llegando a contener millones y millones de ellos en un solo chip.
Como todos los FET, los MOSFET se basan en un canal de conducción por donde circulan portadores de carga, y un mecanismo de control de ese canal. En los JFET habíamos visto que dicho mecanismo era una unión P-N polarizada inversamente. Ahora en los MOSFET lo que tendremos será un condensador.
El terminal de puerta de los MOSFET es una capa metálica que se mantiene unida al silicio pero aislada eléctricamente de este, formando un condensador. Una de las placas de dicho condensador es el propio terminal de puerta, y la otra placa es el silicio que forma el canal de conducción del MOSFET.
Con la tensión adecuada aplicada al terminal de puerta, podemos hacer que en la otra placa del condensador (esto es, en el canal del transistor) se acumulen portadores atrayéndolos electrostáticamente, o repelerlos para que se dispersen.
[INSERTAR EQUEMA DE ESTRUCTURA DE MOSFET]
En la estructura del MOSFET podemos ver:
Como os habréis imaginado, podemos tener MOSFET de canal N y de canal P.
En los JFET solamente podíamos utilizar la puerta polarizándola negativamente, con lo que nuestro control se limitaba a reducir más o menos la cantidad de portadores de carga en el canal. Ahora en los MOSFET ya no tenemos esa limitación, y podemos jugar a repeler portadores de carga, pero también a atraerlos. Es por ello que además de existir MOSFET de canal N y de canal P, estos pueden ser a su vez de deplexión (o empobrecimiento) o de acumulación (o enriquecimiento).
Vamos a dejar por ahora los transistores y los amplificadores, y haremos un breve retorno a los dispositivos de rectificación.
En este capítulo hablaremos un poco del DIAC, porque será un componente necesario en los siguientes capítulos dedicados al tiristor y al TRIAC.
¿Qué es un DIAC? Pues es un componente formado por varias capas de silicio P y N, similar a un transistor. Decidmos que posee «varias» capas porque no hay una única estructura para formar un DIAC. Existen DIACs de tres capas (NPN o PNP, igual que un transistor), cuatro (PNPN) o incluso cinco capas.
En el caso de los DIACs de tres capas, su funcionamiento es diferente al de un transistor porque los niveles de dopado y la geometría de las diferentes regiones, que son diferentes a las de un BJT, hacen que su comportamiento sea diferente. Y porque el DIAC no tiene terminal de base, claro.
[INSERTAR IMAGENES DE LAS DIFERENTES ESTRUCTURAS]
Dado que el DIAC es un componente de comportamiento simétrico, no existe ni ánodo ni cátodo. Sus terminales se suelen denominar ambos ánodos, y se nombran como A1 y A2.
El DIAC es un dispositivo de disparo. Cuando lo sometemos a una tensión creciente (da igual la polaridad, porque su comportamiento es simétrico), inicialmente la corriente que lo atraviesa es baja. Si la tensión entre sus terminales alcanza un valor determinado, que ronda los 30V (con alguna variación entre un modelo y otro, pero de ese orden), el DIAC comienza a conducir de forma abrupta.
La curva de un DIAC tiene una forma característica, y además es simétrica porque da igual que apliquemos el voltaje positivo a un terminal o al otro:
[INSERTAR GRAFICA DIAC]
¿Os recuerda a algo esta gráfica? Volved al capítulo del UJT y comparad.
¿Todavía no? Imaginad la gráfica del UJT con los ejes intercambiados, la tensión en el eje horizontal y la intensidad en el vertical. ¿Ahora sí?
Una vez se produce el disparo del DIAC la intensidad será proporcional a la tensión aplicada, solo que ahora la pendiente de su curva será alta (poca variación de tensión provocará una gran variación de intensidad). El DIAC seguirá conduciendo hasta que la intensidad baje de un valor mínimo, en cuyo caso volverá a cortar el paso de corriente (se dice que el DIAC se apaga) y será necesario que se produzca otro disparo para que vuelva a conducir.
Igual que ocurría en el caso del UJT, el DIAC es un dispositivo empleado principalmente para producir pulsos mediante este mecanismo de disparo/apagado.
¿Qué valores hacen a un DIAC diferente a otro? Pues muy pocos, la verdad:
Aunque el DIAC es un dispositivo más o menos simétrico, podrían existir diferencias en su uso con una polarización u otra, por lo que el fabricante podría aportar esa información en la hoja de características si lo considerase necesario.
El tiristor, también conocido como SCR (Silicon Controlled Rectifier) es un dispositivo de disparo, similar al DIAC, pero que cuenta con un tercer terminal que nos permite provocar a voluntad su encendido.
Los tiristores cuentan con cuatro capas de silicio P y N dispuestas alternativamente: P-N-P-N. Debido a que no es un dispositivo simétrico, sus dos terminales principales se denominan ánodo y cátodo, igual que en los diodos. Al tercer terminal se le llama puerta, y va conectado a la zona P adyacente al cátodo, como se puede apreciar en la figura:
[INSERTAR IMAGEN ESTRUCTURA TIRISTOR]
Ahora vamos a sacar de cuchillo y hacer unos cortecitos en las dos zonas P-N interiores. Nos quedaría algo tal que así:
[INSERTAR IMAGEN ESTRUCTURA PARTIDA TIRISTOR]
¡Anda! ¿Qué tenemos aquí? ¡Pero si son dos transistores!
Pues sí, un tiristor se comporta como dos transistores, uno NPN y el otro PNP, conectados de la siguiente forma:
[INSERTAR ESQUEMA TRANSISTORES TIRISTOR]
Supongamos que aplicamos una tensión entre ánodo y cátodo del tiristor, sin nada conectado a la puerta, o con la puerta conectada al mismo potencial que el cátodo. En estas condiciones, dado que la tensión entre base y emisor del transistor NPN no tenemos un potencial suficiente, este permanecerá en corte.
A su vez, como la corriente de base del transistor PNP es igual a la corriente de colector del transistor NPN, si el NPN no conduce tampoco lo hará el PNP. En resumen, que el tiristor no conduce aunque hayamos aplicado una polarización positiva a sus terminales (ánodo al positivo y cátodo al negativo).
Pues menudo invento, no? Un diodo que no conduce ni polarizándolo directamente.
Veamos qué ocurre si aplicamos tensión a la base:
No os debe resultar extraño que la curva característica de un tiristor sea similar a la del DIAC, ya que su mecanismo de disparo es similar. Sin embargo, el tiristor no es simétrico y solo conduce en un sentido, por lo que tendremos solamente la mitad de la curva que teníamos para el DIAC.
[INSERTAR CURVA TIRISTOR]
La parte izquierda de la gráfica es similar a lo que tendríamos en un diodo: el tiristor no conduce (el valor de la corriente inversa de fugas es muy bajo) siempre que no superemos un valor de tensión determinado, a partir del cual el tiristor entraría en ruptura y se destruiría.
¿En qué parámetros debemos fijarnos para elegir un tiristor? Pues en muchos, pero los principales son:
El TRIAC (TRIode for Alternating Current) es un dispositivo que equivale a disponer de dos tiristores en antiparalelo, con un terminal de puerta común.
[INSERTAR ESQUEMA TRIAC EQUIVALENTE]
El TRIAC entrará en conducción cuando provoquemos su disparo activando de forma adecuada su terminal de puerta, y permanecerá en ess estado mientras la corriente no baje de un valor mínimo (corriente de mantenimiento).
Dado que el TRIAC va a trabajar en circuitos que funcionan en alterna, la corriente pasará por cero regularmente haciendo que el TRIAC se apague, y por lo tanto será necesario provocar el disparo en cada semiciclo.
Al contrario de lo que ocurría con el tiristor o SCR, el TRIAC sí es un componente que conduce en ambas direcciones, por lo que su gráfica será similar a la del tiristor, pero teniendo en el tercer cuadrante (tensión e intensidad negativas) un comportamiento similar al del primer cuadrante (tensión en intensidad positivas).
[INSERTAR CURVA CARACTERÍSTICA DEL TRIAC]
Sobra decir que, a efectos prácticos, un TRIAC viene a ser un DIAC que podemos disparar a voluntad.
Dado que el TRIAC conduce en ambos sentidos, nos permite controlar y regular cargas que funcionen en corriente alterna.
Los parámetros que caracterizan a un TRIAC son similares a los que teníamos para el tiristor (tensiones máximas soportadas, intensidades de enganche y mantenimiento, tensión mínima de disparo, etc.).
Un amplificador operacional (OpAmp, a partir de ahora, o simplemente operacional) posee dos entradas, la inversora (-) y la no inversora (+).
La salida de un amplificador operacional obedece a la siguiente fórmula:
VO = (V+ - V-) · G
Es decir, el amplificador operacional nos proporciona en su salida el valor de la diferencia entre sus dos entradas (la no inversora menos la inversora) multiplicado por su ganancia.
Hasta aquí no hay nada demasiado difícil de entender. Si en un amplificador multiplicamos la señal de entrada por la ganancia, y eso es lo que obtenemos a la salida, ahora la única diferencia es que en lugar de una entrada tenemos dos, y lo que amplificamos es la diferencia entre las dos entradas. De hecho en un amplificador «normal» también estamos amplificando una diferencia de señales, porque realmente lo que amplificamos es la diferencia entre la señal de entrada entrada y masa (pero como la masa equivale al potencial de 0 V, pues al final no restamos nada).
Para comprender el funcionamiento de los amplificadores operacionales debemos hacer algunas aproximaciones (a estas alturas de la película se supone que ya no os sorprenderéis), o asumir algunas mentirijillas:
¿Entendido hasta aquí? Los operacionales son unos circuitos que amplifican mucho, mucho la señal, y además tienen una entrada que apenas consume corriente, es decir, la fuente que alimenta la entrada del operacional apenas «nota» que tienen algo conectado. Lo que hacemos con estas aproximaciones es «idealizar» nuestro modelo de operacional, convirtiéndolo en algo teóricamente perfecto y luego poder utilizar esa «idealización» para simplificar los cálculos. Esas «idealizaciones» o aproximaciones no supondrán ningún problema porque la ganancia de los opamps reales es tan alta, así como su ganancia, que en un montaje real no afectan a los cálculos en absoluto.
Pues ahora viene lo bueno. De los dos puntos anteriores podemos deducir lo que llamaremos el «cortocircuito virtual». Vamos a explicarlo:
El cortocircuito virtual significa que la diferencia entre las dos entradas del operacional es tan, tan pequeña, que podemos asumir que es cero, y que por lo tanto las dos entradas del operacional están siempre al mismo potencial. Siempre que el operacional esté trabajando de forma correcta y dentro de sus rangos, claro.
Esto es un poco difícil de asimilar al principio, pero os iréis acostumbrando. Se trata de un cortocircuito un tanto «especial», porque las dos entradas están al mismo potencial pero sin embargo no es un cortocircuito real porque no circula corriente por ellas (recordad lo de la impedancia de entrada infinita!!!).
Estas dos condiciones, la impedancia de entrada infinita y el cortocircuito virtual, son las que permiten que calcular la ganancia de un circuito con opamp sea muy, muy sencillo.
A pesar de que usemos un modelo idealizado para nuestros cálculos hay algunos aspectos que hay que seguir teniendo presentes, como el del ancho de banda (BW, bandwidth). Un opamp ideal tiene un ancho de banda infinito, esto es, podría amplificar señales de cualquier frecuencia. Las dos mentirijillas de antes acerca de la impedancia de entrada y el cortocircuito virtual no afectan a los cálculos, pero el tema del ancho de banda sí es necesario tenerlo en cuenta si vamos a trabajar con frecuencias altas.
En el mundo real los opamp tienen un ancho de banda limitado y no pueden amplificar cualquier señal. Cuando la señal es de una frecuencia demasiado alta, los transistores que forman el opamp no pueden seguir el ritmo de unas oscilaciones tan rápidas. En función del diseño interno del opamp y de la tecnología de semiconductores empleada en su fabricación, tendremos opamps más o menos «rápidos».
Esta rapidez viene indicada por una magnitud llamada slew rate, que nos dice cómo de rápido puede variar la salida del opamp, y se mide en V/us (voltios por microsegundo). Cuanto más alto sea el slew rate de un opamp, mayor será su ancho de banda ya que su salida puede oscilar a mayor velocidad.
Si intentásemos amplificar una señal con un operacional en lazo abierto (esto es, sin resistencias de realimentación), y sacásemos un gráfico de la ganancia en función de la frecuencia de la señal de entrada, tendríamos algo así:
[Explicar con imagen la curva de ganancia en lazo abierto de un opamp real]
Lo que nos dice esta gráfica es que con una señal de continua (0 Hz, DC) la ganancia del amplificador es altísima, como ya habíamos dicho. Si la ganancia se expresa en dB, por cada 20dB de ganancia en voltage estamos multiplicando la señal por un factor de 10. Así, 20dB equivale a multiplicar por 10, 40dB equivale a un factor de x100, etc… Con 120dB, el factor de ganancia es de 1000000 veces !!!
Como se puede apreciar, en cuanto la frecuencia aumenta la ganancia va disminuyendo. Esto es un efecto del límite del slew rate que comentamos antes: como el operacional no puede oscilar tan rápido, conforme aumenta la frecuencia se reduce la amplitud de la señal de salida. Aunque estamos tratando de no meter muchas matemáticas en este pequeño curso, para aquellos que sepan lo que es una derivada diremos que el //slew rate// limita la derivada de la tensión de salida. Dado que la derivada de una señal depende de su frecuencia y de su amplitud, el hecho de que la derivada (recordemos: el //slew rate//) tenga un límite implica que aumentar la frecuencia supone reducir la amplitud para no superar dicho límite.
Por lo tanto, podemos decir que el producto ganancia x frecuencia de un operacional está limitado por su //slew rate//, y de ahí esa gráfica descendente. Si además de saber de derivadas también sabéis de curvas cónicas, estaréis extrañados porque la curva es una línea recta y no una hipérbola. Las funciones en las que el producto x·y es constante forman una hipérbola cuyas asíntotas son los ejes. Entonces, si en esta gráfica la x es la frecuencia y la y la ganancia, y hemos dicho que su producto es constante, ¿por qué no sale una hipérbola? La razón es que no estamos utilizando una escala lineal para la frecuencia ni para la ganancia. En la frecuencia estamos usando una escala logarítimica (tenemos la misma distancia entre 10Hz y 100HZ que entre 10KHz y 100KHz). En el eje de la ganancia, estamos utilizando unidades logarítmicas (los dB), con lo que estamos asignando la misma distancia entre las ganancias de x10 y x100 que entre x1000 y x10000. El resultado de no utilizar ejes lineales es que la hipérbola se convierte en una línea recta.
Venga, va, nos dejamos de hablar de matemáticas y volvemos a lo nuestro.
¿Qué ocurre si la ganancia baja a un factor de x1, o dicho en dB, a 0dB? La frecuencia a la que ocurre eso es la que marca el ancho de banda de nuestro operacional, o más exactamente el producto de ganancia y ancho de banda (Gain-Bandwidth product). Obviamente, usar un operacional a su frecuencia de ganancia unitaria no tiene sentido, porque no estaríamos amplificando nada. El operacional va a trabajar a una frecuencia mucho más baja y nos va a proporcionar una ganancia apreciable. ¿Cómo? Pues con la realimentación. Son las resistencias que acompañan al operacional las que van a determinar la ganancia del mismo. Y al decidir la ganancia estamos decidiendo implícitamente cuál será el ancho de banda de nuestro montaje amplificador. Son cosas que van juntas.
Vosotros mismos podéis comprobar que el GB es constante. Si en la gráfica la ganancia es de 0dB a 1MHz, ¿de cuánto será a 1KHz?. Bajar de 1MHz a 1KHz supone reducir por 1000 la frecuencia, así que la ganancia aumentará en la misma cantidad y se multiplicará por 1000. Expresado en dB serían 60dB (20 log 1000). Que es exactamente lo que indica la gráfica.
¿Quiere decir todo esto que la ganancia del amplificador operacional depende de la frecuencia? ¿Se van a amplificar más la frecuencias bajas que las altas? NO.
Todo esto que estamos explicando se refiere a la ganancia en lazo abierto. En lazo abierto, la ganancia sí depende de la frecuencia, pero un operacional nunca se utiliza en lazo abierto, porque no resulta útil. Cuando utilicemos un operacional le pondremos siempre unas resistencias para establecer cuánta ganancia deseamos. Esas resistencias forman la red de realimentación, y «limitan» la ganancia del conjunto. Al establecer un límite a la ganancia, estamos «aplanando» la gráfica y hacemos que la ganancia sea siempre la misma sea cual sea la frecuencia. Pero, ay, si la frecuencia supera un valor determinado, volveremos a notar los efectos del //slew rate// y la ganancia comenzará a bajar.
Lo diremos de otra forma: la ganancia de un operacional en lazo cerrado está limitada por dos cosas:
La ganancia de nuestro sistema será siempre la menor de estas dos. Y por lo tanto, su ancho de banda «útil» será la zona donde la ganancia es constante (no interesa tener una ganancia dependiente de la frecuencia, al menos en la mayoría de los casos), que está limitada por el punto de corte de las dos rectas.
[Explicar con imagen la curva de ganancia en lazo cerrado, y cómo el producto G·BW se mantiene constante]
Bueno, pues vamos a ver cómo sacamos provecho del cortocircuito virtual para calcular la ganancia de un operacional en montaje inversor.
Lo del montaje inversor significa que aplicamos la señal de entrada a la entrada inversora del operacional, y el amplificador nos dará una salida invertida respecto a la entrada. La entrada no inversora la pondremos a masa, tal cual podemos ver en el siguiente esquema:
[PONER AQUI EL ESQUEMA DEL AMPLIFICADOR INVERSOR]
Veamos qué ocurre en este esquema:
Si es la primera vez que leéis sobre el funcionamiento de los operacionales, puede que en este momento os haya estallado la cabeza. Os estaréis preguntando cómo puede ser que si yo aplico una señal pequeñita a una resistencia, la corriente en lugar de ir a masa salga por la otra resistencia (que incluso puede ser de mayor valor todavía!!!) provocando que a la salida tengamos la señal amplificada. Lo que tenéis que tener en cuenta aquí es el papel del operacional. Es el operacional el que se encarga de que esto ocurra. El operacional va a ajustar su salida a un valor tal que siempre se cumplan las ecuaciones de funcionamiento, y por lo tanto se mantendrán las condiciones para el cortocircuito virtual y todo lo demás. Si el amplificador entrase en saturación, es decir, si su salida llegase a los límites permitidos (los de la alimentación) ya no estaría en condiciones de garantizar que todo este tinglado se mantenga y por lo tanto ya no tendríamos un cortocircuito virtual en las entradas ni nada de eso.
Pero insisto, por si os estáis comiendo la cabeza con la relación causa efecto: no es la corriente de entrada la que espontáneamente se deriva hacia R2 porque sí, sino que es el amplificador el que ajusta su salida a un valor tal que se cumplan las condiciones para que por R2 circule la misma corriente que por R1, y por lo tanto se cumplan las ecuaciones del amplificador.
Si hemos entendido el montaje inversor, vamos a ver ahora el no inversor, que es un poco diferente:
[PONER AQUI EL ESQUEMA DEL AMPLIFICADOR INVERSOR]
Como podéis ver, la entrada que antes estaba puesta a masa ahora va a ser nuestra entrada de señal, mientras que la que antes era la entrada de señal ahora la pondermos a masa.
Apliquemos los mismos razonamientos que antes, a ver qué nos sale ahora:
Podemos deducir que la ganancia mínima será la unidad (cuando R2 = 0), pero de ahí no podemos bajar. Y desaparece el signo negativo, así que la salida estará en fase respecto a la entrada.
Además, en este caso particular en el que R2 = 0 , R1 pasaría a ser simplemente una resistencia conectada entre la salida del amplificador y masa, así que podríamos eliminarla y nos quedaríamos con un motaje súper sencillo llamado seguidor de tensión:
[PONER AQUI EL ESQUEMA DEL AMPLIFICADOR INVERSOR]
Este seguidor es una forma muy práctica de poder utilizar una señal sin degradarla, ya que la impedancia de entrada del seguidor es infinita (o casi) mientras que el operacional nos ofrece una impedancia de salida relativamente baja (dependerá del modelo) para atacar a lo que necesitemos.
José Manuel Mariño Mariño.
https://www.bricolabs.cc/wiki/user/fogheteiro