Tipos de Mantenimiento

LA CONSERVACION DE LAS INSTALACIONES

El mantenimiento

Para conservar la maquinaria, las herramientas, los equipos de producción y servicio, que todo ello se encuentre en condiciones de funcionamiento, de manera de asegurar el nivel optimo de su efectividad, se deben desarrollar actividades que se identifican con el nombre de mantenimiento.
La actividad de mantenimiento, durante el desarrollo industrial paso por distintas etapas, y se fue ajustando a distintas modalidades, se puede hacer una clasificación de los tipos de mantenimiento que se han aplicado, cada uno muestra ventajas y defectos, fortalezas y debilidades.
Mantenimiento correctivo, la reparación se hace una vez que se ha producido la falla. Se puede hacer una reparación mínima para seguir en funcionamiento, (el alambre…), lo que se llama mantenimiento paliativo (de campo), y eso puede ser seguido de una tarea que intenta ser definitiva, mantenimiento curativo (de reparación).
Mantenimiento preventivo, se trata de efectuar trabajos (de mantenimiento) con cierta regularidad, y esto con el objeto de evitar las roturas imprevistas, prevenir las posibles averías, desarrollando controles visuales y de parámetros, pero sobre todo analizando tiempos transcurridos entre intervenciones.
Se trata de hacer programas de revisiones periódicas apoyadas en el conocimiento de los equipos, y realizar acciones, cambios, limpiezas, y definir tareas mayores que se observan necesarias.
Mantenimiento predictivo, se trata de predecir las necesidades de mantenimiento, adelantarse a la avería, antes de que se produzca. Básicamente se analizan registros de vibraciones, ruidos para fenómenos mecánicos, y se actúa análogamente con otros fenómenos físicos (temperaturas, resistencias de aislacion, etc.) que se pueden observar durante el funcionamiento normal.
Mantenimiento integrado (también llamado mantenimiento productivo) respeta la frase: el buen funcionamiento es responsabilidad de todos. Y se apoya en el personal de produccion, que participa observando el buen funcionamiento de su maquina, y en general del proceso.

Correctivo preventivo predictivo integrado
ventajas
Permite intervención rápida Posibilita planificación y previsión Permite conocer causas del deterioro Concepto unido a calidad total y mejora continua
Reposición en tiempo mínimo Permite optimizar el momento de la reparación Cambios condicionados al estado real de desgaste Resultado final enriquecido y participativo
Cuidado periódico Alto índice de fiabilidad Genera una cultura
Requiere pocos Operarios de experiencia y pericia Aumento de disponibilidad Dominio del proceso, conduce a un método riguroso y objetivo
Si no afecta la producción puede ser conveniente Reduce costos de producción Economía de recambios
Tiende a la mejora continua Conveniente cuando se requiere  alto nivel de seguridad
Debilidades
Alto riesgo de fallas Requiere inversión en infraestructura Requiere inversión inicial muy importante en equipos Inversión, formación y cambios representan alto costo
Paradas y daños imprevisibles Mano de obra y técnicos especializados para planes de mantenimiento Se justifica cuando los paros intempestivos tienen graves consecuencias Requiere convicción del beneficio en toda la organización
Baja calidad de las reparaciones Se pueden sobrecargar los costes de mantenimiento Esfuerzo importante en lectura periódica de datos Requiere cambio de cultura para tener éxito
Aparecen fallas consecuencias Trabajos rutinarios desmotivan al personal Interpretación de datos y conclusiones requiere alto conocimiento técnico. Es un sistema que no puede ser impuesto
Descontrol de repuestos Es muy importante implicar al personal Paradas con grandes costes Es un proceso que lleva años

Gestion del mantenimiento
El desarrollo de una actividad debe llegar a buen puerto, y esto inicia desde el origen, y con una buena guia, las preguntas que se deben contestar son:
Que se hace?
Como se hace?
Cuando se hace?
Quien lo hace?
Y posteriormente se debe poder responder estas mismas preguntas paro para el tiempo pasado (quien lo hizo y que hizo?)
Tratándose de mantenimiento, se deben desarrollar procedimientos generales que efectivamente responden la pregunta que se hace?
Luego los procedimientos especificos (manuales de instrucciones) nos detallan como se hace?
Cuando se hace? Este es el problema de planificar y programar, para que las perdidas de servicio se minimicen.
La orden de trabajo fija quien lo hace.
Pero no siempre se puede hacer todo lo planeado, y a veces se regresa de ejecutar el trabajo, y este se ha desarrollado solo parcialmente, lo hecho debe ser registrado para lograr trazabilidad, y lo no hecho recicla la planificación y programación para que se lo considere en un futuro (proximo).
SEGURIDAD Y ACCIDENTES ELÉCTRICOS
La electricidad es peligrosa? Sin duda, todos sabemos que es mortal, tanto que ha sido usada para aplicar pena de muerte.
Hablar sobre seguridad es difícil… que es seguridad?
Seguridad es una palabra que se asocia con peligro, cuando se presentan accidentes se habla de seguridad, de normas de seguridad, que quiere decir seguridad?
Relatemos algunos accidentes, y algunos no accidentes.
Aclaremos que lo que se cuenta son interpretaciones y versiones personales de noticias que llegaron frecuentemente deformadas por efecto de teléfono descompuesto… no se pretende conocer la verdad, simplemente mostrar que un accidente nunca es un hecho aislado, siempre surge del encadenamiento de varios eventos, a muchos de ellos no se les presta atención…
Por ultimo, como se trata de experiencias personales, el relato se hace en primera persona.

(1) Era yo estudiante, fuimos de visita a una central eléctrica, detrás de un tablero abierto el operador nos mostraba los aparatos, barras, interruptores, fusibles… el operador estiro el brazo y con la yema de los dedos toco las gruesas barras, 380 V dijo con aplomo, tomo la barra entre los dedos y dijo tantos Amper… gracias a Dios no le paso nada…
Con ese acto temerario busco nuestra admiración, nos explico que eso el lo hacia normalmente para ver como andaba la instalación…
Yo pense si alguna vez este es empleado mío.. lo echo… así morirá de hambre pero no electrocutado, es mejor no tener una persona capaz, que tener un temerario aunque sepa hacer bien su trabajo.

(2) Ya joven ingeniero, vino a buscarme la camioneta que me debía llevar al aeropuerto, y el chofer me dijo que había habido un accidente en la obra, el capataz había ido a cambiar un fusible al transformador de plataforma y se había electrocutado, el montador mecánico lo había salvado haciéndole la respiración artificial, y lo habían llevado al hospital.
Pasamos por la obra, las noticias eran que el accidentado estaba internado, y se recuperaba, esa era la única novedad…
Que había ocurrido? Subió de un lado de la plataforma para cambiar los fusibles (de baja tensión) y estos estaban del otro lado, entonces se agarro de los aisladores de alta para pasar al otro lado del transformador…
Me fui con la pregunta, que pensaba este hombre cuando hizo esto?
Era experto, hacia el mantenimiento de media tensión, cambiaba a pértiga los fusibles de la red rural, maniobraba los seccionadores… que pensaba?
Cuando algunos días después regrese, supe algo mas, desde días antes del accidente tenia problemas con su mujer… no pregunte mas, evidentemente pensaba otra cosa.

(3) Me cuentan de un accidente que ocurrió hace mucho tiempo, el operador fue a seccionar el interruptor de un tablero de media tensión, lo secciona y luego va detrás del tablero para cerrar la cuchilla de tierra.
Con la palanca intenta cerrarla, la cuchilla se resiste, hace fuerza, mas fuerza, gana, una terrible explosión dentro del tablero, revienta la celda… se había equivocado de celda… el intento de poner a tierra fue en una celda que no estaba seccionada.

(4) Se estaba terminando el montaje de una subestacion de 33 kV, había que parar un poste cerca de la línea de entrada a la subestacion. Se hizo todo el trabajo manteniendo el servicio, sin problema, vino la grúa, se ubico, levanto la pluma, tomo el poste… todos estaban atentos, todo anduvo bien, se termino el trabajo.
Paso la tensión por el riesgo del trabajo, la grúa comenzó a retroceder para irse, llevándose por delante (detrás) la línea que no se había querido cortar programadamente para hacer el trabajo.
El relajarse, porque se termino el trabajo concreto hizo que ya no se prestara atención a los riesgos que no habían terminado… la condición de peligro se mantenía presente… el conductor de la grúa fue protegido por la jaula de Faraday, y por suerte nadie acompañaba la grúa mientras retrocedía, en el hormigón del piso y en las cubiertas quedaron las quemaduras del arco…
Tiempo después me entere que en otra obra haciendo mantenimiento bajo tensión el brazo aislante que soporta la barquilla había descargado y una persona que estaba apoyada en el camión con el brazo extendido no había tenido suerte…

(5) Un centro de carga de 13.2 kV, 2 transformadores de 500 kVA, un tablero con interruptores del lado baja tensión, del lado alta tensión fusibles kerney, la alimentación desde la red publica con un cable, botella terminal en lo alto, un seccionador de cuernos, y barras donde se conectan los kerney.
Un transformador en servicio, el otro esta desconectado desde tiempos inmemoriales, había fallado, la historia cuenta que lo llevaron al fabricante para reparar, volvió, y se lo puso nuevamente en su sitio sin los fusibles, dejándolo desconectado.
Ahora es necesario ponerlo en servicio, Preparamos el trabajo, la tradición oral dice que el transformador fue reparado, decidimos abrir el seccionador (interrumpiendo todo el servicio) para poner los fusibles y luego dejar conectados los dos transformadores. Inspeccionamos el interruptor de baja en el tablero, esta limpio y se puede maniobrar lo dejamos abierto, y abrimos también el del otro interruptor.
Maniobrando el seccionador insertaremos en vacío los dos transformadores, luego con los interruptores de baja tensión los pondremos en carga. Nos preparamos a cerrar el seccionador, de maniobra manual, lo debemos cerrar con firmeza y seguridad, a pesar del ruido que podría producirse. Un momento!, siempre debe estar libre y despejada la vía de escape, cerramos las puertas del tablero para que el paso que lleva a la puerta del cerco quede despejado.
Nos explicamos una vez mas que se debe hacer… el operador actúa, cierra, explota un fusible, se produce un arco a tierra, se funden los otros, con fuerza el operador asegura el cierre superando el punto muerto… las explosiones se suceden, arco en el seccionador, arco en la botella terminal del cable, el tiempo parece se ha detenido, un segundo hasta que intervienen las protecciones del extremo del cable lado alimentación es eterno… toda el área queda sin luz.
Vuelve el silencio, mis piernas me vuelven a responder y comienzo a alejarme, encontrándome con el operador que había salido antes… ahora es tiempo de conversaciones, explicaciones, preguntas, respuestas…
Aparece la nueva historia, el transformador fue efectivamente a fabrica, pero no pudo ser descargado y el transporte lo trajo de vuelta, sin que se hiciera nada.
Un compañero nos informa que el aceite estaba negro, poniendo en evidencia que el transformador estaba mal, nosotros seguros de que estaba reparado ni miramos ese detalle.
Es mas ni probamos el transformador y su aceite, aun sabiendo que hacia tiempo no estaba en servicio y podía haberse humedecido… después, siempre los errores son evidentes.
Confianza y superficialidad por suerte en este caso solo trajeron consecuencias menores..

(6) Un recinto cercado, con puerta con cadena y candado, adentro equipos bajos con tensión de 33 kV, el trabajo a hacer es poner una cerradura eléctrica en el portón de ingreso, que cumple funciones de enclavamiento impidiendo la apertura si hay tensión.
Una vez colocada las operaciones serán, abrir el interruptor de alimentación de los equipos, cerrar el seccionador de puesta a tierra, esperar que el temporizador de el consenso (descarga de los capacitores) para poder finalmente abrir la puerta, solo después de que se haya cerrado la puerta se puede iniciar la reposición de tensión.
Las personas fueron a hacer el trabajo de poner la cerradura, como el trabajo se hacia lejos de partes bajo tensión se decidió dejar los equipos en tensión, se acepto que no era peligroso mantenerlos bajo tensión; y se quito el candado.
Había mal olor, entraron al recinto para ver el origen, se desplazaron pasando entre los equipos en tensión y el cerco, un espacio de aproximadamente 1 m, encontraron un gato muerto debajo de una de las cajas en tensión, y al regresar una de las personas paso muy cerca de los equipos en tensión…
El la base de hormigón del equipo quedo marcada la huella de la descarga que atravesó el zapato, el accidente fue fatal, me entere por un llamado telefónico y no podía entender lo ocurrido, creía que el accidente había sido mas allá de la cerca y no podía entender que hubiese habido una descarga de 1 m.
La descarga fue en cm, 30 kV / cm es lo que el aire soporta en campo uniforme, pero eso no significa que se este seguro con esa distancia.
Como es que sabiendo que los equipos estaban en tensión pasaron para curiosear? En el espacio reducido pasaron 3 personas, solo una paso muy cerca… las personas que trabajan durante el montaje frecuentemente tocan los equipos para ver si están firmes, controlan… esto no debe hacerse una vez entregadas las instalaciones y puestos los equipos en servicio, las operaciones de montaje se hacen con distintos cuidados que el mantenimiento, y este no es igual cuando hay tensión cerca…
Por que arriesgar si algo se puede hacer en condiciones seguras, máximo cuando ni siquiera afecta la producción… este accidente sugiere muchas preguntas.

(7) Otro hecho lamentable, inicia por una llamada telefónica, reunión, hubo un accidente fatal con la red de tierra, como puede ser? Hay que buscar la explicación.
Una persona manipulando los conductores de tierra, murió electrocutada, los conductores de tierra, de seguridad, como puede ser?
Se estaban haciendo pruebas, generador, red, UPS, equipos (electrónicos) como carga, la instalación aparentemente bien hecha cuatro conductores, fases, neutro, conductor de tierra verde y amarillo.
Las conexiones de tierra drenan las corrientes de los filtros del equipamiento electrónico (corriente débil que no es detectada por los interruptores diferenciales).
La tarea de la víctima era emprolijar la instalación de tierra, fue a deshacer la unión, atadura, para rehacerla mejor e interrumpió el camino de la corriente entre la tierra de la fuente y la tierra de las cargas, intercalándose en el circuito, tomo ambos conductores con las manos desnudas apretando sobre el metal desnudo para hacer fuerza y deshacer la conexión.
A 1 cm de distancia el conductor estaba aislado, los guantes, las pinzas de cortar, cuantas posibilidades para que no ocurriera nada, el compañero de trabajo estaba detrás de un tablero, observando otras cosas… cuando se percato de lo ocurrido ya era tarde.
La corriente drenada por la tierra era de miliampers, quizás al momento de la interrupción una sobretension, quizás la actuación de un descargador… lo que se debe considerar siempre es que los conductores de tierra sirven para drenar corriente y no se pueden interrumpir.

(8) Otra llamada telefónica, mi compañero de trabajo se disculpa que no puede venir a una reunión porque hubo un accidente, después te contare, me dice, y fin de la llamada.
Pasados unos días nos vemos, y le digo no me cuentes yo te contare un accidente, y cuento el de cuando yo era joven y el hombre paso de un lado a otro del transformador de plataforma tomándose de los aisladores de alta tensión.
Me contesta, parece que hubo algo de eso, el accidentado estaba preocupado por otras cosas, parecía tener problemas.
La tarea en un sótano era destapar un conducto de barras de 13.2 kV que no estaba bajo tensión para observar como realizar un cierto trabajo.
Dos compañeros de trabajo fueron al piso superior para controlar las condiciones de seguridad, asegurarse que el área de trabajo no estaba en tensión. El tercero se quedo abajo, tomo la llave y fue a destapar el conducto, quito los tornillos, la tapa, y luego quiso guardar los tornillos dentro del conducto (para que no se perdieran)
El ese momento volvían sus compañeros, un fogonazo, el accidente, gracias a Dios no fatal, el hombre había abierto equivocado otro conducto…

Carreteras solares, el futuro

El proyecto Solar Roadways, creado por Scott y Julie Brusaw demuestra las capacidades de la tecnología que han desarrollado, capaz de generar energía limpia, descongelar la nieve de los caminos, producir datos en tiempo reales, así como incentivar la generación de empleos y el reciclaje.

Menu del Calentamiento Global

Para generar conciencia sobre el calentamiento global, WWF Paraguay hizo un almuerzo inédito, cocinado sobre el asfalto.

Paraguay presenta el nivel de deforestación más alto de la región. Con temperaturas recientes que rompieron récords en los registros de los últimos 30 años en la ciudad de Asunción, la capital fue bautizada como una de las más calurosas del mundo.

Con el objetivo de que la gente ponga atención en uno de los temas más importantes de nuestro país: la deforestación y sus consecuencias, la Organización Mundial de Conservación — WWF – impulsó con el apoyo del Chef Rodolfo Angenscheidt la acción llamada \»Global Warming Menu\», que consistió en un almuerzo para invitados con un menú de alimentos cocinados con el calor del asfalto asunceno.

Termografía infrarroja

¿Sabías que el 90% de las fallas en los equipos están precedidas de ciertos signos o condiciones que indican que éstas se van producir?

La termografía infrarroja, es una técnica que permite medir una temperatura de superficie con precisión, identificando los componentes eléctricos y mecánicos más calientes de lo que deberían estar, o detectar pérdidas excesivas de calor: indicios de aislaciones deficientes o inadecuadas.

Beneficios de realizar este estudio:

1. Su empleo minimiza la probabilidad de paros imprevistos o no programados evitando pérdidas de producción.

2. Reduce costos, consigue ahorros en energía eléctrica, una protección adecuada de equipos valiosos, velocidad de inspección y diagnóstico.

 Si aún no ha llevado acabo este tipo de estudio con gusto nuestros asesores técnicos le visitarán y brindarán todo el soporte técnico que necesite.

¡Contáctenos!

Iluminacion Electrica

1 – CONCEPTOS BASICOS
La luminotecnia se ocupa de las aplicaciones de la luz artificial, para obtener niveles de iluminación adecuados a cada tipo de tarea visual que desarrolla el hombre.
Ejemplo: para dibujar son necesarios 50 Lux, para captar imágenes de televisión en blanco y negro 400-500 Lux, para televisión en color se requieren mas de 1000 Lux.
La luz es una radiación electromagnética de longitudes de onda comprendidas entre 0.4 y 0.8 micras.
La sensibilidad del ojo humano varía según la longitud de onda como se muestra en la figura 1.1, obsérvense la banda visible, y las zonas de radiación infrarroja y ultravioleta.
La máxima sensibilidad del ojo se presenta con longitud de onda 0.55 micras, que corresponde a la luz amarillo verdosa.
El significado de la sensibilidad para diferentes longitudes de onda se puede apreciar en la figura 1.2, para obtener en un plano cierta iluminancia es necesaria cierta potencia radiante.
Ejemplo: para lograr 1000 Lux es necesario 1 kW con longitud de onda de 0.55 pero son necesarios 10 kW con longitudes de onda de los extremos visibles 0.4 o 0.8.

2 – FUENTES LUMINOSAS
Las fuentes luminosas, llamadas lamparas, pueden ser de dos tipos, por su principio físico de funcionamiento: lamparas incandescentes o de descarga.
Las lamparas incandescentes emiten luz por radiación térmica, su espectro radiante es continuo, como muestra la figura 2.1, en el están contenidas todas las longitudes de onda.
Este es el espectro característico de cualquier cuerpo que emite radiación por calentamiento, y en particular las lamparas incandescentes.
Las lamparas de descarga emiten luz debido al fenómeno del arco eléctrico, siendo su espectro discontinuo, como puede verse en la figura 2.2.
La eficiencia de una lampara es la relación entre la potencia radiante luminosa (que se mide en Lúmenes – Lm) y la potencia que ingresa a la lampara.
La tabla I muestra la eficiencia de los distintos tipos de lamparas.

TABLA I – Eficiencia de distintos tipos de lamparas.

Lampara Eficiencia Tipo de espectro Coseno fi
 (Lm / W)
incandescente 21 Continuo 1
cuarzo iodo 23 Continuo 1
fluorescente 40-50 Discontinuo .5
vapor de mercurio 60 Discontinuo .5
mezcladoras 22 Mixto 1
vapor de sodio
de alta presión 80 Discontinuo .5
multivapor 90 Discontinuo .5
vapor de sodio
de baja presión 120 Discontinuo .5

Las lamparas de sodio de baja presión se caracterizan por su espectro extremadamente discontinuo (monocromático). Su alta eficiencia se debe a que emiten en la longitud de onda de máxima sensibilidad para el ojo humano (luz amarilla, lamda=0.55)
Estas lamparas son usadas para iluminación de exteriores, cuando no interesan los efectos cromáticos, por ejemplo en el cruce de rutas.
Las lamparas de descarga requieren una resistencia o reactancia serie para controlar la corriente.
La figura 2.3 muestra como influyen los elementos serie en la limitación de la corriente.
Se pueden identificar dos puntos de funcionamiento del arco, uno estable, y uno inestable, la explicación es simple si se piensa en corriente continua, observando las ecuaciones siguientes se justifican los puntos de funcionamiento.
U = Ur + Ua = R * Ia + Ua
La tensión Ua de arco es la tensión Ul de la lampara, análogamente Ia es Il, para la estabilidad del arco es necesaria la resistencia R, cuando la alimentación es en corriente alterna se utiliza una reactancia (que no tiene efecto Joule, y no pierde energía – salvo en su parte resistiva, y en el hierro de su núcleo).
Además se requiere el ignitor para que la lampara arranque, de manera que el proceso de arco eléctrico se inicia con un pulso en la lampara.
Otro dispositivo auxiliar es un capacitor para mejorar el factor de potencia del conjunto lampara reactancia que como se ha visto es sensiblemente bajo.

3 – DEFINICIONES Y UNIDADES
La fuente luminosa emite cierto flujo (potencia radiante luminosa).
Intensidad luminosa es la relación entre Flujo y ángulo sólido en el cual este flujo se emite.
La intensidad luminosa se mide en Candelas (Cd), el flujo como dicho en Lúmenes (Lm), y el ángulo sólido es adimensional, por analogía con el ángulo plano se da como relación entre la parte de superficie de la esfera limitada por el cono que define el ángulo sólido, y el radio de la esfera al cuadrado R^2.
I [Cd] = dF [Lm] / domega [-]
domega = dsuperficie / R^2
I = R^2 * dF / dsuperficie
Intensidad de iluminación o iluminancia es la relación flujo superficie, y se mide en Lux.
E [Lux] = dF / ds
I = E * R^2
La intensidad de iluminación en una superficie es inversamente proporcional a la distancia.
E / E1 = (R1 / R)^2
El patrón de intensidad luminosa Candela se define con una superficie de un cm^2 de platino fundido que se ha fijado en 60 Candelas.
Luminancia es la relación intensidad superficie luminosa que emite luz, y su unidad es el Nit.
L [Nit] = I [Cd] / S [m^2]
Una unidad todavía utilizada es el Stibb = Cd / cm^2 que tiene un valor mas practico, 1 Nit = 1/10000 Stibb.
El ojo humano admite 0.75 Stibb, para no sufrir efecto de encandilamiento.
Dada la iluminancia máxima es posible determinar la iluminancia en cualquier dirección, como indica la figura 3.3.
Si imaginamos todos los vectores intensidad (I) en todas las direcciones del espacio, la superficie lugar geométrico de los extremos de los vectores es llamada cuerpo fotometrico.
Curva fotometrica es la intersección del cuerpo fotometrico, con un plano que contenga la fuente.
4 – FORMAS DE EMISION
Fuente puntual es aquella cuyo cuerpo es una esfera, de radio I y la curva fotometrica es un circulo.
I = dF / domega
dF = I * domega
F = 4 * PI * I
Fuente real es cualquier fuente, esta constituida por el conjunto lampara artefacto (luminaria)
Desde el punto de vista fotometrico existen dos tipos de luminarias, simétricas y asimétricas.
Las luminarias simétricas tienen un cuerpo fotometrico de revolución alrededor de un eje de simetría, la generatriz del cuerpo fotometrico es la curva fotometrica, generalmente son utilizadas en iluminación de interiores (ver figura 4.1).
Las luminarias asimétricas se caracterizan porque su cuerpo fotometrico no es de revolución por lo que es necesario conocer las curvas fotometricas que se generan en distintos planos, estos artefactos se utilizan especialmente en iluminación de exteriores (ver figura 4.2).
Rendimiento de un artefacto es la relación entre el flujo del artefacto y el flujo de la lampara y esta generalmente comprendido entre 0.85 y 0.90.
El método gráfico analítico para determinar el flujo de un artefacto luminoso simétrico partiendo de su curva fotometrica es el método de Rousseau (ver figura 4.3).
La curva fotometrica es un diagrama polar, cada anillo esférico tiene una superficie que depende del ángulo, el flujo luminoso esta dado por:
dF = (Ialfa / R^2) * 2 * PI * R^2 * sin(alfa) * dalfa
dF = 2 * PI * Ialfa * (sin(alfa) * dalfa)
El flujo total se obtiene integrando entre alfa=0 y PI, en el eje vertical del diagrama de Rousseau se representan los trozos sin(alfa)*dalfa.
Se determina el valor de Ialfa que se lleva sobre el eje en el punto correspondiente a alfa.
Para cada valor de alfa se puede determinar el flujo del artefacto y trazar la curva que muestra como varia el flujo en función del ángulo alfa, y que tiene como asIntota el flujo total, si se representa el valor relativo respecto de la lampara el rendimiento.
Con algunas consideraciones adicionales el método de Rousseau es aplicable a los artefactos asimétricos.
Si encerramos el cuerpo fotometrico de un artefacto asimétrico en una esfera, y cortamos la misma con semiplanos meridianos, obtendremos para cada ángulo beta una curva fotometrica.
Puede suponerse que dentro de un cierto dbeta suficientemente pequeño no varían los valores de la curva fotometrica.
Consideramos entonces la curva constante en todo el dbeta, podemos calcular el flujo en ese intervalo (diedro) con la formula.
deltaF = 2 * PI * dbeta
Por lo tanto tendremos que el flujo total es:
F = sumatoria de uno a n (deltaF)
Si el artefacto tiene un plano de simetría se calcula la mitad y se multiplica por 2.
5 – INFORMACION FOTOMETRICA Y SISTEMA DE COORDENADAS

CONCEPTOS BASICOS DE LA LUMINOTECNIA
En este capitulo se realiza una presentacion de los conceptos relativos a la luminotecnia que seran utilizados durante el desarrollo del proyecto. (este escrito es parte de un desarrollo presentado como trabajo final por el exalumno hoy ingeniero Boscato)

1 ASPECTOS FISICOS DE LA LUZ

1.1 NATURALEZA DE LA LUZ
La luz es una manifestacion de la energia en forma de radiaciones electromagneticas, capaces de afectar al organo visual. Se denomina radiacion a la transmision de la energia en el espacio.

1.2 TRANSMISION DE LA LUZ
La luz se transmite a distancia a traves del espacio por medio de ondas. Se puede transmitir tanto en el vacio como a traves de algunos cuerpos solidos, liquidos y gaseosos. Las ondas luminosas se propagan en todas las direcciones y en linea recta.

1.3 CARACTERISTICAS DE LAS RADIACIONES LUMINOSAS
Al igual que las otras radiaciones electromagneticas, la radiacion luminosa presenta dos caracteristicas fundamentales. Estas son:
* La longitud de onda landa l
* La velocidad de propagacion v
Ambas estan relacionadas por la frecuencia f:
f[hertz] = l [nm] / v [km/seg]
nm = 1 nanometro = 1*10^-9 metros
La longitud de onda es la distancia existente entre dos ondas sucesivas. La frecuencia indica la cantidad de ondas que pasan por un punto fijo en un segundo . La velocidad de propagacion de las ondas electromagneticas en el vacio es de 300.000 km/seg. Cuando estas ondas atraviesan un medio natural, tal como el aire o el vidrio, cambian su velocidad y su longitud de onda. Esta modificacion la realizan manteniendo constante la frecuencia.
El conjunto de todas las radiaciones electromagneticas se conoce con el nombre de espectro electromagnetico (figura 1).
Se puede apreciar que las ondas visibles ocupan una pequena porcion del espectro. Los limites de las mismas no estan bien definidos y varian segun el individuo; el limite inferior se situa generalmente entre 380 y 400 nm y el superior esta entre 760 y 780 nm.
El espectro visible puede dividirse, de modo aproximado, en una serie de intervalos de longitudes de onda, segun la impresion de color que producen en el ojo humano:
380-436 nm violeta 436-495 nm azul 495-566 nm verde
566-589 nm amarillo 589-627 nm naranja 627-780 nm rojo
Todo este conjunto de radiaciones es el que compone la luz del dia, tambien llamada luz blanca.
La composicion de las fuentes luminosas se representa por medio de la \»curva de distribucion espectral\» que corresponde a cada una de las mismas, en la cual se indica como se distribuye la energia entre las diferentes radiaciones. Frecuentemente esta representacion se hace en valores relativos de energia respecto a la maxima radiada, que se toma como 100% (figuras 2 y 3).
A los espectros que no presentan interrupcion, como el de la luz del dia, se les llama continuos porque en ellos estan presentes todas las radiaciones visibles.

2 EL OJO HUMANO, ORGANO RECEPTOR DE LA LUZ

2.1 EL OJO HUMANO
El ojo (figura4) es el organo fisiologico mediante el cual se experimentan las sensaciones de luz y color. El recibe la energia luminosa y la transforma en energia nerviosa, que es conducida a traves del nervio optico hasta el cerebro.
La retina esta dotada de elementos foto-receptores, llamados conos y bastoncillos, que cumplen diferentes funciones. En ellos se produce la transformacion de energia luminosa en sensacion o energia nerviosa. Los primeros son muy sensibles a los colores y casi insensibles a la luz, mientras que los segundos son muy sensibles a la luz y casi insensibles a los colores.
En la vision a la luz del dia o con suficiente luz artificial clara (llamada vision fotopica) intervienen los bastoncillos y los conos, mientras que en la vision con luz nocturna o con muy poca luz (llamada vision escotopica) esencialmente los bastoncillos.
Cuando sobre nuestro cerebro actua un conjunto de estimulos espectrales diferentes, como puede ser la luz blanca del dia, aquel no distingue cada uno de los componentes por separado, sino que se produce una especie de efecto aditivo de los mismos que constituye el \»color de la luz\».

2.2 FORMACION DE IMAGENES
El campo visual del hombre esta limitado por un angulo de 130 en sentido vertical y unos 180 en sentido horizontal.
De los objetos iluminados o con luz propia situados en el campo visual parten rayos luminosos que atraviesan la cornea y el humor acuoso y llegan al cristalino, donde se refractan y van a la retina, en la cual se forma la imagen de estos objetos. Esta imagen se percibe invertida y mucho mas pequena que la natural, pasando mediante el nervio optico al cebro que se encarga de su interpretacion y de rectificar su posicion.

2.3 ADAPTACION
Es la capacidad que tiene el ojo de ajustarse automaticamente a los diferentes niveles de iluminancia. Este ajuste lo realiza la pupila en su movimiento de cierre y apertura.
El proceso de adaptacion total a la oscuridad despues de una exposicion a altas luminancias requiere en general cerca de una hora; en el caso contrario esta adaptacion se establece mucho mas rapidamente.

2.4 ACOMODACION
Es la facultad que posee el ojo para ajustarse automaticamente a las diferentes distancias de los objetos, y asi obtener imagenes nitidas. Este ajuste lo efectua variando la curvatura del cristalino y con ello la distancia focal por la contraccion o distension de los musculos ciliares.

2.5 AGUDEZA VISUAL
Es la capacidad que tiene el ojo de reconocer por separado, con nitidez y precision, objetos muy pequenos y proximos entre si. Depende del nivel de iluminancia.

2.6 VELOCIDAD DE PERCEPCION
Se puede definir como el valor reciproco del intervalo de tiempo que transcurre entre la aparicion de un objeto y la percepcion de su forma.
Depende del nivel de luminancia.

2.7 SENSIBILIDAD DEL OJO A LAS RADIACIONES LUMINOSAS
El ojo solo es sensible a las ondas electromagneticas que se encuetran dentro de los limites dados por el espectro visible.
Todas las fuentes luminosas tienen su propia radiacion o mezcla de ellas comprendidas dentro de dichos limites.
Si se hace llegar al ojo por separado cada una de las diferentes radiaciones que componen la luz blanca se observa que este las capta con distinta intensidad, debido a que la sensibilidad de los conos de la retina es diferente para cada color.
En la figura 5 esta representada la sensibilidad relativa del ojo humano para las distintas longitudes de onda de la luz del mediodia soleado, suponiendo a todas las radiaciones luminosas la misma energia. Los valores obtenidos representan la curva de Eficiencia Luminosa Espectral.
Estos valores fueron tabulados en intervalos de 10 nm.
El ojo tiene la mayor sensibilidad para una longitud de onda de 555 nm que corresponde al color amarillo-verdoso. Ello significa que una cantidad de energia en 555 nm produce mas sensacion visual que una misma cantidad de energia en cualquier otra longitud de onda.
Se puede apreciar en la figura 5 que en la vision escotopica, el maximo de sensibilidad se dezplaza hacia longitudes de onda menores.
De todo la dicho se desprende que para el ojo humano luz es la energia radiada en la zona visible, pero evaluada segun la curva de sensibilidad.

3 MAGNITUDES LUMINOSAS FUNDAMENTALES. UNIDADES Y MEDIDAS
En la tecnica de la iluminacion intervienen dos elementos basicos:
la fuente productora de luz y el objeto a iluminar.
Las magnitudes y unidades de medida fundamentalmente empleadas para valorar y comparar las cualidades y los efectos de las fuentes de luz son las siguientes:

3.1 FLUJO LUMINOSO
Se denomina flujo luminoso a la energia radiante por unidad de tiempo (potencia) que produce sensacion luminosa. Se representa por la letra y su unidad de medida es el lumen. Un lumen es el flujo luminoso de la radiacion monocromatica que se caracteriza por una longitud de onda de 555 nm y por un flujo de energia radiante de 1/683 lumenes. Es decir que para esta longitud de onda una potencia radiante de un 1 vatio equivale a 683 lumenes.

3.2 RENDIMIENTO LUMINOSO O COEFICIENTE DE EFICACIA LUMINOSA
El rendimiento luminoso de una fuente luz es la relacion entre el flujo emitido por ella y la potencia total que se le entrega para generarlo. Se expresa como:
n = Fi [lm] / W [w]
Teoricamente el mayor rendimiento que se podria obtener de una lampara si emitiese toda su luz en la radiacion de mayor sensibilidad seria 683 lm/w. En la practica este valor es muy inferior presentando diferencias notables entre las distintas lamparas.

3.3 CANTIDAD DE LUZ
La cantidad de luz es el flujo luminoso emitido por la fuente durante una unidad de tiempo. Se representa por la letra Q y es su unidad de medida el lumen-seg o lumen-hora.
Q = Fi * t
Tiene interes conocer a efectos de los calculos economicos la cantidad de luz que emite una lampara durante su vida util, de esta cantidad se descuenta la parte correspondiente a la perdida de flujo que se produce en el transcurso de dicha vida.

3.4 INTENSIDAD LUMINOSA
Una fuente de luz emite radiaciones en diferentes direcciones y esas radiaciones pueden ser o no uniformes en cada una de las mismas. El concepto de la magnitud de intensidad luminosa se entiende unicamente referido a una determinada direccion y contenida en un angulo solido.
El angulo solido limita una porcion de espacio. Si imaginamos una esfera de radio R y sobre ella una superficie S (figura 6) el angulo solido que subtiende dicha superficie es la porcion de espacio comprendida entre el centro de la esfera O y la superficie S. Su unidad de medida es el estereorradian (sr). Un esterreorradian es el angulo solido correspondiente a un casquete esferico cuya superficie es igual al cuadrado del radio de la esfera.
Angulo solido w [sr] = S [m] / R^2 [m^2]
La intensidad luminosa es (en una determinada direccion) el valor limite que toma la relacion del flujo luminoso Fi comprendido en el angulo solido w en el cual se observa esa emision, cuando Fi tiende a cero.
La intensidad luminosa se representa por la letra I siendo su unidad de medida la candela (cd).
I [cd] = limite (w tendiendo a 0) Fi [lm] / w [sr]
La nocion de limite es necesaria ya que estamos definiendo una cantidad en una direccion dada y es de suponer que esta sera diferente en las otras direcciones.
Para precisar esta caracteristica de la intensidad luminosa, se puede utilizar un sistemas de coordenadas esfericas con su centro en la fuente de modo tal que cada direccion de observacion quede determinada por una longitud y por una latitud , (ver figura 7). La intensidad luminosa entonces presenta caracteristicas vectoriales.

3.5 DISTRIBUCION LUMINOSA. CURVA FOTOMETRICA
La distribucion luminosa de un manantial de luz es el conjunto de la intensidad luminosa en todas las direcciones.Si se representa por medio de vectores la intensidad luminosa de un manantial en infinitas direcciones del espacio, se obtendra un cuerpo llamado \»solido fotometrico\», (figura 8). Haciendo pasar un plano tal como muestra la misma figura se obtiene una seccion limitada por una curva que se denomina curva de fotometrica o de distribucion luminosa.

3.6 ILUMINANCIA
La iluminancia o iluminacion de una superficie es la relacion entre el flujo luminoso que recibe la superficie y su extension. Se representa por la letra E y su unidad de medida es lux.
E [lux] = Fi [lm] / S [m^2]

3.7 LUMINANCIA
La luminancia (en una direccion, en un punto de la superficie de una fuente o de un receptor o en un punto sobre la trayectoria de un haz) se define como:
Cociente entre el flujo luminoso que abandona, alcanza o atraviesa un elemento de superficie en ese punto y que se propaga en las direcciones definidas por un cono elemental que contiene la direccion dada, y el producto del angulo solido del cono por el area de la proyeccion ortogonal del elemento de superficie sobre un planoperpendicular a la direccion dada. Se representa por la letra L y su unidad de medida es el nit, pero generalmente se utiliza la candela por metro cuadrado.
L [cd/m^2] = d Fi / (dA * cos Fi * dw)
La luminancia puede ser directa, en el caso de los manantiales luminosos, o indirecta, para los objetos iluminados.
La luminancia es lo que produce en el organo visual la sensacion de claridad, pues la luz no se hace visible hasta que es reflejada. La mayor o menor claridad con que vemos los objetos igualmente iluminados depende de su luminancia. La percepcion de la luz es realmente la percepcion de diferencias de luminancia.

4 LEYES FUNDAMENTALES DE LA LUMINOTECNIA

4.1 LEY DE LA INVERSA DEL CUADRADO DE LA DISTANCIA
Esta ley establece que para un mismo manantial luminoso, las iluminancias en diferentes superficies situadas normalmente a la direccion de la radiacion son directamente proporcionales a la intensidad luminosa del foco, e inversamente proporcionalesal cuadradado de la distancia que las separa. La misma se cumple cuando se trata de una fuente puntual, de superficies perpendiculares a la direccion del flujo luminoso y cuando la distancia es grande en relacion al tamno del foco. Para las luminarias se considera suficientemente exacta, si la distancia es por lo menos cinco veces la maxima dimension de la luminaria. Se expresa por la formula siguiente:
E = I / D^2

4.2 LEY DEL COSENO
Si la superficie no es normal a la direccion de los rayos luminosos, la ley anterior se cumple multiplicando la misma ecuacion por el coseno del angulo formado por la normal a la superficie y la direccion de los rayos incidentes. Esto se
expresa como:
E = I * cos @ / D^2
4.3 ILUMINANCIA NORMAL, HORIZONTAL Y VERTICAL
En la figura 9 el manantial F ilumina tres planos situados en posiciones normal, horizontal y vertical respecto al mismo. Cada uno de ellos tendra una iluminancia llamada
En = iluminancia normal
Eh = iluminancia horizontal
Ev = iluminancia vertical
El valor de cada una de ellas en el punto P se determina, aplicando las dos leyes vistas anteriormente, de la siguiente forma.
* iluminancia normal:
En = I / d^2 = I / h^2 * cos @
* iluminancia horizontal:
Eh = I / d^2 * cos @ = I / h^2 * (cos @)^3
* iluminancia vertical:
Ev = I / d^2 * sen @ = I / a^2 * (sen @)^3

5 REFLEXION, TRANSMISION, REFRACCION Y ABSORCION DE LA LUZ

5.1 REFLEXION
Reflexion es el retorno de la radiacion que incide en una superficie sin que se produzcan cambios de frecuencia en ninguno de los componentes monocromaticos que la integran.
En la reflexion de la luz interviene de manera decisiva la contitucion de la superficie reflectante, distinguiendose respecto de las mismas las siguientes clases se reflexion:
* Dirigida o especular:tiene lugar en superficies pulimentadas o extremadamente lisas. Esta regida por dos leyes fundamentales:
a- El rayo incidente, el rayo reflejado y la normal a la superficie en el punto de incidencia estan en un mismo plano.
b- El angulo de incidencia es igual al angulo de reflexion.
Las superficies capaces de reflejar especularmente se usan en luminotecnia como espejos, incorporandose en algunas luminarias.
* Difusa:tiene lugar en superficies rugosas o compuestas de particulas minusculas reflectantes. Las particulas actuan como reflector especular, pero como la superficie de cada una de ellas esta orientada segun planos diferentes, aparece luz reflejada con diferentes angulos.
* Mixta:se da en la mayor parte de los materiales y es una combinacion de las dos primeras.Puede ser semidirigida:producida por superficies rugosas y brillantes; o puede ser semidifusa:producida por superficies esmaltadas y blancas.

5.2 TRANSMISION
Se denomina transmision al paso de los rayos de luz a traves de un medio sin que se produzca ninguna alteracion de la frecuencia de sus componentes monocromaticos. En este fenomeno la direccion de los rayos luminosos cambia de direccion por refraccion al pasar oblicuamente de un medio a otro de distinta densidad.
Al igual que en la reflexion, la contistucion de los cuerpos determina las siguientes clases de transmision:
* Dirigida:se produce por los cuerpos transparentes.
* Difusa:se produce por los cuerpos translucidos muy densos.
* Mixta:se da como una mezcla de las dos primeras. Puede ser semidirigida: se produce por los cuerpos menos transparentes; o sedifusa:se produce por los cuerpos translucidos menos densos.

5.3 REFRACCION
Este fenomeno ya fue citado cuando se trato la transmision. El cambio de direccion se debe a una variacion en la velocidad de la luz. Esta disminuye si el nuevo medio es mas denso que el anterior y aumenta cuando lo es menos.
Dos leyes fundamentales gobiernan este fenomeno:
a- El rayo incidente, el rayo refractado y la normal a la superficie en el punto de incidencia estan en un mismo plano.
b- La razon del seno del angulo de incidencia al seno del angulo de refraccion es una constante que depende de los dos medios pertinentes y de la longitud de onda de la luz incidente. Esta ley es conocida como la ley de Snell y se expresa por:
n1 * sen = n2 * sen
siendo:
n1=indice de refraccion del primer medio respecto al aire.
n2=indice de refraccion del segundo medio respecto al aire.
=angulo de incidencia.
=angulo de refraccion.
La constante antes mencionada se llama indice de refraccion relativa de un medio a otro y se la designa por la letra u
u = n2 / n1

5.4 ABSORCION
En los fenomenos de reflexion y transmision de la luz, parte de la luz que incide sobre los cuerpos es absorbida en mayor o menor proporcion segun la constitucion de los materiales que los componen. Esto significa una perdida de energia luminosa.

5.5 FACTORES DE REFLEXION, TRANSMISION Y ABSORCION
Al iluminar un cuerpo, una parte de la luz que llega al mismo es reflejada por la superficie, otra parte se transmite atravesandolo, y una tercera parte es absorbida por el material que lo compone. Por lo tanto el flujo luminoso incidente o total se reparte de la siguiente forma;
Fii = flujo incidente
Fir = flujo reflejado
Fit = flujo transmitido
Fia = flujo absorbido
La razon de cada uno de los tres ultimos respecto al primero es designada como factor de reflexion, de transmision y de absorcion respectivamente.
6 EL COLOR
El color es una interpretacion psicofisiologica del espectro elecromagnetico visible.
El color no es una propiedad de los cuerpos. Estos solo tienen unas determinadas propiedades de reflejar, transmitir o absorber los colores de la luz que reciben.
La impresion del color de un cuerpo depende por lo tanto de la comsicion espectral de la luz con que se ilumina y de las propiedades que posea de reflejarla, transmitirla y absorberla.
Generalmente los colores que aparecen ante nuestra vista no son los que presenta el espectro visible, sino en cada caso uno de los infinitos colores que resultan de la mezcla de los distintos colores.

6.1 DIAGRAMA CROMATICO DEL CIE
El diagrama de cromaticidad o triangulo de color adoptado por la CIE permite la determinacion matematicamente exacta de cualquier color mediante dos coordenadas de cromaticidad (figura 10). Se usa al tratar el color de las fuentes de luz y materiales tales como pinturas, filtros luminosos, etc.

6.2 TEMPERATURA DE COLOR Tc Y TEMPERATURA DE COLOR SIMILAR Ts
En la practica, el color de luz de una fuente luminosa se da a conocer por su temperatura de color Tc expresada en grados Kelvin (K). La temperatura de color de una fuente de luz corresponde por comparacion a aquella con la que el cuerpo negro presenta el mismo color que la fuente analizada.El cuerpo negro es un radiador ideal que, teoricamente, radia toda la energia que recibe cambiando de color al variar su temperatura absoluta. La curva de temperatura de color del cuerponegro esta representada en la figura 6. Cuando el color de una fuente de luz no coincideexactamente con algun punto de la curva del cuerpo negro, se busca la temperatura de este ultimo mas parecida a la del color de la luz analizada. Esta temperatura es denominada temperatura de color similar Ts.

6.3 REPRODUCCION CROMATICA.INDICES GENERAL Rg Y ESPECIAL Re
El dato de temperatura de color similar se refiere unicamente al color de la luz pero no a su composicion espectral que resulta decisiva para la reproduccion de los colores.
El concepto de reproduccion cromatica de un fuente de luz esta definido como el aspecto cromatico que presentan los cuerpos iluminados con esta en comparacion con el que presenta bajo una luz de referencia.
Como luz de referencia se puede utilizar la del cuerpo negro o una luz dia homologada con la que, segun la definicion, se consigue una reproduccion cromatica ideal.
Segun la CIE las propiedades de reproduccion cromatica de las fuentes luminosas se determinan iluminando un color de muestra establecido con la luz de referencia y con la luz que se analiza. La evaluacion cuantitativa del desplazamiento de color que se produzcarepresenta el indice de reproduccion cromatica que puede alcanzar un valor maximo de 100 tomado para la luz de referencia. Este indice puede ser general Rg como promedio de desplamiento para un conjunto de ocho colorese muestra, o especial Re para un solo color de un conjunto de catorce colores.
Para determinar las propiedades cromaticas de una fuente de luz es necesario conocer el indice de reproduccion Rg y su temperatura de color similar Ts.

7 FACTORES QUE INFLUYEN EN LA VISION
En la percepcion visual de los objetos ifluyen los siguientes factores:

7.1 ILUMINACION
Laa capacidad visual depende de la iluminacion y esta afecta al estado de animo de las personas, a su aptitud para desarrollar un trabajo, a su poder de relajacion, etc. Cada actividad requiere una determinada iluminacion nominal que debe existir como valor medio en la zona que se desarrolla la misma. Este valor medio esta en funcion de una serie de factores entre los que se puede citar:
a- Tamano de los detalles a captar.
b- Distancia entre el ojo y el objeto observado.
c- Factor de reflexion del objeto observado.
d- Contraste entre los detalles del objeto y el fondo sobre el que se destaca.
e- Tiempo empleado en la observacion.
f- Rapidez de movimiento del objeto.

7.2 CONTRASTE
Como ya se menciono el ojo solo aprecia diferencias de luminancias.
La diferencia de luminancia entre el objeto que se observa y su espacio inmediato es lo que se conoce con el nombre de contraste.
El contraste de color puede describirse especficando los colores implicados segun un sistema de colores adecuados.
Las mejores condiciones visuales se consiguen cuando el contraste de luminancias entre el objeto visual y las superficies circundantes se mantiene dentro de unos limites determinados. La relacion de luminancias en el campo visual no debe ser menor de 1:3, ni mayor de 3:1.

7.3 SOMBRAS
Las sombras son el resultado de una diferencia de luminancia respecto a zonas mas iluminadas
El tener dos ojos nos posibilita ver los objetos en relieve, es decir unos mas cerca que otros. Ello es debido a que en cada ojo se forma una imagen ligeramente distinta que al juntarse en el cerebro dan la sensacion de relieve. Para poder captar el relieve de los objetos es preciso que los mismos presenten unas zonas menos iluminadas que otras.Estas zonas menos iluminadas son las sombras, las cuales destacan las formas plasticas de los objetos.

7.4 DESLUMBRAMIENTO
El deslumbramiento es un fenomeno de la vision que produce molestia y/o disminucion en la capacidad para distinguir objetos. Es debido a una inadecuada distribucion o escalonamiento de luminancias o como cosecuencia de contrastes excesivos en el espacio o en el tiempo.
Este fenomeno actua sobre la retina del ojo en la cual produce una energica reaccion fotoquimica, insensibilizandola durante algun tiempo, transcurrido el cual vuelve a recuperarse. Los efectos que ocaciona pueden ser de tipo fisiologico (perturbador) o de tipo psicologico (molesto).
Los principales factores que intervienen en el desluumbramiento son:
a- La iluminancia de la fuente de luz o de las superficies iluminadas.
b- Las dimensiones de la fuente de luz e funcion del angulo subtendido por el ojo a partir de los 45 con respecto a la vertical.
c- La situacion de la fuente de luz.
d- El contraste entre la luminancia de la fuente de luz y la de sus alrededores.
e- El tiempo de exposicion.

Pertubaciones en Redes

CALIDAD DE SERVICIO ELECTRICO – INTRODUCCION

El concepto de calidad del servicio eléctrico tiene relación con:

interrupciones de la continuidad del servicio.
alteraciones de la forma de onda de la tensión.
variaciones de la amplitud de la tensión en el tiempo.
Podemos entonces identificar subconjuntos de disturbios que hacen a la calidad del servicio eléctrico:

continuidad del servicio.
calidad de la tensión.
Existen variaciones de tensión lentas ligadas al régimen de las cargas de la red y a la regulación, que mientras se mantienen en una banda, suficientemente estrecha, no son consideradas.

Entre generación y carga (usuario) la tensión sufre modificaciones relativamente permanentes (armónicas, fluctuaciones rápidas) y otras ocasionales (superposición con señales espurios, manifestación de picos o escalones transitorios).

Estas alteraciones se indican con el termino disturbios, incluyendo a veces también interrupciones de breve duración. Actualmente se ha hecho necesario reexaminar en profundidad la generación y la programación de los disturbios en las redes eléctricas, y sus efectos en los aparatos utilizadores, para poder definir una apropiada estrategia de actuación.

Dicha estrategia debe implicar a todas las partes en causa, es decir:- los distribuidores de energía eléctrica.- los constructores. – los proyectistas de instalaciones eléctricas en todos los niveles de tensión.- los usuarios.

Esto porque responsabilidad y costo de contención de los disturbios puedan ser repartidos con equidad y la acción resulte eficaz.

COMPATIBILIDAD ELECTROMAGNETICA

La definición de la estrategia de contención de los disturbios inicio desde que la alimentación eléctrica se afirmo como servicio generalizado, esencialmente bajo forma de criterios de conexión de cargas particulares, cuya tipología se ha ido progresivamente ampliando.

Las normas nacionales (de los países lideres en estos campos y que fijan criterios validos para ellos) y las internacionales han seguido la evolución de esta praxis con cierto retardo. Actualmente las normas internacionales están encarando el encuadre en forma coherente para todos los disturbios, y se esta procediendo de la siguiente forma:

definición de ambientes típicos, indicando para cada tipo de disturbio un nivel de compatibilidad entendida como nivel de referencia que tiene cierta probabilidad de ser superado (redes publicas, redes industriales, instalaciones de edificios civiles).
fijar limites de emisión, es decir los niveles máximos de disturbios que un aparato utilizador puede generar o inyectar en el sistema de alimentación.
introducir el concepto de inmunidad, que indica el máximo nivel de disturbio que un aparato debe poder soportar sin inconvenientes (traduciendo esta expresión genérica en términos precisos para cada tipo de aparato).
La diferencia entre los niveles de inmunidad (aparato) y compatibilidad (ambiente) constituye el margen de inmunidad, o bien el factor de seguridad que el proyectista asume al coordinar las características de tolerancia a los disturbios de los aparatos que componen la instalación, con los niveles de disturbio esperados en la instalación misma.

Los niveles de disturbio ambientales son determinados también por los aparatos que forman parte de la instalación. Los niveles de compatibilidad no siempre presentan el mismo significado para baja, media y alta tensión; mientras que para la baja tensión están siempre ligados al nivel de inmunidad de los aparatos, en media y alta muy a menudo tienen un significado de coordinación entre las distintas partes del sistema.

Por otra parte como la emisión del disturbio y la susceptibilidad de los aparatos varían en tiempo y lugar, el concepto de compatibilidad electromagnética es de naturaleza estadística.

Además, los valores de compatibilidad que indican las normas actualmente deben entenderse como valores convencionales de referencia definidos con el objetivo de asegurar una realista y económica coordinación entre aparatos emisores y susceptibles (sensibles). La asignación a los usuarios singulares del máximo nivel de emisión de disturbio ser derivado de una apropiada repartición del disturbio global basado sobre un criterio de equidad en relación a los usuarios alimentados por el sistema eléctrico, y sobre una optimización de los recursos a nivel de expansión y gestión del sistema mismo.

Dicha repartición deberá tener en cuenta:

evolución esperada del sistema de distribución.
potencia empleada por el simple usuario en relación a la capacidad de alimentación del sistema eléctrico.
coeficientes de transferencia del disturbio entre distintos puntos del mismo nivel de tensión y entre distintos niveles de tensión del sistema.
leyes de composición del disturbio total a partir de las emisiones singulares de cada aparato (magnitudes vectoriales, variables casuales, etc.).
A niveles nacionales e internacionales no existen indicaciones exhaustivas relativas a la repartición de los disturbios (de tipo conducido) entre distintos emisores, alimentados desde el sistema eléctrico.

EL FLICKER (Parpadeo)

Es un disturbio en la amplitud de la tensión, es de tipo conducido, no simétrico (distinto en cada fase), cuya principal consecuencia es la variación del brillo de las lamparas incandescentes, que causa molestia visual, y que permaneciendo produce cansancio.

Se lo considera una sensación subjetiva visual del individuo sometido a fluctuaciones de la intensidad de la iluminación. La intensidad luminosa varia con un factor 3.4 a 3.8 veces la variación de la tensión.

El flicker se trata de caracterizar en modo objetivo, a través de un instrumento que realice el modelo de percepción visual de un observador medio, suficientemente representativo.

Para obtener este resultado se han desarrollado experimentalmente curvas que relacionan, para determinado tipo de fluctuación de tensión (sensorial, rectangular) la amplitud para la cual el flicker generado se hace perceptible, y la frecuencia correspondiente.

También se ha debido definir la lampara incandescente que ilumina. Además se han debido conducir investigaciones de la visión humana, como para poder especificar el modelo completo, que partiendo de las fluctuaciones de tensión simula mediante circuitos electrónicos la percepción visual del flicker.

El instrumento de medición ha sido propuesto y puesto a punto por la Unión Internacional de Electrotermia y es objeto de la publicación 868 del IEC, que define sus características funcionales y constructivas.

La medición del flicker dada como sensación instantánea se expresa en por unidad entendiéndose igual a 1 la salida que el instrumento produce cuando su entrada es el umbral de perceptibilidad. El nivel de flicker por lo tanto es un numero que indica cuanto por arriba del umbral de perceptibilidad se presenta la sensación visual correspondiente.

En general las fluctuaciones de tensión generadas por cargas causa de disturbios, tienen características variables en el tiempo y es necesario fijar un periodo de observación considerado significativo y evaluar en modo estadístico la variación de la sensación instantánea en el mismo periodo.

FLICKER DE BREVE TERMINO – Pst

El lapso debe ser suficientemente largo para permitir que un observador perciba el flicker, advirtiendo su persistencia, y para poder caracterizar el comportamiento de aparatos generadores de disturbio con ciclo de funcionamiento prolongado.

Se ha elegido un lapso base de 10 minutos que es el mismo utilizado en la publicación IEC-555-3 y la evaluación del flicker efectuada en este lapso es llamado short-term (breve periodo-termino). Como la intensidad de sensación provocada por el flicker no depende solo de su nivel, sino también de su persistencia, se hace referencia a la curva de frecuencias acumuladas, que indica el porcentaje de tiempo de observación en el cual el nivel de flicker ha superado un valor asignado.

Esta curva sirve como base para obtener el parámetro severidad del flicker, indicado con el símbolo Pst. En este punto es necesario relacionar el valor de severidad del flicker con una curva limite para las fluctuaciones de tensión, mas allá de la cual ellas deben considerarse intolerables.

En el estado actual existe en sede de normalización la curva de la publicación IEC 555-3 valida para fluctuaciones de tensión de forma rectangular. Las curvas de perceptibilidad indican que el 50 % de los sujetos sometidos a experimentos advierten como perceptible el nivel de flicker correspondiente a tales curvas.

La curva limite de tolerabilidad implica que los sujetos sometidos a experimentos (con niveles de flicker superiores a la perceptibilidad) indican que el disturbio es tan fastidioso de ser insoportable por aproximadamente el 80% de los interesados. Debe precisarse que la curva IEC 555-3 en la parte constante a izquierda no responde mas a la severidad del flicker, pero la exigencia de limitar el valor máximo de la caída de tensión.

Dada la curva de probabilidad acumulada que caracteriza una manifestación de flicker, la severidad del disturbio es calculada mediante la formula:

Pst = raíz (sumatoria Ki * Pi)donde Pi son los porcentiles de distribución acumulada correspondientes a los porcentajes 0.1, 1, 2, 10, 50 % y los coeficientes Ki han sido determinados en modo de obtener prácticamente Pst = 1 para todos los puntos limites de la curva IEC 555-3, salvo para la parte horizontal a izquierda (la curva de severidad Pst = 1 resulta en efecto muy próxima a la curva IEC 555-3).

La metodología para la elección de los procentiles y los valores de los coeficientes Ki son indicados en las referencias: (1) UIE Internacional Unión for Electroheat WG Disturbances-Flicker Measurement and Evaluation – C.Pierre – WG Chairman 1986. (2) IEC publication 868 – flickermeter, functional and design specifications-1986.(3) IEC publication 555-3 Disturbances in supply systems caused by household applicances and similar electrical equipament Part 3 Voltage fluctuations 1982. En los casos en los que el funcionamiento del aparato generador de disturbio sea persistente y regular y la fluctuación de tensión producida puede ser reconducida a un tipo rectangular a frecuencia constante, su amplitud puede ser directamente comparada con aquella limite suministrada por la curva Pst = 1 para la frecuencia considerada.

FLICKER DE LARGO TERMINO – Plt

Hay aparatos generadores de disturbio que tienen un ciclo de funcionamiento prolongado, para los cuales la evaluación de la severidad del flicker de breve termino no es suficiente (por ejemplo: hornos de arco). Para estos casos es necesario definir una metodología de evaluación del flicker de largo termino, y es posible adoptar una técnica de elaboración estadística de los datos perfectamente análoga a aquella utilizada para determinar el Pst, en modo de caracterizar el fenómeno con un solo parámetro índice de la severidad.

Aun así ha parecido mas practico subdividir el periodo de observación en muchos lapsos de 10 minutos y obtener para cada uno de ellos el Pst correspondientes. Obtenida así una serie de valores de Pst se podría construir una curva de duración (probabilidades acumuladas) y caracterizarla a través de percentiles oportunamente elegidos, pero se ha preferido utilizar un método de media que ha demostrado producir buenos resultados.

Plt = raíz cubica ((sumatoria Psti 3)/N) donde Plt indica el nivel de severidad del flicker en el largo periodo (long-term).

Las ventajas del método son que se mantiene el contenido de información de los Pst singulares, a lo largo de todo el ciclo de funcionamiento del aparato o instalación en examen, y se reducen mucho las necesidades de memoria de un eventual bloque de elaboración estadística, que puede ser incluido en el flickerimetro en modo de obtener directamente en línea la evaluación de la severidad.

Teniendo en cuenta el ciclo medio de operación de las distintas cargas que producen disturbios un tiempo de observación de 2 horas parece razonable para la evaluación del flicker de largo termino.

NIVELES DE COMPATIBILIDAD CORRESPONDIENTES AL FLICKER.

Los niveles a continuación indicados se refieren a la red publica de distribución y a las redes a ella asimilables.

El actual estado del arte en la materia no da todavía indicaciones precisas, pero se limita a fijar criterios . Ver por ejemplo: (4) UIE International Unión for Electroheat WG Disturbances – Connection of fluctuacting loods 1988.

La definición de los niveles de compatibilidad debería tener en cuenta:

que el flicker emitido en un nivel de tensión se transfiere prácticamente por entero sobre los niveles de tensión inferiores; de los niveles inferiores a los superiores prácticamente no existe transferencia.
la ley de composición del flicker corresponde con una, ley general que puede hipotizarse.
la emisión global de disturbio de flicker en un nivel de tensión es función de la carga suministrada directamente en tal nivel, y de su porcentaje de carga generadora de disturbios.
el nivel de compatibilidad del flicker de breve termino sobre la baja tensión vale Pst = 1 pu por que para el flicker prácticamente no existe un margen entre nivel de inmunidad y de compatibilidad, tal valor de Pst = 1 pu debe ser entendido como un valor que tiene una baja probabilidad de ser superado (por ejemplo 1%, 0.5%, 0.1%).
la experiencia hasta ahora adquirida parece indicar una estrecha correlación entre los niveles de flicker de largo termino Plt y numero de reclamos de usuarios afectados por el flicker.
EVALUACION ANALITICA DEL FLICKER

La evaluación del flicker en casos relativamente simples (variaciones de tensión no frecuentes, formas de variaciones de tipo rectangular o sinusoidal cíclicas, etc.) puede ser hecha con formulas simples y buena precisión.

Para casos complejos es en cambio necesario recurrir a meto dos de simulación digital o a medidas directas con el flickerimetro. La metodología a seguir para la evaluación analítica del flicker es la siguiente: – calculo de la caída de tensión en función del tiempo durante una variación de tensión singular.- calculo de la emisión de flicker para variaciones de tensión singulares. – composición de las distintas emisiones de flicker calculadas.

El calculo de las caídas de tensión puede ser efectuado en modo simplificado como indicado en ejemplos de la bibliografía.

LEY DE COMPOSICION DEL FLICKER

El nivel de severidad de flicker evaluado en un punto cual quiera del sistema de distribución es naturalmente dependiente del grado de emisión de todas las fuentes de disturbio que presentan un efecto apreciable en tal punto. Una evaluación segura de la severidad global del flicker, en el estado actual de la técnica solo puede obtenerse a través de mediciones directas in situ.

De todos modos para disturbios particulares y a los fines de suministrar indicaciones de máxima para su evaluación simplificada, se puede recurrir a la siguiente formula:

Pst = (sumatoria(Psti m)) (1/m)

donde Pst = nivel global de la severidad de flicker en puPsti = nivel de severidad de flicker originado por la emisión singular i en p.u. m = coeficiente, que depende de las características de los principales emisores de disturbio variable entre 1 y 4.

Un valor apropiado del coeficiente m que satisfaga las varias condiciones de emisión que se encuentran en la realidad, podrá ser determinado solo después de la adquisición de experiencias de medición en campo con el nuevo fleckerimetro UIE.

Para algunos casos particulares se tiene:

m = 1 en presencia de variaciones de tensión coincidentes en forma y sincrónicas.
m = 3.2 para variaciones simples espaciadas en un lapso comprendido entre 1 y 300 segundos.
m = 2 para variaciones de tensión complejas con alguna pobabilidad de coincidencia.
m = 3 cuando hay baja probabilidad de coincidencia.
m = 4 para variaciones de tensión estocasticas provocadas por mas hornos de arco operados en modo de evitar la fusión contemporánea.
A la espera de adquirir experiencia con el nuevo fleckerimetro UIE, a nivel general se puede adoptar m = 3.

Calidad del servicio

La calidad técnica del servicio puede ser relacionada con la forma teórica de la tensión, comparándola con las condiciones practicas de suministro, y con la capacidad de los usuarios de soportar los disturbios que se presentan.

La forma teórica de las magnitudes alternas es: A sen(wt)

Los disturbios que se presentan pueden ser debidos a distintos orígenes y tienen distintas consecuencias; pueden relacionarse con distintas características de la función temporal que describe el fenómeno:

Intentemos una clasificación ligada a la forma, deformación

Amplitud Interrupciones Largas
Breves
Variaciones (caídas) Esporádicas
Frecuentes Periodo largo
Periodo breve
Ciclos de trabajo
Flicker (Parpadeo)
Forma Armónicas Simétricas
Asimétricas Transitorios Breves
Rápidos
Frecuencia  

 

Cada tipo de disturbio se puede analizar por su causa (carga o fuente o ambas), su efecto (apreciable o no, visible o no) y corrección (posible, previsible, ligada a características del sistema).

DEFORMACIONES DE LA TENSION EN LAS INSTALACIONES ELECTRICAS

El texto que sigue esta basado en una charla dada por los ingenieros A. Rifaldi y M. Pellegrino en la Facultad Regional Buenos Aires de la Universidad Tecnológica Nacional en Octubre 1989

1 – INTRODUCCION

El funcionamiento de los sistemas eléctricos, se estudia en principio con hipótesis simplificativas importantes, que para la mayoría de los problemas, especialmente prácticos, son aceptables, pero en algunos casos es necesario profundizar mas en los estudios, quizás justificando mejor la adopción de las simplificaciones, o bien siendo mas riguroso en el análisis.

Decimos en general que:

La frecuencia es constante, o que sus variaciones son despreciables.

La amplitud de la tensión es constante, al menos en los periodos relativamente cortos en que se desarrollan los fenómenos analizados.

La forma de la onda de tensión es sinusoidal, sin deformaciones que le hagan perder su apariencia característica.

Las tensiones de fase o de línea son iguales, y desfasadas de manera de que generalmente se afirma que el sistema es simétrico.

Nos dedicaremos a continuación a analizar estas hipótesis y observaremos los casos en que se presentan condiciones que las ponen en duda, trataremos de encontrar algunas causas de estas condiciones, observaremos algunos casos particulares.

También haremos hincapié en la importancia de que se presenten estas excepciones a las hipótesis ideales generalmente aceptadas.

En rigor el objetivo de esta charla, dedicada a alumnos y colegas, es desafiarnos a profundizar estudios que es indispensable encarar frente al avance de la tecnología, frente a la contaminación (en el caso nuestro de las redes eléctricas), frente a la escasez de recursos materiales.

2 – LA CALIDAD DE LA TENSION

La tensión alterna sigue una ley:

e = Emax * seno(2 * PI * f * t + PSI)

La frecuencia idealmente es rigurosamente constante, en rigor no es así, pero como las instalaciones de consumo reciben energía con la frecuencia que les imponen las instalaciones de generación no nos ocuparemos de este problema.

Un gran esfuerzo a nivel de generación se hace para mantener constante este parámetro, y su importancia esta dada por el hecho de que gran parte de la carga alimentada esta formada por motores asincronicos, cuya velocidad de trabajo esta relacionada con la frecuencia, si la frecuencia baja la consecuencia se presenta inmediatamente en el producto, y todavía estamos en una era donde lo material que producimos, bombeamos, transportamos, mezclamos, golpeamos mide nuestra eficiencia.

3 – LA AMPLITUD

Dejemos de todos modos el tema de la frecuencia, y vamos a examinar la amplitud, podemos examinar el valor Emax, pero los instrumentos de medición que todavía utilizamos, instrumentos electromagnéticos, nos indican con la desviación de una aguja el valor eficaz:

E = Emax / Raíz(2)

Observamos un registro de tensión (lento, legible, de algunos minutos de duración), el valor eficaz registrado cambia, el comportamiento de la carga depende de la amplitud de la tensión, nos interesa que las cargas estén alimentadas a tensión constante, los que proyectamos instalaciones hacemos esfuerzos en ese sentido.

Supongamos que alimentamos una única carga con una red eléctrica, para analizar el problema construimos un generador de Thevenin equivalente, fuente de tensión ideal, e impedancia serie, cuando la corriente que nuestra carga absorbe cambia, la tensión en bornes de la carga refleja de alguna manera las variaciones de corriente.

El primer culpable de la variación de tensión es la misma carga, claro que esto se puede corregir, variando la tensión de la fuente con la carga, nuestro generador de Thevenin deberá generar a tensión variable, inclusive su impedancia interna deberá variar, \»adaptarse\» a la carga.

Para esto introducimos un sistema de regulación que debe detectar una diferencia para corregirla, comienzan así a aparecer nuevas variaciones de tensión que ahora son causadas por la acción del regulador, frecuencia de disturbios y de acciones correctivas pueden generar un nuevo tema de estudio…

Pero el modelo hecho no puede ser tan simple, quizás tengamos una carga preponderante, y nos preocupa analizar como se comporta una pequeña carga, dentro del Thevenin equivalente ahora tenemos la carga preponderante que caprichosamente nos varia la tensión y la impedancia, nuestra carga pequeña es víctima de esta situación.

Aparece así el concepto de calidad de la tensión y su interferencia con el proyecto de la instalación eléctrica.

Primero y seriamente (y decimos esto porque a veces los usuarios quieren tensión absurdamente constante) debemos evaluar las consecuencias de las variaciones de tensión, clasificar de alguna manera las cargas por su sensibilidad a estos disturbios y luego compararemos dos proyectos de instalación eléctrica calificándolos por la constancia de la tensión en cada usuario, un proyecto será mejor o peor que otro según sea el valor de este calificador.

Si examinamos las tolerancias que tienen distintos aparatos, que deberán ser alimentados por la instalación, observaremos las distintas magnitudes (+/- 5%, +/- 10%, +5 -10 %) de las variaciones de tensión admisibles que dependen del origen de los equipos, de la tecnología, etc…

De alguna manera equipos mas insensibles a las variaciones pensamos serán mas costosos que los mas sensibles, y estos últimos exigirán una instalación mas costosa… aquí hay tema para profundizar notablemente.

Surge natural la idea de separar la alimentación de distintos equipos por su sensibilidad a los disturbios presentes en la red, es así que en muchas instalaciones observamos una neta separación de la alimentación de las cargas de producción (motores), de la instrumentación (computadoras, electrónica… ), de la iluminación, el costo de la instalación varia, pero cambian sus características de nobleza y aprovechamiento y estas merecen una evaluación económica que no puede desconocerse, y que depende mucho del sitio en donde esta la instalación.

Otro concepto muy importante que debe tenerse en cuenta es que un equipo que produce disturbios en la red eléctrica al menos no debe ser sensible a esos disturbios, de lo contrario no funcionara eficientemente, pero cual es el equilibrio justo…?

Observemos variaciones de tensión que se producen en un sistema eléctrico por efecto de una carga importante que varia cíclicamente, se trata de un laminador cuya carga pasa por ejemplo de 1 a 4, en la impedancia del Thevenin equivalente la variación de la caída se reflejara en una variación de tensión.

DV1 = R * P1 + X * Q1

DV2 = R * P2 + X * Q2

DDV = DV1 – DV2 = R * (P1-P2) + X * (Q1-Q2) = R * DP + X * DQ

La relación entre R y X del Thevenin, y la relación entre DP y DQ de la carga son los elementos que regulan las variaciones rápidas de tensión, generalmente X es mucho mayor que R, por otra parte, las cargas tienen una componente reactiva

Q relativamente importante, tanto en magnitud como en variación.

En lugar de hacer regulación de tensión se puede intentar regulación de potencia reactiva de manera que el conjunto carga, regulador de potencia reactiva sea visto desde la fuente como una carga solo activa lográndose minimizar DQ.

Se puede pensar en un regulador independiente de la carga, pero quizás también se pueda pensar que ya en el proyecto de la carga (maquina de producción), desde su sistema de control se inicien las acciones correctivas de los efectos indexados que la variación de la carga produce.

Esta idea aumenta el costo del dispositivo que integra la carga, pero permite prescindir de un dispositivo externo de corrección, lógicamente la idea es valida cuando al inicio del proyecto se encara el problema como una unidad, si no se hace así el dispositivo de corrección será independiente de la carga, pudiendo flexibilizar su uso, por ejemplo ocupándose de compensar mas cargas.

Otras cargas cuya variación produce efectos similares también muy molestos son los hornos eléctricos, estos han ido aumentando su tamaño y la velocidad de su ciclo, es decir en menos tiempo hacen su tarea, por lo que la potencia en juego ha aumentado aun mas que su aumento de tamaño físico, en consecuencia los efectos ligados a la potencia, variación de carga, son mas notables.

En estas cargas las variaciones son prácticamente aleatorias, se puede estimar la amplitud de las variaciones probables a medida que el ciclo se desarrolla, según con que producto (chatarra, pellets) se trabaje, pero en el momento en que ocurren desmoronamientos en el horno, se producen cortocircuitos, y varia la carga (activa y mas aun la reactiva) de manera que no es posible de prever, para reducir las variaciones de tensión tenemos las mismas posibilidades antes citadas.

Al analizar las variaciones de carga, y de tensión que presentan instalaciones de este tipo, se observa la presencia de variaciones de amplitud cuya frecuencia esta en el orden de los 10 Hz (armónica 0.2, subarmonica digamos…).

La variación de amplitud de la tensión es causa de la variación de flujo luminoso de las lamparas, y variaciones del orden del 0.5 a 1.0 % en la tensión de frecuencia alrededor de 10 Hz son muy molestas para quienes realizan actividades donde la concentración visual es importante.

Este es el fenómeno llamado \»flicker\» (parpadeo), que también se observa a consecuencia del funcionamiento de bombas o compresores alternativos cuando se presentan ciertas relaciones entre los parámetros de red y carga.

Por otra parte es fácil comprender que es muy dificultoso corregir estos efectos, la forma natural de lograrlo es menor impedancia de Thevenin, digamos en otras palabras menor impedancia mutua entre la fuente de disturbio y la carga sensible, su alejamiento mutuo.

La otra forma es lograr compensar las variaciones de reactivo que se presentan en el momento en que se producen, esto tiene limites físicos, no es posible adivinar que ocurrirá en un proceso aleatorio, cada instante permite calcular la corrección que debería hacerse en el instante sucesivo si todo sucediera como el dispositivo de corrección prevé.

Los equipos que realizan estas acciones son llamados compensadores estáticos de potencia reactiva (y evidentemente de estáticos solo tienen el nombre, es cierto que no son rotantes… ),su sistema de control sigue la dinámica de los fenómenos ciclo a ciclo.

4 – LAS ARMONICAS

Cuando se inicia el examen de la tensión por periodos breves, del orden del segundo y sus fracciones, la observación se hace no ya con instrumentos tradicionales, necesitamos observar ciclo por ciclo, y utilizamos el oscilografo, el osciloscopio.

Comenzamos a ver la onda de tensión en detalle, y aparecen irregularidades, el análisis de Fourier nos muestra la presencia de armónicas, nuestra onda de tensión esta formada por una fundamental y armónicas.

Mientras las armónicas son despreciables la onda es sinusoidal, pero esta afirmación muchas veces no es valida, examinemos la corriente absorbida por un rectificador, una lampara de descarga, el laminador antes citado, el horno eléctrico de arco, los dispositivos que ponemos para compensar las variaciones de tensión, la tensión generada por los generadores, la corriente absorbida por motores …

En algunos casos el circuito, la instalación eléctrica, por sus propias características de diseño exalta armónicas, la circulación de corrientes armónicas produce caídas de tensión armónicas que a su vez causan mas corriente armónica, y además pueden presentarse resonancias entre circuitos que tienen frecuencias naturales armónicas.

Cuanto es deforme una onda que incluye armónicas?, observemos por ejemplo una armónica de cierto orden y magnitud superpuesta a la fundamental, y observemos luego un aumento del orden, en general puede afirmarse que las armónicas de mayor orden llegan a tener efectos mas lejos, pero las de menor orden producen mayores inconvenientes mas cerca, así es que una armónica 5 se juzga mas tolerable que una 11.

Al estudiar los rectificadores observamos que \»generan\» armónicas 5, 7, 11, 13, … laterales de 6, 12, … esto es teórico, y valido.

Los transformadores que se tienen en las instalaciones, generalmente conectados Dy son un camino cerrado para las armónicas 3, 9, … y entonces deberían eliminarlas, impedirlas y también esto es teórico y valido.

Observemos el funcionamiento de una instalación real, captemos la onda de tensión, y hagamos el análisis armónico, observamos la presencia de armónicas 2, 3, 4, 5, … algunas netamente preponderantes, otras pequeñas pero no despreciables, pero como es que la tercera aparece, evidentemente en este caso no es homopolar, si pensamos en un generador de armónica conectado fase fase, la armónica inyectada (como una corriente de cortocircuito) no será filtrada (cortocircuitada) por el transformador Dy y se propaga por el camino de menor impedancia que encuentra hacia la fuente …

Lógicamente como estamos observando la tensión durante un tiempo relativamente breve es probable que además tengamos fenómenos transitorios (que no son permanentes) pero que para nuestra limitada observación nos parecen permanentes, esto explica el caos armónico que comentamos.

Cuando la forma de la onda que se ha registrado es muy irregular lo que puede hacerse es tomar un solo ciclo y sobre el hacer el análisis de Fourier, suponemos que el ciclo se repite indefinidamente, cada ciclo nos dará una composición armónica con valores de amplitud y fase de cada armónica mas o menos comparables.

5 – SUBARMONICAS E INTERARMONICAS

Otra forma de análisis es tomar todo el tren de ondas y hacer el análisis de Fourier, la fundamental ahora es una \»subarmonica\», la habíamos ya observado en el fenómeno llamado flicker, además aparecen interarmonicas, armónicas no enteras… no es fácil ver esto, pero hagamos un pequeño esfuerzo.

Tomemos dos ondas (40 mS a 50 Hz) y hagamos el análisis de Fourier, obtenemos la fundamental (de 25 Hz), y sus armónicas (1, 2 , 3, 4, 5…) la armónica 2 de este análisis es la fundamental de 50 Hz, la 4 es la segunda armónica de 50 Hz… la 3 es la armónica 1.5 de 50 Hz y la llamamos interarmonica, la 5 nos da la 2.5, la 1 nos da la subarmonica 0.5 de 50 Hz.

Si tomamos un tren de ondas de 50 Hz, por ejemplo de duración 1 segundo, y hacemos este trabajo obtendremos armónicas que referidas a la frecuencia de 50 Hz cubrirán desde la subarmonica 0.01 hasta la que nos interese de 0.01 en 0.01 y otorgaran sentido a hablar de la armónica 3.14, o 1.41 … aunque todavía esto nos parezca irracional y absurdo.

La medición de armónicas la podemos realizar con instrumentos analógicos, que nos permiten para cada frecuencia evaluar la magnitud de la armónica presente, ya de corriente como de tensión.

Si barremos el espectro de frecuencias con este instrumento y graficamos la amplitud armónica en función de la frecuencia observaremos un gráfico del tipo montaña con picos en cada armónica importante.

Aunque no es de importancia digamos que generalmente estos gráficos se hacen en decibeles (en escala logarítmica), que es una forma de lograr ver suficientemente ampliados los valores pequeños, una reducción de 10 a 1 tiene la misma amplitud si se trata de un valor de 50 o de 0.05.

En este gráfico observamos picos de armónicas enteras, y según se comporte el sistema pueden observarse picos de interarmonicas.

El gráfico puede representar la corriente, la tensión, también puede hacerse un gráfico de impedancia, este puede hacerse por calculo sobre cualquier red pasiva, haciendo hipótesis del comportamiento de algunas impedancias (que forman parte de los modelos de los componentes de la red) con la variación de frecuencia.

Se pueden observar picos de resonancia, se puede observar como se deforma el gráfico con la variación de los parámetros de la red, por ejemplo el agregado de bancos de capacitores, y hacer previsiones sobre el comportamiento armónico de las corrientes y tensiones, que están relacionadas por el gráfico de impedancia.

Los sistemas de control que en ciertas circunstancias presentan realimentacion positiva pueden ser responsables de fenómenos interarmonicos de magnitud, fenómenos parecidos se presentan cuando hay alinealidades que dan origen a deformaciones variables en el tiempo, como la ferroresonancia.

Los fenómenos armónicos que hemos examinado son tolerables mientras mantienen magnitudes controladas, pero en ciertos casos, su exaltación produce por ejemplo reiterados pasajes por cero de la corriente o tensión, exagerada magnitud del pico en relación al valor eficaz de la magnitud examinada, etc.

La relación entre la amplitud de las distintas armónicas, y la deformación global de la magnitud observada depende además de la magnitud de cada armónica de la fase relativa entre ellas.

La deformación de las magnitudes debidas a las armónicas se controlan con filtros, que deben proyectarse haciendo consideraciones de potencia y conservación de la energía, totalmente distintas a las que se plantean cuando el problema es de tratamiento de información o implica potencias reducidas.

Los filtros de armónicas modifican el diagrama de impedancia de la red agregándole ceros y picos que nos deben efectivamente dar el efecto deseado.

La simultaneidad de los máximos de una armónica con los de otra (correlación de valores) no necesariamente se presenta, muchas veces se observa que una armónica máxima no es simultanea con el máximo de la fundamental, o con otra armónica, lograr estas conclusiones requiere muchas mediciones y un gran tratamiento de datos.

Surge natural plantearse como deben hacerse mediciones con las cuales se deberán hacer tantos cálculos, se necesitan obtener los valores numéricos que representan la medición en la forma mas directa posible, entramos en el ámbito de los adquisidores de datos y de las señales muestreadas.

La onda a examinar se adquiere con una frecuencia de muestreo elevadisima, y la matemática aplicada hace el resto, con los resultados se puede hacer estadística y dar significados de frecuencia y probabilidad de ocurrencia a los fenómenos examinados.

La capacidad de medición es enorme, la dificultad principal es como sintetizar tanta información, como lograr ver en semejante bosque la única magnitud que en un momento del estudio interesa.

6 – FENOMENOS TRANSITORIOS

Estos fenómenos son de interés porque representan solicitaciones que es necesario evaluar en magnitud e importancia.

Generalmente están asociados a maniobras de la red, arranques de grandes cargas, desconexiones.

Hoy muchos de estos fenómenos se pueden estudiar con simuladores que en una computadora producen una enorme cantidad de números, que pueden ser confundidos con los entregados por un adquisidor de datos, y sobre ambos conjuntos se puede hacer el mismo tratamiento, es mas parte de los números pueden ser adquiridos, y con ellos se alimenta el simulador que calcula un fenómeno que quizás no sea posible o conveniente producir…

Se confunden aquí matemática y física, y pierden significado gran cantidad de conocimientos de aplicación que ya no sirven frente a estos engendros a que nos lleva la técnica actual.

Cuando se adquieren transitorios que luego se deben analizar comienzan a notarse ciertos fenómenos que pasaban desapercibidos en el pasado y que en cambio los nuevos métodos de adquisición ponen en evidencia, la saturación de los transformadores de corriente cuando la corriente transitoria es varias veces la nominal produce muy interesantes deformaciones, quizás se nos presente el problema de partir de la corriente deformada y generar la corriente original…

Viceversa otro problema de mucho interés al estudiar el comportamiento de las protecciones es lograr prever los errores de saturación de los transformadores de medida, es cierto que basta encarecerlos para mejorar la medida, pero muchas veces ya están, y en otros casos el recurso dinero se debe gastar donde mas rinde.

Los relés de protección en estos últimos años han cambiado mucho, en particular se han difundido los relés electrónicos, y los principios de medición que tienen distintas soluciones constructivas reaccionan en distinta forma cuando se los solicita con la misma corriente.

Los relés electromecánicos, los de inducción, funcionan por valor eficaz, la inercia de las partes mecánicas tiene mucho que ver con el resultado de la medida, los electrónicos en cambio sin inercia prácticamente actúan por valor de pico, son entonces muy sensibles a la forma de la corriente, es cierto que pueden hacerse parecidos a los tradicionales, pero también aquí simplicidad y costo son factores condicionantes.

Aludimos antes a que en la red para controlar armónicas agregábamos filtros, modificamos así el comportamiento permanente de la red, pero también el transitorio, hay transitorios que pueden interpretarse como un desplazamiento en frecuencia del fenómeno que ocurre, es así que un filtro con muy buen comportamiento bajo ciertas frecuencias se encuentra solicitado en un cierto instante con una frecuencia intermedia que en lugar de corresponder a un cero corresponde a un pico…

7 – LA SIMETRIA DE LAS MAGNITUDES

El encadenamiento de temas nos ha entusiasmado con los problemas de armónicas y transitorios, quizás volver al régimen permanente nos parezca aburrido, examinemos entonces todavía un ejemplo, la suma de las tres corrientes transitorias que debería ser cero a veces no lo es por errores (de saturación) de los transformadores de medida, y también aquí la elevada sensibilidad de los nobles relés electrónicos tiene mucho que ver.

Pensemos ahora en régimen permanente, los desequilibrios de cargas, las distintas corrientes de fase, las distintas caídas hacen que las tres tensiones no sean tan iguales en magnitud, que los ángulos entre ellas no sean 120 grados.

Las armónicas en las distintas fases no tendrán entonces relaciones de fase rigurosas, esto explica en parte que aparezcan armónicas que en teoría no debíamos haber encontrado, como la 3, 9…

La distinta magnitud en las tres fases se interpreta con su descomposición en las tres secuencias, directa, inversa, homopolar, y los efectos pueden ser o no tolerables dependiendo de la magnitud y de la sensibilidad de las cargas.

Mejora del Factor de Potencia

1 – INTRODUCCION
La mejora del factor de potencia en las instalaciones industriales, es un aspecto de un tema mas amplio, que se refiere al uso racional de la energía eléctrica en las instalaciones industriales (y las otras también), que a su vez es un aspecto del tema que se ha hecho importante para la supervivencia de la humanidad, y que es también una cuestión moral… el uso racional de la energía.
Dejando al lector las inquietudes planteadas, concretamente solo nos dedicaremos a observar aspectos del uso racional de la energía eléctrica en instalaciones industriales.
Este tema comienza por un correcto diseño y acertada elección del proceso de la planta industrial. El proceso debe ser racional al menos desde el punto de vista energético.
El diseño de la planta también debe ser racional, de manera que los movimientos de materia prima, y de producto, como también el brindar los servicios (útiles) no impliquen desperdicios energéticos.
Las maquinas que intervienen en el proceso deben ser seleccionadas de manera de que sea también racional su utilización.
Con este enfoque global y dentro de este ámbito, el ingeniero electricista deberá desarrollar su función. En particular le preocupan dos temas en el diseño de la planta, donde están las maquinas que requieren energía eléctrica, y donde se encuentra la energía eléctrica disponible para el suministro.
Cuando se llega a este estado del proyecto, se supone que ya debe haber sido cubierta la racionalidad de los diseños previos, y si esto no fuera asi se debe tener el coraje de cuestionar el enfoque y sugerir las acciones de mejora.
Es cierto que la finalidad de las obras de ingeniería es preponderantemente económica, pero especialmente al inicio del proyecto debemos recordar que el trabajo de ingeniería es una tarea de hombres que afectara la vida de otros hombres, y del ambiente.
Se deberán entonces respetar vínculos que imponen las leyes, y las consideraciones de índole ética y moral, soslayar estos vínculos puede conducir al mas terrible y grave de los errores humanos, el error racional, y este al menos desde el punto de vista moral es delito.
Admitido entonces que el proyecto global no es objeto de cuestionamientos económicos, jurídicos, éticos ni morales, es decir que el proyecto no se basa en \»errores racionales\», debemos continuar el trabajo no apartándonos de esta senda correcta.

2 – PROCESOS ELECTRICOS

Los procesos en que interviene la energía eléctrica en una industria son:
– Generación, generalmente hecha para recuperar calor, o aprovechar desperdicios (utilizarlos en forma mas racional que perdiéndolos).
– Transmisión de energía eléctrica de un punto a otro de la planta.
– Transformación de energía eléctrica, cuando las tensiones de distribución no son las mismas que las de utilización.
– Distribución a los consumos.
– Utilización en las maquinas de producción, en los auxiliares, en los sistemas de control.
A nivel de utilización los equipos que usan de la energía eléctrica son:
– Motores eléctricos, que deben ser elegidos de buena calidad, y de buen rendimiento, la elección debe ser adecuada a las caracteristicas (potencia y otras) de la maquina que deben impulsar.
La enorme mayoría de motores (especialmente cuando no se requiere control de velocidad) son motores trifasicos de corriente alterna. La elección de la distribución trifasica es mas racional, y da por resultado menores caídas de tensión, menores perdidas, etc. y los motores trifasicos tienen mejor rendimiento.
El sobredimensionamiento de un motor debe ser limitado, para accionar una maquina determinada se pueden elegir motores de potencia creciente, y se observa que el rendimiento del motor cae.
En muchos casos las condiciones de arranque son responsables del sobredimensionamiento, indispensable para que la aceleración dure un tiempo razonable, pero que también puede lograrse con una acertada elección del tipo y modelo adecuado de motor
– Hornos eléctricos, admitido que deben existir, que no es posible otra solución entonces serán trifasicos, con regulación que permita utilizarlos en forma racional.
– Iluminación, este es tema aparte, en la instalación industrial, racionalmente concebida, debe analizarse al detalle su necesidad y su funcionamiento (permanente o no) considerándola complementaria de la iluminación natural, y no totalmente sustitutiva.
En el mantener la calidad de la iluminación resulta fundamental el adecuado mantenimiento, que evite la degradación del servicio producido por la instalación. Sobredimensionar para compensar el posible mal mantenimiento no es bueno, téngase en cuenta que el sobredimensionamiento dará niveles de iluminación excesivos, no aprovechables, y luego la falta de mantenimiento provocara crisis de todos modos.
Especialmente los niveles de iluminación deben ser los adecuados para la función que corresponde, el nivel de iluminación debe ser suficiente, no excesivo.
– Control de los motores eléctricos, ciertos motores tienen ciclos de aceleración y frenado, aceleración significa consumo de energía, frenado las mas de las veces también, no se puede en general recuperar fácilmente la energía cinética en el frenado.
La regulación de velocidad es otro tema que involucra a veces desperdicio de energía, sobre todo cuando se trata de motores asincronicos que requieren regulación continua de la velocidad.
Los motores de corriente continua tienen asociado un sistema rectificador controlado, ya no es normal la distribución de energía en corriente continua, el sistema es eléctrico, pero en los dispositivos se presentan perdidas.
Los rectificadores inyectan en la red armónicas de corriente, que producen perdidas adicionales, Para evitar estas se utilizan otros equipos sofisticados … vale la pena tratar de contestarse la siguiente pregunta: además de la energía que el equipo consume, cuanta energía se ha consumido para fabricarlo, ensayarlo, transportarlo, recuperarlo, instalarlo, probarlo, a partir de ese momento la energía consumida será para producir, hasta que una falla o simplemente la necesidad de preverla, obligue a un mantenimiento, en el que nuevamente se consume energía.
Indudablemente el enfoque excesivamente general es demasiado complejo, pero excesivamente simplificado es injusto y peligroso.

3 – DISEÑO DE LA INSTALACION

El diseño de la instalación implica una correcta elección de los transformadores, cables, y la acertada ubicación de los centros de distribución.
Recordemos que estamos examinando la instalación desde el punto de vista de uso racional de energía:
Es aconsejable evitar las dobles transformaciones (dos transformaciones en cascada, con tensiones de un mismo rango).
La baja tensión esta impuesta hoy en día en valor por las normas de seguridad, pero un análisis detallado podría demostrar que es preferible alimentar a ciertos equipos de baja tensión, con tensiones mas altas que las normalizadas.
Los cables se dimensionan por su corriente transportada, la caída de tensión, conocido el tiempo equivalente (de perdidas) una verificación de la energía perdida puede justificarse.
La tensión intermedia entre la baja y media (entre 1 y 20 kV) justifica una discusión de la acertada elección, con valores crecientes de tensión se reducen las secciones de los cables, y se incrementa el tamaño de las aislaciones.
La resistividad del conductor elegido, cobre, aluminio, merece algún pensamiento.
Longitud de los cables es otro factor que pesa en la elección en forma importante. En esto juega el baricentro de las cargas, con un peso teórico que difícilmente en una instalación industrial permite finalmente adoptarlo como centro de carga.
No siempre las cargas pueden ser desplazadas para lograr un mejor diseño eléctrico de la planta, mas racional desde nuestro punto de vista, pero al menos con los elementos dominables se debe actuar evitando alejarlos capciosamente de los centros de carga, en esa forma se controlan las perdidas, y la inversión en cables.
A medida que aumenta la corriente y la sección, la densidad de corriente admisible (térmica) se reduce.
Cuando se examina en forma general de que dependen las perdidas, surge inmediata la conveniencia de que coseno fi y tensión sean máximas.
Para cada tensión existe un límite tecnológico para cierta potencia, por encima de la cual no es conveniente su ulterior aumento, a medida que aumenta la tensión la seccion de los cables mínima limita la posibilidad de libre elección, y en consecuencia se desaprovechan, además aparecen efecto corona y perdidas por campo eléctrico que condicionan las soluciones.
Otro factor a tener en cuenta es el rendimiento del o los transformadores, que relacionan los circuitos a distintas tensiones, y que implican perdidas en el hierro (en vacío) y en el cobre (en carga en los conductores).
A medida que aumenta el tamaño del transformador en un dado estado de carga sus perdidas en el hierro aumentan, y en el cobre se reducen, por lo que puede afirmarse a priori que cierto sobredimensionamiento es conveniente.
Viceversa, un transformador que deberá funcionar largos tiempos en vacío, producirá excesivas perdidas en el hierro, y no resultara conveniente para el uso racional de la energía.
Aparatos eléctricos, con cierta resistencia eléctrica, implican ciertas perdidas, las resistencias se concentran especialmente en los contactos de los aparatos, en la morseteria, en los puntos de elevada resistencia (articulaciones, relés, laminas fusibles), ciertos aparatos tienen contactos menos eficientes que otros, por ejemplo, en general los contactos de los seccionadores de baja tensión, de diseños menos elaborados, son de mayor resistencia eléctrica que los contactos de los interruptores (de elevada presión).
Estos últimos comentarios valen sobre todo para los aparatos de corrientes nominales elevadas que están cargados en modo importante.
No debe olvidarse que el efecto térmico es acumulativo, el aumento de temperatura aumenta la resistencia eléctrica, y el efecto son mayores perdidas… por lo que es siempre favorable una buena ventilación.
Para una dada potencia utilizable, un mejor factor de potencia hace que la corriente que se transporta sea menor, se disminuyen perdidas de transporte en la red, aparecen las perdidas en los capacitores, que seguramente son menores.
Los capacitores, cuando hay armónicas requieren reactores en serie, y perdidas en los reactores, perdidas adicionales en las zonas de influencia de los reactores debidas al campo magnético.
Generación.
Recuperación de energía eléctrica.
Datos a nivel de funcionamiento de la red, debe conocerse muy bien como la red funciona, los estados de carga de cada utilizador, sus ciclos de funcionamiento, la simultaneidad, etc.
El estudio en detalle debe ser en conjunto, no se puede optimizar racionalmente un solo aspecto, el problema pasa por un correcto conocimiento general.
El método de estudio sugerido, cuando todavía no se dispone de la instalación o no se la puede hacer funcionar en forma arbitraria, es la simulación, la red armada completa debe representar los aspectos de interés de la red real, se la carga y se evalúan las perdidas en cada situación de carga.
Luego se simulan las mejoras, y se hace la nueva evaluación, como se analiza por diferencias, comparando valores del mismo orden, los métodos de calculo deben ser precisos, los errores deben ser conocidos, las aproximaciones desorientan.

4 – POTENCIA REACTIVA

Todas las maquinas electricas consumen energia activa (kWh), ligada a la potencia activa (kW) de las cargas, esta es transformada en potencia mecanica (trabajo) o calor (eventualmente perdidas)
La energia reactiva consumida (kVArh), es usada para magnetizar los circuitos de las maquinas electricas (transformadores y motores), ligada a la potencia reactiva (kVAr) de las cargas.
La energia aparente (kVAh), es la suma vectorial de las potencias, y la potencia aparente (kVA) es la que suministra la red (distribuacion y transporte).
Corriente
Factor de potencia
Coseno fi

El capacitor puede estar en resonancia con la red, sobre una armónica
Armónica de resonancia r = raíz(S / Q)
Donde S es la potencia de cortocircuito (MVA) en el punto donde los capacitores están conectados
Q es la potencia del banco de capacitores en MVAr

La conexión del capacitor es causa de un incremento permanente en la tensión
Incremento de tensión en barras deltaU = U * Q / S
Donde U es la tensión antes de conectar el capacitor kV

Corriente de inserción transitoria (cresta) de un banco único Is = In * raíz(2 * S / Q)
Donde In es la corriente nominal del banco en valor eficaz (A rms)

Corriente de inserción transitoria (cresta) de bancos en paralelo Is = U * raíz(2) / raíz(Xc * XL)
Donde XL es la reactancia entre bancos (ohm), U es la tensión fase tierra (Volt),
La reactancia capacitiva serie en ohm es Xc = 3 * U^2 (1 / Q1 + 1 / Q2) * 1.E-6

Resistencia de descarga R = t / (C * ln(UN * raíz(2) / UR)
Donde C capacitancia en uF, UN Tensión de la unidad (Volt), UR tensión residual, t tiempo de descarga desde UN * raíz(2) hasta UR en segundos

Tiempo de descarga al 10 % t1 = 2.65 * R * C = 2.65 * t / ln(UN * raíz(2) / UR)
Si se respetan estrictamente los limites de la clausula 21 se tiene t1 = 1590 / ln(UN / 53)

Norma IEC 871 Apendice A (formulas para capacitores e instalaciones)

Proteccion contra Sobretenciones

INTRODUCCION

Se llama descargador al dispositivo destinado a proteger los aparatos eléctricos de elevadas tensiones transitorias y a limitar la duración y frecuentemente la amplitud de la corriente subsiguiente.
El termino descargador incluye a todo espinterometro externo en serie que sea escencial para el funcionamiento del dispositivo instalado para el servicio.
Los descargadores modernos son:
– de oxido metálico, oxido de cinc, sin espinterometros en serie.
Los antecesores fueron:
– de oxido metálico, con espinterometros en serie.
– de carburo de silicio, con espinterometros en serie.
– del tipo de expulsión, con cámara para confinar el arco y extinguirlo con el gas que produce el material de la cámara.
– espinterometros en aire, sin ningún tipo de resistores no lineales en serie, solución todavía hoy utilizada.
Los aislantes se dimensionan para soportar la tensión que se presenta en modo permanente, y para soportar por tiempos breves sobretensiones cuya duración esta limitada.
Para simular estas situaciones se somete los aislantes a ensayos, típicos ensayos de aislacion como:
– aplicar tensión a frecuencia industrial durante un minuto.
– aplicar impulsos de tensión de forma 1/50 microsegundos, que representan el efecto de una descarga atmosférica.
Estas pruebas se hacen sobre aparatos de media y alta tensión, sobre equipos de muy alta tensión (mas de 300 kV de tensión nominal) en lugar del ensayo de frecuencia industrial se aplica impulso de maniobra.
Las sobretensiones que pueden presentarse en la red, en orden creciente de magnitud son:
– sobretensiones que aparecen en las tres fases, por sobrevelocidad del generador, o desconexión de cargas, con duración de algunos segundos o minutos.
– sobretensiones que aparecen en las fases sanas, cuando ocurren fallas a tierra, cuya duración esta limitada por la actuación de las protecciones.
– sobretensiones de maniobras que duran algunos ciclos (de frecuencia industrial) y se producen a consecuencia de maniobras de aparatos, especialmente aperturas, aunque en ciertas condiciones también durante los cierres.
Las sobretensiones descriptas son de origen interno de la red, y as¡ se las llama.
También pueden presentarse en las redes expuestas, sobretensiones de origen externo:
– típicas sobretensiones de origen atmosférico, directas o inducidas.
El comportamiento de las sobretensiones es distinto, cuando muy rápidas, como las de tipo atmosférico, se propagan con velocidad, refractándose y reflejándose en los nodos de la red (puntos donde cambia la impedancia característica de las ramas de la red).
En los puntos de reflexión se puede alcanzar hasta el doble del valor original.
Las sobretensiones de mas baja frecuencia en cambio asumen en los distintos puntos valores relacionados con los parámetros de la red.
Eventos que ocurren en distintos puntos de la red eléctrica, producen en otros puntos distintas tensiones, para cada evento se produce en algún punto la tensión máxima.
Los descargadores deben funcionar en la red donde ocurren estos eventos, y actúan modificando el valor de las sobretensiones.
Los descargadores son resistores no lineales, sometidos a una sobretension conducen corriente (que depende de la impedancia de la fuente de sobretension) y limitan el valor de la tensión entre sus extremos.
La corriente que se presenta a consecuencia de una sobretension atmosférica tiene una forma típica de impulso de corriente 8/20 microsegundos (impulso de descarga atmosférica).
También puede haber impulsos de alta corriente, típico 4/10 microsegundos, que simulan descargas extraordinarias (poco frecuentes, y en consecuencia menos probables).
Durante el paso de la corriente de descarga, el valor de pico de la tensión que aparece, se denomina tensión residual (también se la llama tensión de descarga).
La corriente que se presenta a consecuencia de sobretensiones de maniobra tiene una forma típica rectangular…
aspectos teóricos
aplicaciones en alta y media
propagación de sobretensiones

Problema: Selección de descargadores

Selecciónar descargadores de oxido de cinc para un sistema eléctrico de 69 kV, que esta alimentado por líneas aéreas que llegan desde una fuente relativamente lejana (a los fines de este estudio).
Se han calculado las corrientes de falla a tierra (cortocircuitos monofasicos) en distintas condiciones de la red. Obteniendose los resultados siguientes:
Caso A – tensiones en las fases sanas mínimo 57.2 kV máximo 65.3 kV
Caso B – tensiones en las fases sanas mínimo 59.42 kV máximo 61.3 kV
Caso C – tensiones en las fases sanas mínimo 58.6 kV máximo 58.8 kV
La corriente total de falla a tierra supera los 1000 A y el sistema esta puesto a tierra a traves de reactores zig-zag.

Metodologia
En la selección de los descargadores se siguen los pasos indicados en la guía ABB SESWG/A 2300E Technical Information Selection guide for ABB HV surge arresters.

Paso 1 – obtención de los parámetros del sistema
Obtención de la mayor tensión estimada del sistema Um
(Definición; Tensión máxima del sistema Um es la mayor tensión eficaz fase fase que se presenta bajo condiciones normales de operación en cualquier tiempo y punto del sistema)
Se puede estimar en 1.05 * 69 kV = 72,45 kV = aprox. 72,5 kV
Condiciones de falla a tierra:
En la memoria de calculo de cortocircuito, se han estudiado cortocircuitos monofasicos en distintas condiciones de la red.
Estos valores determinan la tensión TOV Sobretension temporaria, que ocurre en las fases sanas cuando hay fallas a tierra, en el caso examinado es:
Tensión máxima 65.3 kV,
También puede presentarse durante fenómenos de ferroresonancia, o en rechazos de carga, que son situaciones no previsibles en el sistema en estudio.
El factor de puesta a tierra se determina a partir de este ultimo valor
ke = 65,3 / (69 / 1,73) = 1,64
Como este valor supera el limite de 1,4 a los fines de las sobretensiones el sistema que se analiza se considera aislado de tierra
La duración de la sobretension depende del tiempo de eliminación de la falla que se considera en sistemas puestos a tierra directamente menor de 10 segundos, en sistemas aislados puede superar 2 horas, y entonces la tensión TOV es la compuesta.
En el caso en estudio la corriente total de falla a tierra supera los 1000 A por lo que su duración debe limitarse al valor previsto de los dispositivos de puesta a tierra (en el caso en examen reactores zig-zag) que es de menos de 10 segundos.

Paso 2 – control de condiciones de servicio anormales
Temperaturas fuera del rango –40 a + 45 grados C.; frecuencias fuera del rango 15 – 62 Hz; fuentes de calor próximas a los descargadores.

Se considera que no se presentan condiciones de este tipo.

Paso 3 – control de otras causas de ocurrencia de TOV
Se considera que no se presentan condiciones de fuera de las indicadas en paso 1.

Paso 4 – seleccionar la tensión de operación continua
La tensión de operación continua Uc es la designada como permisible en valor eficaz a frecuencia industrial que puede ser aplicada continuamente (permanentemente) en bornes del descargador.
Uca = Um / 1,73 = 72.5 kV / 1,73 = 41,91 kV

Paso 5 – seleccionar la capacidad conveniente TOV
La figura 2.3 muestra la capacidad TOV expresada en múltiplos de Ur función de Tr que para 10 segundos es 1,1 con energía previa y 1,14 sin energía previa (este valor depende de marca y modelo de descargador, lo que debe confirmarse una vez adoptado el descargador)
Luego se inicia la selección del descargador:
Selección en base a la tensión preliminar
Uro = Uc / 0,8 = 42 kV / 0,8 = 52,5 kV
Determinación de TOV en base a amplitud y duración de la falla
TOVe = ke * Um / 1,73 = 1,64 * 72,5 / 1,73 = 68,73 kV
Para sistemas efectivamente aislados se adopta:
Ke = 1,73
TOVe = ke * Um / 1,73 = 1,73 * 72,5 / 1,73 = 72,5 kV
Consideración de energía absorbida previa
Ure = TOVe / Tr = 68,73 kV / 1,1 = 62,48 kV para 10 segundos, con energía previa
Selección del valor final
Se selecciona el mayor valor entre Uro y Ure
Ur <= 62,5 kV debiendo adoptarse el valor normalizado 66 kV
Valores adoptados
Aplicación, protección de transformadores y equipamiento en sistemas con sobretensiones atmosféricas y de maniobra.
Los requerimientos de capacidad de energía, contaminación, son moderados

Frecuencia 60 Hz
Tensión del sistema 72,5 kV
Tensión nominal 69 kV
Corriente nominal de descarga 10 kA cresta
Descarga de corriente soportada alta corriente 4/10 microseg.: 100 kAcresta
baja corriente 2000 microseg.: 550 Acresta
Capacidad de energía descarga de línea 2 impulsos 5,1 kJ/kV (Ur)
Prueba de energía nominal 3,6 kJ/kV (Ur)

Datos garantizados:

Ur kVrms 66
Uc kVrms 53
MCOV kVrms 53
TOV capability 1 sec kVrms 76
10 sec kVrms 3
Ures 30 /60 microseg  500 A kVcresta 137
1kA kVcresta 142
8 / 20 microseg. 5 kA kVcresta 165
10 kA kVcresta 176
20 kA kVcresta 196
distancia de fuga (crepage distance) mm 1660 =  22,9 * 72,5 > 20 * 72,5 (medium pollution)
aislacion externa (aislador vacío) LIWL 1,2 / 50 kVcresta 350
60  Hz bajo lluvia (10 seg) kVrms 170

 

Panel que produce agua potable del aire

Hace poco más de un año la Universidad de Ingeniería y Tecnología (UTEC) de Lima colaboraron con la agencia publicitaria Mayo Peru DraftFCB y crearon un panel que produjera agua limpia de la humedad del aire a través de un sistema de filtración. El panel se colocó estratégicamente en el pueblo de Bujama, una zona casi desértica al sur de Lima, en la que algunos vecinos no tienen acceso a agua potable, gracias a este panel se produjeron en el verano más de 9.000 litros de agua potable (96 litros diarios).

Este panel publicitario refleja la propuesta educativa de la universidad, que es desarrollar el ingenio y el talento de nuestros alumnos a través de una enseñanza basada en la práctica. El objetivo es despertar la vocación de estudiar ingeniería haciéndola más atractiva para los jóvenes, y prepararlos para convertirlos en profesionales de alto nivel que aplicarán la ciencia, la tecnología y la innovación en beneficio del desarrollo sostenible del Perú”, señaló Jessica Ruas Quartara Directora de Promoción de UTEC.

\"poste2\"