Inicio - Tecnologia

Control de calidad en el mantenimiento preventivo

Introducción
Responsabilidades del control de calidad
Programas de inspección y verificación
Control estadístico de procesos en el mantenimiento
Control de calidad de los trabajos de mantenimiento
Círculos de calidad
Vínculo del mantenimiento con la calidad
Conclusiones
Bibliografía

Introducción

El desarrollo de un sistema acertado de control de la calidad del mantenimiento es esencial para asegurar reparaciones de alta calidad, estándares exactos, máxima disponibilidad, extensión del ciclo de vida del equipo y tasas eficientes de producción del equipo. El control de calidad como un sistema integrado se ha practicado con mayor intensidad en las operaciones de producción y manufactura que en el mantenimiento. Aunque se ha comprendido el papel del mantenimiento en la rentabilidad a largo plazo de una organización, los aspectos relacionados con la calidad de los productos del mantenimiento, no han sido adecuadamente formulados.

La calidad de los productos del mantenimiento tiene un enlace directo con la calidad del producto y la capacidad de la compañía, para cumplir con los programas de entrega. En general el equipo que no ha recibido un mantenimiento regular, o cuyo mantenimiento ha sido inadecuado fallara periódicamente o experimentará pérdidas de velocidad, o una menor precisión, y en consecuencia, tenderá a generar productos defectuosos, lo que representa menor rentabilidad y un mayor descontento por parte del cliente.

Los gerentes de mantenimiento y los ingenieros necesitan estar conscientes de la importancia de controlar la calidad de los productos del mantenimiento. El establecimiento de normas de pruebas e inspección en el mantenimiento y de niveles aceptables de calidad deberán ser desarrollados para todo el trabajo de mantenimiento.

Las organizaciones deberán esforzarse por vincular sus actividades de mantenimiento con la calidad de sus productos y servicios. Además, deberán crear un punto de atención central en sus clientes internos. Esto les proporcionara la dirección y las metas para mejorar sus procesos de mantenimiento.
Responsabilidades del control de calidad

Lograr la calidad en el mantenimiento y los objetivos de confiabilidad son responsabilidad del personal de mantenimiento. El esfuerzo combinado y la dedicación del personal de control de calidad, los supervisores de mantenimiento y los técnicos son esenciales para garantizar un mantenimiento de alta calidad y una confiabilidad en el equipo.

De forma más específica, las responsabilidades de control de calidad incluyen las siguientes:

Realizar inspecciones de las acciones, procedimientos, el equipo y las instalaciones de mantenimiento.

Conservar y mejorar los documentos, los procedimientos, el equipo y las normas de mantenimiento.

Asegurar que todas las unidades estén conscientes y sean expertas en los procedimientos y normas de mantenimiento.

Mantener un alto nivel de conocimiento experto, manteniéndose al día con la literatura referente a los procedimientos y registros de mantenimiento.

Hacer aportaciones a la capacitación del personal de mantenimiento.

Realizar análisis de deficiencias y estudios de mejora de procesos, empleando diversas herramientas para el control estadístico de procesos.

Asegurar que los trabajadores se apeguen a todos los procedimientos técnicos y administrativos cuando realicen el trabajo real de mantenimiento.

Revisar los estándares de tiempo de los trabajos para evaluar si son adecuados.

Revisar la calidad y disponibilidad de los materiales y refacciones para asegurar su disponibilidad y calidad.

Realizar auditorías para evaluar la situación actual del mantenimiento y prescribir remedios para las áreas con deficiencias.

Establecer la certificación y autorización del personal que realiza tareas críticas altamente especializadas.

Desarrollar procedimientos para las inspecciones de nuevos equipos y probar el equipo antes de aceptarlo de los proveedores.

Programas de inspección y verificación

La división de control de calidad es responsable de desarrollar y conservar registros de inspección. La división de Control de Calidad deberá clasificar los diferentes tipos de inspecciones que realiza. Estas inspecciones se clasifican comúnmente de la siguiente manera:

Inspección de aceptación: Este tipo de inspección se realiza para asegurar que el equipo esté en conformidad con las normas. Generalmente se realiza sobre equipo nuevo.

Inspección de verificación de la calidad: Este tipo de inspección se realiza después de una tarea de inspección o reparación para verificar si esta se realizo de acuerdo con las especificaciones.

Inspección documental o de archivo: Esta se realiza para revisar la norma y evaluar su grado de aplicación.

Inspección de actividades: Esta inspección se realiza para investigar si las unidades de mantenimiento se están apegando a los procedimientos y a las normas.

Estos cuatro tipos de inspecciones son realizadas por el personal de Control de Calidad. Hay otros tipos de inspecciones que son realizadas por los supervisores de producción de mantenimiento. Estas incluyen inspecciones realizadas por los supervisores para asegurar que el material o la calidad del trabajo cumplen las normas prescritas.

La figura central en la mayoría de los programas de control de calidad del mantenimiento es el inspector técnico. Este es el individuo al que se le ha asignado la responsabilidad de evitar que se empleen técnicas deficientes de trabajo y superar las deficiencias de la organización, o reducir el reemplazo innecesario de componentes que todavía pueden dar un buen servicio. En consecuencia, la habilidad del inspector para diagnosticar debe ser satisfactoria para un programa de control de calidad con éxito. Las decisiones del inspector son críticas y pueden llevar a una catástrofe dependiendo sea el tipo de trabajo.
Control estadístico de procesos en el mantenimiento

El control estadístico de procesos consiste en el empleo de técnicas con base estadística para evaluar un proceso o sus productos, para alcanzar o mantener un estado de control. Esta definición es lo suficientemente amplia para incluir a todos los métodos con base estadística, desde la recopilación de datos e histogramas, hasta técnicas complejas como el diseño de experimentos. Aun cuando no existe una lista única de estos métodos, hay un acuerdo general acerca de las siguientes 7 herramientas, las cuales requieren recopilación de datos como primer paso.
3.1 RECOPILACIÓN DE DATOS

Hay que tener mucho cuidado en la recolección de los datos para que sean compatibles con el fin que se persigue y que además sean completos para la aplicación de la herramienta escogida.

Una guía para recolectar datos:

? Planifique todo el proceso de recolección de datos desde un comienzo.

? Aclare el propósito de la recolección de datos.

? Especifique claramente los datos necesitados.

? Use las técnica correctas de ejemplificación.

? Diseñe los requerimientos de listas de chequeos por anticipado.

La obtención de datos debe ser un proceso continuo y debe ser parte del sistema de información. Ejemplos de los datos necesarios en el caso de la administración e ingeniería del mantenimiento son el tiempo muerto del equipo, productividad de la mano de obra , costos de mantenimiento, costo de materiales y repuestos, fallas y reparación, ordenes atrasadas, y trabajos pendientes.

3.2 LISTA DE CHEQUEO O VERIFICACIÓN

Una lista de chequeo es un conjunto simple de instrucciones usados en la recolección de datos, donde los datos pueden ser compilados fácilmente usados y analizados automáticamente.

Las listas en mantenimiento pueden ser usadas para:

Recolectar datos para construir un histograma.

Ejecutar tareas de mantenimiento.

Preparar antes y cerrar después los trabajos de mantenimiento.

Revisión de las partes y piezas.

Planificación de los trabajos de mantenimiento.

Inspección de los equipos.

Auditar un departamento de mantenimiento.

Chequear las causas de un defecto.

Diagnosticar los defectos de una máquina.

Recolectar datos para efectuar un estudio de métodos.

Ejemplo de lista de verificación

Monografias.com

3.3 HISTOGRAMA

Un histograma es un resumen gráfico de la variación de un conjunto de datos. La naturaleza gráfica del histograma permite ver comportamientos que son difíciles de observar en una simple tabla numérica. El histograma ayuda a visualizar la distribución de los datos, su forma y su dispersión

Puede ser usado para:

La carga de mantenimiento.

Confiabilidad de las partes y piezas.

Distribución temporal de las fallas del equipo.

Distribución de los tiempos de reparo.

Distribución de los recursos.

Cambios en los tiempos de paradas.

En la gestión del mantenimiento las decisiones relacionadas con la ejecución del mantenimiento preventivo en un equipo que está sujeto a fallas, requiere información sobre cuando el equipo alcanzará un estado de falla y esto es un problema probabilístico. Si se piensa en un número de piezas similares de un equipo que están sujetas a fallas, no se puede esperar que todas ellas fallen a la misma cantidad de horas de funcionamiento, anotando el tiempo hasta la falla de cada ítem del equipo es posible construir un histograma en el cual el área asociada con algún período de tiempo muestra la frecuencia relativa de falla ocurrida en ese intervalo.

Ejemplo de histograma

Monografias.com

3.4 DIAGRAMA CAUSA -EFECTO

Un diagrama de “espina de pescado” es una herramienta utilizada para facilitar el análisis de causa raíz de un problema definido. El diagrama proporciona una forma estructurada para registrar las causas potenciales durante el intercambio de ideas, ya que fomenta en los equipos de análisis a pensar en un problema de forma sistemática y para ir más profundo a fin de descubrir las causas menos evidentes.

Puede ser usado para identificar las causas de:

Baja productividad de los trabajadores.

Excesivas detenciones.

Fallas recurrentes.

Trabajos repetidos.

Excesivo ausentismo.

Exceso de errores en el trabajo

Pasos para la construcción de un diagrama causa- efecto

Paso 1: decida la característica de calidad y el efecto a ser estudiado. Este es usualmente el efecto que necesita ser mejorado y controlado.

Paso 2: escriba el efecto destacado por una flecha.

Paso 3: identifique y escriba los factores principales que pueden afectar la característica de calidad mediante una flecha que apunte hacia la principal. En general se usa:

Métodos, máquinas, materiales y fuerza laboral.

Lugar, procedimiento, personal y políticas.

Ambiente, proveedores, sistema y destrezas.

Máquinas, métodos, materiales, mediciones, personal, y medio ambiente.

Equipo, procesos, personal, materiales, ambiente y administración.

Paso 4: escriba en cada flecha para cada factor principal las causas directas y las sub-causas detalladas.

Paso 5: verifique que están todas las causas que podrían influir en el efecto no deseado.

Ejemplo de un diagrama causa – efecto

Monografias.com

3.5 GRAFICO DE PARETO

Es la distribución de frecuencias de un atributo ordenados por tamaño de la frecuencia. Ayuda a definir prioridades para que el curso de las acciones sean más efectiva.

PRINCIPIO DE PARETO

El Principio de Pareto afirma que en todo grupo de elementos o factores que contribuyen a un mismo efecto, unos pocos son responsables de la mayor parte de dicho efecto.

Categorías incluidas:

Clase A usualmente contiene el 20% del factor (causa) que están causando el 75% al 80% de los problemas.

Clase B contiene alrededor del 20% del factor que causa entre el 15% al 20% de los problemas.

Clase C contiene el resto de los factores los cuales son much

Características principales

A continuación se comentan una serie de características que ayudan a comprender la naturaleza de la herramienta.

Priorización

Identifica los elementos que más peso o importancia tienen dentro de un grupo.

Unificación de Criterios

Enfoca y dirige el esfuerzo de los componentes del grupo de trabajo hacia un objetivo prioritario común.

Carácter objetivo

Su utilización fuerza al grupo de trabajo a tomar decisiones basadas en datos y hechos objetivos y no en ideas subjetivas.

La grafica indica cual factor mejorar primeramente a fin de eliminar defectos y lograr la mayor mejora posible

Pareto puede ser usado en:

Factores que limitan la productividad.

Fallas inducidas por los operadores.

Repuestos que causan los mayores atrasos.

Repuestos más costosos.

Fallas que causan las mayores paradas.

Pasos para realizar un diagrama de Pareto

Paso 1: Preparación de los datos

Como en todas las herramientas de análisis de datos, el primer paso consiste en recoger los datos correctos o asegurarse de que los existentes lo son.

Para la construcción de un Diagrama de Pareto son necesarios:

a) Un efecto cuantificado y medible sobre el que se quiere priorizar (Costes, tiempo, número de errores o defectos, porcentaje de clientes, etc).

b) Una lista completa de elementos o factores que contribuyen a dicho efecto (tipos de fallos o errores, pasos de un proceso, tipos de problemas, productos, servicios, etc).

Es importante identificar todos los posibles elementos de contribución al efecto antes de empezar la recogida de datos. Esta condición evitará que, al final del análisis, la categoría “Varios” resulte ser una de las incluidas en los “Pocos Vitales”.

Las herramientas de calidad más útiles para obtener esta lista son: la Tormenta de Ideas, el Diagrama de Flujo, el Diagrama de Causa-Efecto y sus similares, o los propios datos.

Paso 2: Cálculo de las contribuciones parciales y totales. Ordenación de los elementos o factores incluidos en el análisis

Para cada elemento contribuyente sobre el efecto, anotar su magnitud. Ordenar dichos elementos de mayor a menor, según la magnitud de su contribución. Calcular la magnitud total del efecto como suma de las magnitudes parciales de cada uno de los elementos contribuyentes.

Paso 3: Calcular el porcentaje y el porcentaje acumulado, para cada

Elemento de la lista ordenada

El porcentaje de la contribución de cada elemento se calcula:

% = (magnitud de la contribución /magnitud del efecto total) x 100

El porcentaje acumulado para cada elemento de la lista ordenada se calcula:

- Por suma de contribuciones de cada uno de los elementos anteriores en la tabla, más el elemento en cuestión como magnitud de la contribución, y aplicando la fórmula anterior.

- Por suma de porcentajes de contribución de cada uno de los elementos anteriores más el porcentaje del elemento en cuestión. En este caso habrá que tener en cuenta el que estos porcentajes, en general, han sido redondeados.

Una vez completado este paso tenemos construida la Tabla de Pareto.

Paso 4: Trazar y rotular los ejes del Diagrama

Paso 5: Dibujar un Gráfico de Barras que representa el efecto de cada uno de los elementos contribuyentes

La altura de cada barra es igual a la contribución de cada elemento tanto medida en magnitud por medio del eje vertical izquierdo, como en porcentaje por medio del eje vertical derecho.

Paso 6: Trazar un Gráfico Lineal cuyos puntos representan el porcentaje acumulado de la Tabla de Pareto

Marcar los puntos del gráfico en la intersección de la prolongación del límite derecho de cada barra con la magnitud del porcentaje acumulado correspondiente al elemento representado en dicha barra.

Ejemplo de un diagrama de Pareto

Monografias.com

3.6 GRÁFICAS DE CONTROL

Un gráfico de control es una carta o diagrama especialmente preparado donde se van anotando los valores sucesivos de la característica de calidad que se está controlando. Los datos se registran durante el funcionamiento del proceso de fabricación y a medida que se obtienen.

El gráfico de control tiene una Línea Central que representa el promedio histórico de la característica que se está controlando y Límites Superior e Inferior que también se calculan con datos históricos.

Se utilizan para monitorear la calidad de los siguientes aspectos

Trabajos pendientes

Tiempo muerto

Disponibilidad

Numero de descomposturas

Características Generales de las Gráficas de Control

El termino consistencia se refiere a la uniformidad en la salida del proceso; es preferible tener un producto de un proceso consistente, que tener uno con calidad superior, pero de un proceso intermitente.

Una gráfica de control se inicia con las mediciones considerando, sin embargo que las mediciones dependen tanto de los instrumentos, como de las personas que miden y de las circunstancias del medio ambiente , es conveniente anotar en las gráficas de control observaciones tales como cambio de turno, temperatura ambiente.

Establecer una gráfica de control requiere los siguientes pasos:

1) Elegir la característica que debe graficarse.

2) Elegir el tipo de gráfica de control

3) Decidir la línea central que deben usarse y la base para calcular los límites. La línea central puede ser el promedio de los datos históricos o puede ser el promedio deseado.

4) Seleccionar el subgrupo racional. Cada punto en una gráfica de control representa un subgrupo que consiste en varias unidades de producto.

5) Proporcionar un sistema de recolección de datos si la gráfica de control ha de servir como una herramienta cotidiana en la planta.

6) Calcular los límites de control y proporcionar instrucciones específicas sobre la interpretación de los resultados y las acciones que debe tomar cada persona en producción

7) Graficar los datos e interpretar los resultados.

Ejemplo de una grafica de control

Monografias.com

3.7 DIAGRAMA DE DISPERSIÓN

El diagrama de dispersión es una representación grafica de la correlación entre dos variables. Se utiliza generalmente para estudiar la relación entre causas y efectos. Por lo tanto, es un complemento del diagrama de causa y efecto que se menciono con anterioridad. En general , puede aplicarse para realizar los siguientes análisis:

Análisis de tendencias.

Correlación o análisis de patrones.

Particularmente en el mantenimiento, puede utilizarse para encontrar lo siguiente:

1. Correlación entre el mantenimiento preventivo y la tasa de calidad.

2. Correlación entre el nivel de capacitación y los trabajos pendientes.

3. Correlación entre el nivel de capacitación y la repetición de trabajos.

4. Correlación entre el nivel de vibración y la tasa de calidad.

5. Correlación entre el mantenimiento preventivo y el tiempo muerto.

6. Tendencia del tiempo muerto.

7. Tendencia de la productividad de los trabajadores.

8. Tendencia de la productividad de los trabajadores.

9. Tendencia de los trabajos pendientes.

10. Tendencia de la disponibilidad de equipos.

3.8 ANÁLISIS DEL MODO DE FALLAS Y EFECTOS

El análisis del modo de falla y efectos (AMFE) es una técnica empleada para cuantificar y clasificar las fallas críticas en el diseño del producto o el proceso. Comprende la identificación de todas las características funcionales y secundarias. Así, para cada característica, el AMFE identifica una lista de fallas potenciales y su impacto en el desempeño global del producto. Asimismo, se estima la probabilidad y la severidad de la falla (problema).

Un sistema o producto dado se divide en sus piezas o componentes básicos. A continuación, para cada componente o pieza, el analista podría preguntar como fallaría, la probabilidad de la falla y el efecto en la función del producto o sistema. E un ensamble electrónico, por ejemplo, las piezas incluyen resistencia, un capacitador, etc. Se identificara el modo de falla de cada pieza y e determinara su efecto en la función del producto. El objetivo es eliminar la amenaza a la integridad del producto o reducirla al mínimo

Esta técnica se ha aplicado con éxito en el diseño del producto de la industria automotriz y en la selección de factores críticos para el diseño de experimentos en la ingeniería de calidad. Tiene un gran potencial de utilización y aplicación al mantenimiento especialmente para evaluar el efecto de los modos de falla en las fallas funcionales cuando se diseña un programa de mantenimiento centrado en la confiabilidad (MCC). Puede aplicarse para seleccionar una modificación de diseño de u n sistema que actualmente esté en operación.
Control de calidad de los trabajos de mantenimiento

El trabajo de mantenimiento difiere del trabajo de producción ya que en su mayor parte es un trabajo no repetitivo y tiene mayor variabilidad. En el caso de trabajos no repetitivos y ocasionales no se pueden recopilar suficientes datos para utilizar eficazmente las herramientas de CEF. En estos casos, es esencial el proceso de mantenimiento mediante el control de sus entradas. Un proceso es una secuencia de pasos que transforma un conjunto de entradas o insumos en un conjunto de salidas o productos; también tiene un mecanismo de retroalimentación.

Monografias.com

Las principales entradas al proceso de mantenimiento son las siguientes:

1. Procedimiento y normas de mantenimiento.2. Personal3. Material y refracciones.4. Equipo y herramientas. Estas cuatro entradas son críticas para la calidad del trabajo de mantenimiento. El elemento clave para la calidad del trabajo de mantenimiento es desarrollar normas de calidad para trabajos críticos, no repetitivos. Si un trabajo no cumple la norma, se emplea un diagrama de causa y efecto para investigar las causas fundamentales del trabajo que está por debajo de la norma.

Monografias.com

4.1. FACTORES RELACIONADOS CON LOS PROCEDIMIENTOS Y LAS NORMAS Los procedimientos y las normas se prescriben para controlar el trabajo y asegurar su uniformidad y calidad. Para asegurar la calidad, las normas deben ser precisas, medibles y reflejar los requerimientos del cliente. Un procedimiento deberá ser claro, lógico y estar bien documentado a fin de poder implantarse. Los siguientes factores afectan principalmente la eficacia de los procedimientos y las normas:1. Calidad del procedimiento (su habilidad para satisfacer los requerimientos del cliente).2. Documentación de los procedimientos y las normas.3. Adecuación de las normas para el ambiente de trabajo.4. Mecanismo para la mejora de los procedimientos y las normas. La calidad de un procedimiento se evalúa con base en su capacidad para alcanzar sus objetivos. Los subfactores utilizados para evaluar cualquier procedimiento incluyen: claridad de los objetivos, estructura lógica, claridad del procedimiento, sencillez, facilidad de uso, alcance, especificación de responsabilidades, computación y mecanismo para mejorar continua. Las normas se evalúan probando su adecuación.4.2. FACTORES RELACIONADOS CON EL PERSONAL

El papel el personal calificado es esencial para un mantenimiento de alta calidad. El técnico calificado desempeña una función clave en el mantenimiento. El tamaño de la fuerza de trabajo, nivel de destrezas, capacitación, motivación, actitud, ambiente de trabajo, y formación y experiencia, son lo factores más importantes que deben vigilarse a fin de mejorar la calidad del trabajo de mantenimiento.4.3. FACTORES RELACIONADOS CON LOS MATERIALES

La disponibilidad de materiales de calidad y en cantidades correctas en el momento correcto contribuye a la calidad del trabajo de mantenimiento. Los factores que afectan la disponibilidad y la calidad del material incluyen normas y especificaciones correctas, políticas para el control de materiales, presupuesto, políticas y procedimientos de compras, y manejo y despliegue de materiales. Estos factores constituyen la base del análisis de causa y efecto para investigar el impacto de los materiales y las refacciones en la calidad del trabajo de mantenimiento.4.4. FACTORES RELACIONADOS CON LAS HERRAMIENTAS Y EL EQUIPO La disponibilidad de equipo y herramientas para realizar mantenimiento de producción puede ser un factor limitante en algunas circunstancias. Por ejemplo, la exactitud de los instrumentos de calibración y precisión podría tener un impacto significativo en la calidad de los trabajos de mantenimiento. Los factores que afectan la disponibilidad del equipo y herramientas correctas incluyen el presupuesto, la prontitud operativa, la capacitación, la compatibilidad y el número disponible. Estos factores podrían constituir una lista inicial para una sesión de lluvia de ideas sobre el impacto de la disponibilidad del equipo y las herramientas en la calidad del trabajo de mantenimiento.
Círculos de calidad

El círculo de calidad es una práctica o técnica utilizada en la gestión de organizaciones en la que un grupo de trabajo voluntario, se reúne para buscar soluciones a problemas detectados en sus respectivas áreas de desempeño laboral, o para mejorar algún aspecto que caracteriza su puesto de trabajo.

Estos equipos de trabajo, originariamente llamados “Círculos de Control de Calidad” fueron introducidos en los años sesenta por Kaoru Ishikawa, quien fue uno de los primeros en utilizarlos, y desde entonces, han representado un elemento fundamental de participación de los trabajadores en las empresas que han implantado sistemas de mejora continua.

Esta filosofía de trabajo, implantada en sus orígenes en empresas de cultura oriental no ha sido tan extendida, ni efectiva en organizaciones de corte más occidental. No obstante, realizando las adaptaciones y las modificaciones oportunas a la realidad de cada empresa, esta práctica puede ofrecer mucho valor a la gestión de la mejora de cualquier tipo de organización.

La situación ideal de esta buena práctica es la que permite su generación de forma espontánea y por iniciativa de los propios componentes de los equipos, aunque para llegar a esta situación, la organización debe seguir una metodología de implantación que se oriente a este fin.

Por lo tanto, se hace imprescindible que se cuente previamente con una cultura de gestión especialmente enfocada al trabajo autónomo, puesto que la confianza depositada en los trabajadores como responsables de la mejora de los procesos que integran sus áreas de trabajo es muy alta.

De esta manera, los círculos de la verdad, como ocurre con otras herramientas que integran buenas prácticas relacionadas con la mejora continua, no pueden desarrollarse sin un estilo de dirección participativo, comunicativo, basado en un liderazgo de corte situacional y en un entorno de delegación total de funciones a ciertos empleados (lo que hoy en día se conoce como empowerment en el ámbito empresarial).

Por esta razón, se trata de una técnica muy utilizada por las organizaciones que poseen un enfoque hacia la Gestión por Procesos, puesto que una de las características que debe poseer este enfoque es que algunos trabajadores, se hacen responsables (dueños o propietarios) de determinados procesos que lleva a cabo la organización, y su labor consiste en supervisar su correcto funcionamiento, y mejorarlos permanentemente de manera autónoma.

BENEFICIOS

El principal beneficio, como se ha descrito con anterioridad, es el de la solución de los problemas detectados o el de la mejora de algún área funcional que en la mayor parte de las ocasiones repercute positivamente sobre los puestos de trabajo de los propios integrantes.

Además, cuando se implantan de manera adecuada, representan una buena herramienta para aumentar la concienciación, sensibilización, integración y comunicación de los recursos humanos de la empresa.

También fomentan la formación continua a través del intercambio de conocimiento que se genera en las reuniones de trabajo desarrolladas y la motivación extrínseca de los trabajadores, puesto que el equipo se siente partícipe del proceso de gestión al observar que sus propuestas son recogidas, analizadas y posteriormente implantadas por los responsables de la empresa.

Por esta razón es importante, sea cual sea el resultado de los círculos, que las propuestas que se generen sean bien recibidas y agradecidas por la organización, y en los casos en los que se estime oportuno, reconocidas públicamente o incluso incentivadas de alguna manera.

FUNCIONAMIENTO DE LOS CIRCULOS

Se recomienda que en los círculos participen entre 4 y 8 personas, aunque este número puede variarse levemente en determinadas situaciones.

En los casos en los que existan más personas interesadas en participar en las primeras fases, se podrán realizar reuniones diferentes con los mismos temas de debate y análisis. Se recomienda que a estas reuniones no asistan los responsables de los equipos de trabajo para no coartar la participación de sus integrantes.

Como se ha mencionado con anterioridad, al principio, deberá existir un facilitador del proceso que oriente y guíe al grupo, fomentando la participación de sus integrantes y mediando en situaciones de conflicto. En ningún caso ejercerá algún efecto moderador sobre las conclusiones o acuerdos propuestos por el grupo. Este facilitador no tiene la responsabilidad de valorar ni aconsejar en ningún momento las propuestas derivadas del trabajo del equipo. Además, deberá nombrarse entre los asistentes a un coordinador o portavoz que sea el encargado de trasladar los resultados del círculo a los responsables de la organización para que actúen en consecuencia.

Este portavoz elabora un informe que recoja los temas planteados y la descripción exhaustiva (objetivos, acciones, plazos, recursos, etc…) sobre las acciones de mejora propuestas y su posterior implantación. Es conveniente que la estructura de este informe, sea facilitada por la organización incluyendo los campos que estime oportunos. Este documento no estará firmado por ningún individuo, puesto que es el resultado del grupo de trabajo.

Una vez aprobados los planes de acción de los primeros círculos de calidad, y mediante la línea principal de ejecución, se repite el ciclo, seleccionando nuevos temas o áreas de la organización para la formación de otros círculos de calidad.

La periodicidad y participación de las personas que integran las distintas áreas funcionales, será diferente en cada caso, en relación con la magnitud de la organización, su estructura funcional, el área de negocio en el que se desarrolla, o incluso la cultura o experiencia que se posea en este sentido.

Se recomienda convocar un círculo de calidad por departamento o área, como mínimo cada ejercicio natural. No existiendo un máximo para el caso de los círculos que se generan de forma espontánea. En los casos en los que los círculos se generen de forma espontánea, este hecho, deberá ser comunicado al área de dirección junto con el tema principal a tratar quien autorizará y facilitará el desarrollo de la experiencia.
Vínculo del mantenimiento con la calidad

El mantenimiento tiene un enlace directo con la calidad de los productos. El equipo con un buen mantenimiento produce menos desperdicios que el equipo con un mantenimiento deficiente. El mantenimiento puede contribuir de manera significativa a mejorar y mantener productos de calidad; por ejemplo, la capacidad de una máquina/herramienta en su mejor condición producirá más del 99% de piezas dentro de las tolerancias aceptadas. Después de que la máquina ha estado en servicio durante algún tiempo y se ha presentado desgaste en algunos de los componentes de la máquina, habrá mayor traqueteo y vibración. La distribución de las características de calidad tendrá mayor variación y se producirán más piezas fuera de las especificaciones. Además, más piezas tendrán algunas características de calidad particulares alejadas del valor meta de dichas características. En términos generales, un proceso fuera de control genera productos defectuosos y, en consecuencia, aumenta los costos de producción, lo cual se refleja en una menor rentabilidad, que pone en peligro la supervivencia de la organización. El mantenimiento preventivo basado en las condiciones emplea una estrategia de mantenimiento de ciclo cerrado en la que se obtiene información del equipo y se utiliza para tomar decisiones para el mantenimiento planeado. La decisión de mantenimiento generalmente se basa en el empleo de un umbral, el cual, una vez alcanzado, significa que debe realizarse mantenimiento. Tal estrategia asegurará una alta calidad del producto, especialmente si el umbral se elige de tal manera que el equipo no se deteriore hasta un grado en el que se generen productos defectuosos o casi defectuosos. El mantenimiento es un sistema que opera en paralelo con la función de producción. La principal salida de la producción es el producto deseado con un cierto nivel de calidad, que es definida por el cliente. Conforme continúa el proceso de producción, se genera una salida secundaria, a saber, la demanda de mantenimiento, que es una entrada al proceso de mantenimiento.

La salida del mantenimiento es un equipo en condiciones de dar servicio. Un equipo con un buen mantenimiento aumenta la capacidad de producción y representa una entrada secundaria a producción. Por lo tanto, el mantenimiento afecta la producción al aumentar la capacidad de producción y controlar la calidad y la cantidad de la salida. La siguiente figura ilustra las relaciones entre producción, calidad y mantenimiento.

Relación entre producción, calidad y mantenimiento.

Monografias.com

Un informe mensual sobre el porcentaje de trabajos repetidos y rechazados de productos, puede ayudar a identificar cuáles máquinas requieren una investigación para determinar las causas de problemas de calidad. Una vez que se investigan las máquinas, se tomará una medida de acción correctiva para remediar el problema. La medida puede dar por resultado una modificación de la política actual de mantenimiento y de la capacitación de la fuerza de trabajo de un oficio particular
Conclusiones

La importancia del control de la calidad del mantenimiento se basa en que asegura reparaciones de alta calidad, estándares exactos, máxima disponibilidad, extensión del ciclo de vida del equipo y tasas eficientes de producción del equipo.

Lo que ha ocurrido a lo largo del tiempo es que este control de calidad se ha implantado en las procesos como tal y no en el mantenimiento. Por ello se han formulado los aspectos relacionados con la calidad de los productos.

Al aplicar estas actividades mencionadas y técnicas de control de proceso, se garantiza una mejora en los proceso de mantenimiento y por ende un producto en buenas condiciones, para así satisfacer las exigencias del cliente.
Bibliografía

Administración de la producción y las operaciones. Autor: Everett E. Adam,jr y Rhonald J. Ebert. Cuarta Edición

Autor:

Lameda Rocel

Mata Marion

Olivares Arianna

Padrino Danielis

Docente:

Scandra Mora.

Enviado por:

Iván José Turmero Astros

Monografias.com

Republica Bolivariana de Venezuela.

Universidad Nacional Experimental Politécnica

“Antonio José de Sucre”.

Vice Rectorado Puerto Ordaz

Ciudad Guayana, Septiembre de 2012

*****************************************************
Elementos conceptuales sobre tecnologia y gestion tecnologica

Introducción
Elementos Conceptuales, Tecnología y Gestión Tecnológica
Efectos de la Tecnología en los Países Latinoamericanos
Estímulo e Incentivos a la Contratación de Empresas de Asistencia Técnicas Nacionales
Administración de Proyectos Tecnológicos
Conclusión
Bibliografía

Introducción

La sociedad en la que vivimos se no podría ser conciba como si no fuera gracias a un elemento que a unificado las comunicaciones, llevado el entretenimiento a nivelas inimaginados, un elemento que ha facilitado nuestra vida, ha hecho mas productivas las industrias y mas accesible el conocimiento. Nos estamos refiriendo a la tecnología.

El presente trabajo es una breve recopilación de los beneficios que la tecnología a aportado a la sociedad moderna., en que cosiste la misma, áreas especificas del conocimiento que han sido favorecidas por esta, además de una breve mención de su mas adecuado representante, el computador personal.

Tecnología es el conjunto de saberes y habilidades que permiten construir objetos y máquinas para adaptar el medio y satisfacer nuestras necesidades.

A pesar de que la base de la ciencia es el método científico y que este es relativamente reciente, concebido en la revolución científica, esta surge de la necesidad de dar una explicación a todo lo desconocido por lo cual es natural decir que la ciencia nace en la prehistoria, a diferencia de la tecnología que se crea en el momento en que el hombre toma conciencia de producir conocimiento y utilizar técnicas para resolver sus problemas. “La ciencia es el saber conceptual oficial de una sociedad, el cual es utilizado para comprender el mundo, para suministrar explicaciones, relatos coherentes, clasificaciones lo más organizadas posibles de los seres, los objetos, los acontecimientos de la vida humana”

Monografias.com

UNIDAD I

Elementos Conceptuales, Tecnología y Gestión Tecnológica

I.I Concepto de Gestión de la tecnología

Tecnología: Es el conjunto de conocimientos técnicos, ordenados científicamente, que permiten diseñar y crear bienes y servicios que facilitan la adaptación al medio ambiente y satisfacer tanto las necesidades esenciales como los deseos de las personas. Es importante mencionar que esta palabra es de origen griego, formada por téchne (arte, técnica u oficio, que puede ser traducido como destreza) y logia (el estudio de algo). Aunque hay muchas tecnologías muy diferentes entre sí, es frecuente usar el término en singular para referirse a una de ellas o al conjunto de todas. Cuando se lo escribe con mayúscula, Tecnología, puede referirse tanto a la disciplina teórica que estudia los saberes comunes a todas las tecnologías como a educación tecnológica, la disciplina escolar abocada a la familiarización con las tecnologías más importantes.

Gestión

Es un proceso para llevar a cabo actividades productivas con el fin de generar con mayor eficiencia todas las actividades que se quieran realizar. Es importante resaltar que existen diferentes tipos de gestiones, entre las cuales se encuentran la gestión administrativa, la gestión social, la gestión de conocimiento y la gestión de tecnología entre otras. También podemos decir que es la capacidad de la institución para definir, alcanzar y evaluar sus propósitos, con el adecuado uso de los recursos disponibles. El objetivo de la gestión es lograr la máxima contribución de los recursos a la obtención de los productos/servicios con rentabilidad.

Gestión de la Tecnología

Es una actividad organizacional mediante la cual se define e implanta la tecnología necesaria para el desarrollo de objetivos y metas de una organización en materia de calidad, efectividad, adición de valor y competitividad. En términos generales, se referirá a la acción y al efecto de administrar o gestionar un negocio. A través de una gestión se llevarán a cabo diversas diligencias y trámites, las cuales, conducirán al logro de un objetivo determinado.

En el ambiente empresarial la gestión tecnológica es una práctica del conocimiento derivado del análisis y la interpretación de las observaciones en el comportamiento del desarrollo tecnológico. Así como también en el proceso social y resultado de las observaciones de este proceso en organizaciones y países se obtiene el desarrollo global de las sociedades modernas; es decir, tiene una gran relación tanto con la economía como con la administración porque genera una serie de actividades propias que son realizadas en forma sistemática mediante unos procesos básicos que desarrollan funciones de gestión tecnológica. Por tanto el término “tecnológico” equivale a “científico-técnico”.

La tecnología abarca, tanto el proceso de creación como los resultados: mecánica, materiales, del calor y frío, eléctrica, electrónica, química, bioquímica, nuclear, telecomunicaciones, de la información.

Según Thompson clasifica la tecnología en dos tipos básicos:

Tecnología Flexible: La flexibilidad de la tecnología infiere a la amplitud con que las máquinas, el conocimiento técnico y las materias primas pueden ser utilizadas en otros productos o servicios. Dicha de otra manera es aquella que tiene varias y diferentes formalidades. Por Ejemplo: La industria alimenticia, la automotriz, los medicamentos, etc.

Tecnología Fija: Es aquella que no puede utilizarse en otro productos o servicios. También puede decirse que es aquella que no esta cambiando continuamente. Por Ejemplo: Las refinerías de petróleo, la siderúrgica, cemento y petroquímica.

Sin embargo, a pesar de la clarificación de Thompson existen otras, las cuales se mencionan a continuación:

Tecnología Blanda.

Tecnología de Equipo.

Tecnología de Operación.

Tecnología de Producto.

Tecnología Dura.

Tecnología Limpia.

Características de la Tecnología.

La tecnología tiene ciertas características generales, como lo son: la especialización, la integración, la discontinuidad y el cambio. Como la tecnología aumenta la especialización tiende a aumentar.

La integración es mucho más difícil en una sociedad de alta tecnología que en la de menor tecnología, porque la primera tiende a hacer más complejo un sistema y sus partes más interdependientes. El flujo de tecnología no es una corriente continua, sino más bien una serie de descubrimientos de nuevos avances. La revolución tecnológica, produce tal vez, con cierta demora una revolución social paralela, ya que, tienen cambios tan rápidos que van creando problemas sociales mucho antes de que la sociedad sea capaz de encontrar soluciones. En el puesto de trabajo se requiere de una serie de cambios en las formas de organización, estilos de supervisión, estructuras de recompensas y muchos otros. Para un ajuste a la tecnología, lo que se requiere es más movilidad económica y social, ocupacional y geográfica, administrativa y del empleado.

Impacto de la Tecnología.

La influencia de la tecnología sobre la organización y sus participantes es muy grande, pero en resumen podríamos decir:

La tecnología tiene la propiedad de determinar la naturaleza de la estructura organizacional y el comportamiento organizacional de las empresas. Se habla de imperativo tecnológico cuando se refiere al hecho de que es la tecnología la que determina (y no influencia simplemente) la estructura de la organización y su comportamiento. A pesar de lo exagerado de esta afirmación, no hay duda alguna de que existe un fuerte impacto de la tecnología sobre la vida, naturaleza y funcionamiento de las organizaciones.

La tecnología, esto es, la racionalidad técnica, se volvió sinónimo de eficiencia. La eficiencia se volvió al criterio normativo por el cual los administradores y las organizaciones acostumbran ser evaluados.

La tecnología, en nombre del progreso, crea incentivos en todos los tipos de empresas, para llevar a los administradores a mejorar cada vez más su eficiencia, pero siempre dentro de los límites del criterio normativo de producir eficiencia.

El diseño organizacional es profundamente afectado por la tecnología utilizada por la organización: las firmas de producción en masa con éxitos tendían a ser organizadas en líneas clásicas, con deberes y responsabilidades claramente definidos, unidad de mando, clara distinción entre línea y staff y estrecha amplitud de control (cinco a seis subordinados para cada jefe ejecutivo). En la tecnología de producción en masa la forma burocrática de organización se muestra asociada con el éxito.

I.II Gestión Tecnológica desde el punto de Vista de la Administración

La gestión tecnológica es una aplicación completamente para lograr la eficiencia de las organizaciones y por lo tanto guarda relación con la administración debido a que se revela en sus planes, políticas y estrategias tecnológicas para la adquisición, uso y creación de tecnología, así como cuando se asume la innovación como eje de las estrategias para la gestión de procesos de aplicación en el conocimiento así extender el rango de actividades humanas para producir bienes y servicios.

En el ámbito empresarial la gestión tecnológica es una práctica del conocimiento derivado del análisis y la interpretación de las observaciones en el comportamiento del desarrollo tecnológico. Así como también en el proceso social y resultado de las observaciones de este proceso en organizaciones y países se obtiene el desarrollo global de las sociedades modernas, es decir, tiene gran relación con la economía como con la administración porque genera una serie de actividades propias que son realizadas en forma sistemática mediante unos procesos básicos que desarrollan funciones de gestión tecnológica.

I.III Gestión Tecnológica y su relación con la tecnología

La relación existente entre gestión y tecnología tiene sus fundamentos en las necesidades planteadas por las sociedades y en el interés de las empresas por lograr sus metas de formas poco ortodoxas pero influyentes a su interior. Las organizaciones que implementan tecnología como parte de sus procesos productivos, lo hacen bien sea como insumo, como producto de comercialización o simplemente la adquieren en el mercado para inducirle una transformación posterior.

Según McKenzie, en la visión tradicional de la utilización de la tecnología, se aprecia una implementación con relación a temas económicos, a una comunicación explícita con el mercado de interés, una evaluación de los riesgos en los que se puede incurrir, y una creatividad proveniente del elemento que la usa como un recurso definido. Es una utilización de tecnología para el progreso de la organización.

Partiendo del hecho de que la gestión puede manejarse como operatividad de funciones o como labor estratégica de procedimientos, se logra que la tecnología y la administración se unan, utilizando ámbitos gestionables que repercuten en el desarrollo de productos, procesos, conocimientos y manejos adecuados de información (por el lado operativo) y en el posicionamiento, sinergia, competencia, previsión de sucesos y adaptabilidad a condiciones superpuestas por el mercado (por el lado estratégico). Lo que interesa es la coherencia planteada entre los dos conceptos mediante la utilización de la gestión para generar aquello que la empresa requiere para su desarrollo viable.

Como puede verse, la gestión influye en todos los procesos de la empresa, generando un ordenamiento de funciones, entre las que se puede contar con la administración de la información, la gerencia de procesos administrativos y creativos, la administración de procesos productivos y la gestión del conocimiento.

I.IV Canales para la transferencia tecnológica

La transferencia tecnológica es un proceso mediante el cual se identifican, categorizar y caracterizan las necesidades y demandas tecnológicas de los productores de un sector determinado y se formulan soluciones. Mediante la planeación estratégicas, la estructura organizacional y la innovación, se busca satisfacer necesidades a nivel interno para optimizar resultados a nivel externo.

Por la cual se busca intensificar, categorizar y caracterizar las necesidades y demandas tecnológicas de los productores de un sector determinado donde se hace énfasis en el sector, el medio ambiente y la profesión organizacional y la innovación, con la cual se busca satisfacer las necesidades a nivel interno para optimizar resultados a nivel extremo. Así mismo, la transferencia tecnológica se da no solo con la compra de equipos o adquisición de nuevas tecnologías sino también tiene que ver con el recurso humano y con otras áreas organizacionales; para efectuarse se debe cumplir con diferentes etapas que definen cual será su labor positiva o no de acuerdo con las características de cada organización.

No existe una determinada secuencia de etapas, esto va a depender del sistema que adopte la transferencia como tal, entre tales etapas se encuentra la identificación de necesidades, la generación de tecnología o su adquisición, asimilación y difusión, la innovación, el análisis de mercado y de factibilidad.

La transferencia de Tecnología tiene lugar cuando una organización pone a disposición de otra una Tecnología innovadora, ya sea a través de un contrato de licencia, la creación de una empresa conjunta, un acuerdo de fabricación o un acuerdo de comercialización con asistencia técnica. O bien, cuando un profesional exporta sus conocimientos hacia otro establecimiento, país, región, etc.

Pueden distinguirse diversos tipos de transferencia de Tecnología:

Un solo proveedor de la Tecnología (por ejemplo, en el caso de una inversión directa extranjera en una empresa subsidiaria de plena propiedad).

Solamente el usuario de la Tecnología en el país anfitrión (por ejemplo, en el caso de copiar la Tecnología, incluida la ingeniería de inversión por un ciudadano del país anfitrión).

Tanto el proveedor como el usuario de la Tecnología. Este caso puede a su vez distinguirse.

Transferencias con condiciones comerciales estipuladas respecto al uso de la Tecnología (por ejemplo., otorgamiento de licencias de Tecnología o empresas comunes).

Transferencias sin tales condiciones (compra de una máquina en el mercado internacional).

Tecnológica.

La política tecnológica contribuye a que las empresas productivas usen la tecnología que en cada circunstancia, sea la más eficiente. Por lo común los procesos que sigan las empresas para la adopción de la mejor tecnología son promovidos por las fuerzas del mercado. Sin embargo, dada las características de los mercados de información y diversas imperfecciones de los mercados de capital, es necesario que la política asuma una posición activa. La política tecnológica tiene una carácter cambiable para compensar o eliminar fallas del mercado, y eso solo cuando el costo de dicha acción sea menor que el beneficio que obtendría la sociedad.

En este caso la Política Tecnológica debe dirigirse a eliminar regulaciones graves, suplantar ciertas necesidades financieras de las empresas, ayudarlas a mejorar su actitud frente al cambio y perfeccionar su acceso al mercado tecnológico. Con base a lo anterior es necesario que la política Tecnológica:

Estimule la capacidad empresarial para aprender nuevas tecnologías, crear nuevos productos y adaptarse a los cambios del mercado.

Promover el aumento de la calidad y fomentar actitudes positivas frente a la medición y el cumplimiento de normas precisas.

Impulse la vinculación entre la investigación orientada y las empresas, así como la participación de las universidades en la gestión tecnológica.

Procurar que se perfeccione la capacidad de diseño y de realización técnica de las empresas.

Apoyar la implantación de nuevas técnicas en todo el aparato productivo.

Contribuir a facilitar el acceso al mercado financiero, de las empresas que deseen llevar a cabo algún proceso innovador.

UNIDAD II

Efectos de la Tecnología en los Países Latinoamericanos

Vivimos hoy en lo que se conoce como la sociedad de conocimiento, incrementándose la información y el saber de manera vertiginosa, transformándose muy rápidamente los procesos, resultados y productos en las organizaciones. Se ha observado la actuación de venezolanos y latinoamericanos en el torno de la ciencia y la tecnología que conciben como criterios ideológicos y personales como políticos en el crecimiento económico y el desarrollo social.

La tecnología se ha convertido en una de los agentes propulsores del desarrollo del país, por lo que se desenvuelve dentro de un marco estructural de toda actividad de investigación para propiciar la utilización de sistemas extranjeros con el fin de solucionar dicha actividades.

II.I Escenario Internacional

La producción de los países en uno de los puntos principales para la subsistencia del mismo, pero hay que tomar en cuenta que existe una gran diversidad de procesos que influyen en la misma. La globalización de estos puntos se inclina en una estrategia de comercialización, distribución y exportación de productos que generen aumento económico para sí.

Como consecuencia, el incremento de una comunidad social exige una mejor condición de vida, por lo que el país tendrá la obligación de responder por la misma. Por consiguiente la productividad de un órgano sustentable de una región es concierne para que sea una opción de solución.

Si se coloca la tecnología en comparación a una empresa de producción, obtendremos que la funcionalidad de la misma se refleje en la vigorosa y creciente tecnología. La mayor parte del desarrollo de una nación depende de la tecnología, tanto así que en consecuencia de no tenerla las interacciones entre distintos grupos comerciantes o empresas nacionales, seria de carecimiento excesivo.

Hoy día si observamos a nuestro alrededor la tecnología influye en diversos aspectos de desarrollo industrial, social, económico y político. Con este gran sistema globalizamos y resolvemos más precisamente la problemática que se presenta. Es importante resaltar que la comunicación influye como factor indispensable en el sustento y desarrollo de un país, tanto económico como social, ya que por medio de ese medio se obtendrá el flujo de objetivos que se quiere. Este gran ciclo completo depende prácticamente de una rama tecnológica, tanto así que el uso de teléfono móvil es tan indispensable como la utilización de computadoras en empresas para la mayor realización de actividades.

Escenario Nacional; Se refiere al mantenimiento de la economía a base de la producción y exportación de productos y servicios que generen origen monetario para la concentración monetaria dentro del país. La moneda nacional sigue valorizándose discretamente frente al dólar, pero se mantiene la doble moneda en las transacciones ínter empresariales y en las relaciones con la población.

Se mantiene la tendencia al crecimiento en la demanda nacional de bienes y servicios.

El acceso de mercados públicos y privados se tiene una tendencia a ser una mejoría.

Disminuye la participación del capital extranjero en las empresas del sector, como consecuencia de la política nacional.

Se incrementa las exigencias de cumplimientos de normas de calidad, tanto internacionales como nacionales, en las relaciones comerciales nacionales, referidas a productos y servicios.

Se eleva la competitividad de las empresas nacionales a partir de la implementación de las medidas emanadas del proceso de perfeccionamiento empresarial.

Se reducen los ingresos por concepto de tráfico telefónico internacional, como consecuencia del crecimiento de las tasas de pago entre países.

Avanza el proceso de perfeccionamiento empresarial y con ello la competitividad de nuestras empresas.

La Tendencia A La Concentración Y Centralización Del Capital

En el capítulo 23 del tomo I del capital titulado “la ley general de la acumulación capitalista” la cual se refiere al de deducir las principales implicaciones de los aspectos más generales y no de analizar sistemáticamente todos los factores que en circunstancia especificas pueden incidir sobre el mercado de trabajo.

Teniendo en vista este propósito, el aspecto más importante a ser destacado en el análisis, es el sistema capitalista, pues la relación entre la acumulación del capital y el comportamiento del empleo y de los salarios depende fundamentalmente del modo cómo evoluciona la parte del capital total que representa pago de salarios.

En las relaciones de Norte-sur lo primero que se destaca en la Economía internacional, es resolver la problemática que se presenta en los países menos desarrollados. Se han implementado diversas estrategias de sustento económico que con el tiempo van decayendo y por consecuencia se debe ir actualizando acorde a su necesidad.

Si tomamos en cuenta los aspectos más resaltantes de la problemática económica de los países más desarrollados, obtendremos una visión sostenible del aspecto político- económico, el cual va de la mano de una sociedad industrial y no industriales, capitalizando así el valor que representa el mantenimiento de una no industrialización relativa. Analistas e investigadores independientes proponen modelos de reestructuración global que critican el orden internacional vigente y hacen recomendaciones para buscar, en un mundo cada vez más interdependiente, un nuevo orden económico en el que se tengan en cuenta los intereses de los unos y otros sobre la base de la justicia y la equidad.

En los últimos años se han multiplicados las denuncias al dumping ecológico y social. Se le denomina dumping ecológico a las exportaciones a precios artificiales bajos que se consiguen con métodos productivos muy contaminantes y perjudiciales para el medio ambiente. Seguidamente se le conoce dumping social a las exportaciones a precios artificiales bajos que se consiguen mediante trabajadores mal pagado o esclavizado.

II.II El Nuevo Orden Internacional

Varios fenómenos son característicos de este nuevo orden internacional; podemos destacar en tres esferas distintas, tres procesos distintos que se han acompañado y han replanteado los esquemas del orden mundial en la guerra fría. En primer lugar tenemos en la esfera económica, los países occidentales han llegado a la última década del siglo XX envueltos en el denominado fenómeno de mundialización. Este fenómeno remite a la apertura de los mercados en el ámbito internacional, permitiendo el libre tránsito de mercancías, capitales y personas. Este fenómeno se considera que no es nuevo, pero a su vez se logra observar su gran efectividad que realiza con las aportaciones hechas por la evolución científico- tecnológico en el área de las comunicaciones y la informática.

La posibilidad de compartir información de forma instantánea con cualquier parte del mundo se ha convertido en la herramienta primordial de las empresas, debido a que con la misma las transacciones financieras se tornan tan rápidas como la misma comunicación que avanzaron. El mundo se convirtió en un pequeño espacio donde los capitales podían viajar tan rápido que las economías nacionales se vieron en ciertas dificultades con estos capitales.

El aumento de organizaciones destinadas a la defensa de estos valores ha aumentado a un ritmo impresionante. Las sociedades se han volcado en las organizaciones no gubernamentales como un medio para alcanzar los fines que por los medios tradicionales no han podido alcanzar.

Si vamos a la esfera política, hemos mencionado que la idea del mundo bipolar izado ha caído y se ha desmantelado a la par que el bosque socialista. Podemos identificar una superpotencia como EEUU que ha resultado con el poder en el ámbito político- militar y que sin embargo su economía ha sido de gran critica para los europeos. Aquí observamos dos fenómenos; el primero es la eficacia de las organizaciones donde el peso específico de los Estados es similar, en otro orden se encuentran los organismos donde los Estados se encuentran pesados por su capacidad político- militar como el Consejo de Seguridad que en el mejor de los casos se ha contentado con mantenerse al margen de los acontecimientos, sino interviniendo en favor de la causa de la superpotencia.

El Nuevo Orden Internacional La Historia; La mejor manera de entender el presente es volviendo atrás en algunos aspectos y tomar puntos que coincidan en lo que se está buscando. Existe una natural tendencia a eludir o ignorar la perspectiva histórica cuando se analizan los fenómenos del presente. Y sucede tanto en lo político, en los social y económico como en el campo de las relaciones internacionales.

Este principio se ha destacado en los años noventa en América, donde el sistema interamericano ha ejercido presiones y acciones para mantener o restablecer la democracia en países en los cuales ésta se vio amenazada.

Yendo un poco más atrás en el tiempo, a lo largo del siglo XIX, la intrusión estuvo constantemente presente en nuestra región. La gesta de la independencia fue una operación multilateral en términos militares. Podrá argumentarse que en esos años las nacionalidades en la América hispánica no estaban definidas. Pero el rio de la Plata y Chile si eran entidades nacionales diferentes y en ningún momento de la campaña libertadora se planteó una unión de los dos países. Lo mismo puede decirse de la campaña al Perú, ya que cuando San Martín se hizo cargo del gobierno en Lima, lo primero que hizo fue crear los símbolos nacionales correspondientes a una nación diferente. Por lo tanto, el proceso emancipador del siglo XIX nos da otro ejemplo de la actual “seguridad cooperativa”.

II.III Distribución De Los Recursos

Afectar recursos a la investigación y desarrollo (I+D) ayuda a alcanzar desarrollo sostenible, debido a que se incrementa el acervo en conocimiento. Es preciso tener en cuenta este indicador para desarrollar estrategias a largo plazo en I+D y aplicar los conocimientos para la evaluación de la situación actual y establecer las perspectivas en relación al desarrollo sostenible.

Si nos vamos a las realizaciones de trabajos actividades de tecnologías empleadas e implementadas en los países latinoamericanos, estamos tomando en cuenta una gran variedad de empresas, institutos, comercios y una gran variedad de distribuciones tanto de productos como de servicios y de bienes que se abocan al sustento de la nación, y que reflejan a su vez la efectiva labor que desempeña cada una.

La gran inversión que han realizado estos países en tecnología e informática es de innumerable superación monetaria, por lo que en su efecto, llevándolas al plano de estadística seria casi de la misma igualdad en los países, debido a que se han convertido en un azote a la tecnología en los distintos aspectos políticos, sociales, culturales y económicos. La tecnología influye mucho en la economía de un país, ya que con la misma se espera resolver y mejorar el estilo de vida de los habitantes, que en su efecto la utilización de esta herramienta se incrementa, y como estado responsable debe corregir y responder las necesidades de los mismos.

He de allí la distribución de recursos para las distintas adyacencias de la nación, con el propósito de desarrollar más como país y el de fomentar la producción y crear una buena imagen de tecnología.

Para hacer más factible el acceso a lo anteriormente dicho, se mostrara un pequeño ejemplo de distribución, que coincide con una distribución de gastos:

Monografias.com

Distribución De Los Recursos Humanos Empleados Y Entrenados

En el mundo actual la importancia de la tecnología y la aplicación de la misma, se han convertido en un enlace de estudio y tecnología debido a que generalmente la juventud estudiantil desde los primeros momentos de estudio, se le inculcan herramientas tecnológicas con las cuales suelen trabajar de manera eficaz. Un ejemplo claro es la distribución de las llamadas camainas que suelen darle al estudiante, la oportunidad de ejercer sus actividades con la plenitud de utilizar material tecnológico como lo es la computadora. Ahora bien, si globalizamos esto, encontraremos que no solo se presenta esta situación en estos lugares, sino también desde el lugar de donde provienen.

Para plantearnos mejor una visión de, cómo se ha venido llevando la distribución de recursos humanos que se han venido empleando y produciendo

Observemos esta gráfica:

Monografias.com

De acuerdo a la gráfica, al principio del año, la deficiencia era notable, pero años después, gracias a la distribución de la tecnología es visible el incremento de la misma en el país.

II.IV El Comercio Internacional de la Tecnología

La importancia que tienen las relaciones internacionales en el campo comercial, político y cultural ha alcanzado, a nivel mundial un profundo significado a tal grado que no se puede hablar tan solo intercambio de bienes sino de programas de integración.

La economía internacional plantea el estudio de los problemas que presentan las transacciones económicas internacionales, por ende cuando hablamos de economía internacional es vincular con los factores del comercio internacional. Comercio internacional es el intercambio de bienes económicos que se efectúa entre los habitantes de dos o más naciones, de tal manera, que se de origen a salidas de mercancías y entradas de las mismas que sean procedentes de otros países.

Cuando se habla de comercio internacional de tecnología, se habla de las distintas comercializaciones que hacen uno o más habitantes de una región, sugiriendo la implementación, obtención y adquisición de la tecnología que ofrece ese país, logrando acceder a una mayor eficacia de economía, tecnología y más. Los países buscan siempre el obtener el mayor desarrollo para sí, debido a que en su efecto, no se quisiera imponer a las adversidades que se le podrían presentar en un largo futuro como nación no actualizada.

Ventajas del comercio internacional:

Cada país se especializa en aquellos productos donde tienen una mayor eficiencia, lo cual permite utilizar mejor sus recursos productivos y elevar el nivel de vida de sus trabajadores.

Hace posible la oferta de productos que exceden el consumo a otros países, en otros mercados.

Los precios tienden a ser más estables.

Hace posible que un país importe aquellos bienes cuya producción interna no es suficiente y no sean producidos.

Equilibrio entre escases y el exceso.

Los movimientos de entrada y salida de mercancías dan paso a la balanza en el mercado internacional.

UNIDAD III

Estímulo e Incentivos a la Contratación de Empresas de Asistencia Técnicas Nacionales

La situación de crisis económica generalizada por la que ha atravesado el país, ha obligado a que las instituciones, tanto públicas como privadas, se transformen y tengan una visión más articulada en su conjunto, abriendo espacio para la concertación. Como una de las herramientas del Gobierno Nacional en su estrategia de apoyo a las pequeñas y medianas empresas, el Ministerio de Industria y Comercio implementa programas y plantea proyectos dirigidos a la Pequeña y mediana empresa, para la obtención descréditos a largo plazo y a su misma capacidad para negociar condiciones favorables con la Banca.

Esta situación, conjuntamente con la crisis por la cual viene atravesando Venezuela en los últimos años, ha provocado su estancamiento, el cual se refleja en el incremento de la tasa de desempleo y la comparecencia de fuentes alternas para la generación de ingresos; básicamente a través de la economía informal. Por otra parte, en el contexto económico mundial se ha demostrado que la PYME posee ciertas ventajas que le permiten adaptarse favorablemente a los cambios estratégicos relacionados con su desarrollo, lo cual justifica que cualquier inversión que realicen los gobiernos en proyectos de apoyo dirigido a este sector, tiene la mayor justificación económica y social.

La finalidad de los créditos a las PYMES es atender las necesidades de financiamiento de los pequeños y medianos empresarios tanto en el sector formal como informal incentivando la inversión en las actividades comerciales, productivas y servicios; orientado a la financiación de capital de trabajo o activo fijo.

Los créditos a la micro, pequeña y mediana empresa (MIPYMES), son instrumentos que les son otorgados a estas compañías que los requieran, a través del Estado (por medio del Fondo Nacional Para el Desarrollo de la Micro, Pequeña y Mediana Empresa, “FONAPYME”) y de entidades financieras, con la finalidad de alcanzar un desarrollo más integrado, equilibrado, equitativo y eficiente de la estructura productiva y de la sociedad venezolana en general.

Para todos los efectos de la implementación de los distintos instrumentos, se entiende por micro, pequeña y mediana empresa, toda unidad de explotación económica, realizada por persona natural o jurídica, en actividades agropecuarias, industriales, comerciales o de servicios, que responda a los siguientes parámetros y características:

1. Mediana empresa:

Plantilla de personal entre cincuenta (50) y ciento cincuenta (150) empleados.

Facturación anual entre cien mil (100.000) y ciento cincuenta mil (150.000) unidades tributarias.

2. Pequeña empresa:

Plantilla de personal entre cinco (5) y cincuenta (50) empleados.

Facturación anual entre diez mil (10.000) y cien mil (100.000) unidades tributarias.

3. Microempresa:

Plantilla de personal no superior a cinco (5) empleados.

Facturación anual entre quinientas (500) y diez mil (10.000) unidades tributarias.

Incentivos

Como un incentivo directo para la creación y constitución de nuevas micro, pequeñas y medianas empresas, se establece durante al menos cinco años consecutivos desde su creación, la exoneración del impuesto sobre la renta y a los activos empresariales a las empresas micro, pequeñas o medianas de nueva creación.

Un incentivo a la generación de empleo, se establece una reducción anual del impuesto sobre la renta de las micro, pequeñas y medianas empresas, proporcional al incremento que en el mismo año fiscal hayan realizado dichas empresas en su plantilla de personal.

Las MIPYMES podrán reponer el Impuesto al Valor Agregado (IVA) hasta sesenta días después de haber realizado la venta. Además, los municipios podrán establecer regímenes tributarios especiales para estimular la creación de éstas empresas, hasta por un término de diez años a partir de la constitución de los respectivos establecimientos empresariales

Como un incentivo a la capacitación laboral y profesional de los obreros, empleados y gerentes de las micro, pequeñas y empresas, está establecido un crédito fiscal equivalente al menos al ocho por mil (8 %o) de la suma total anual de los sueldos, salarios y remuneraciones en general por servicios prestados, abonados al personal ocupado en dichos establecimientos, y sin tener en cuenta la clase de trabajo que aquel realice.

El Ministerio de Producción y Comercio, está en el deber de destinar recursos presupuestarios para la formación y capacitación de empresarios de los micros, pequeñas y medianas empresas.

III.I Ministerio de Estado para la Ciencia y Tecnología

En 1999 se crea el Ministerio de Ciencia y Tecnología actualmente Ministerio del Poder Popular para Ciencia y Tecnología como parte de la profundas transformaciones implementadas para dar al estado una estructura y funcionalidad coherentes al nuevo proyecto de país y en aras de que los productos de la ciencia, la tecnología y la innovación se articulen permanentemente y se orienten para agregar valor a los componentes reales del desarrollo sustentable.

Misión

El Ministerio del Poder Popular para Ciencia y Tecnología, como parte del Estado Venezolano, tiene como misión conformar y mantener el Sistema Nacional de Ciencia, Tecnología e Innovación. Como ente rector, coordinador y articulador del sistema, el Ministerio del Poder Popular para Ciencia y Tecnología, enfoca su esfuerzo en la vinculación de los diversos agentes e instituciones, a fin de crear y consolidar redes abiertas, flexibles y procesos de trabajo integrados y fluidos, donde el conocimiento satisfaga demandas, aporte soluciones y contribuya a dinamizar el aparato productivo venezolano, a satisfacer los requerimientos de la población y a mejorar su calidad de vida.

Visión

Hacer del Ministerio del Poder Popular para Ciencia y Tecnología, una institución al servicio del ser humano con visión global y de futuro, integradora y de amplia participación, comprometida con la generación, uso, difusión y adaptación del conocimiento científico y tecnológico necesarios para el desarrollo del país y el bienestar de la sociedad venezolana.

Ley Orgánica de Ciencia, Tecnología e Innovación; institutos Adscritos:

ABAE: Agencia Bolivariana para Actividades Espaciales. Diseña, coordina y ejecuta las políticas emanadas del Ejecutivo Nacional relacionadas con el uso pacífico del espacio ultraterrestre, y actuar como el ente descentralizado especializado en materia aeroespacial en el país. Es el organismo encargado del Proyecto Estratégico Satélite Simón Bolívar.

CENDIT: Centro Nacional de Desarrollo e Investigación en Telecomunicaciones. Es un centro de desarrollo tecnológico e investigación científica que se constituye como una Fundación del Estado sin fines de lucro. Entre sus principales funciones está el de promover e impulsar el desarrollo e investigación de las telecomunicaciones en Venezuela, orientando sus líneas de acción en función de las directrices establecidas en los planes de desarrollo del país.

CENDITEL: Centro Nacional de Desarrollo e Investigación en Tecnologías Libres. Impulsa a escala nacional las tecnologías de información y comunicación con estándares libres, promoviendo la investigación y el desarrollo de productos innovadores que conduzcan a la soberanía tecnológica del país.

*****************************************************
Que es la seguridad informatica

Seguridad informática
Introducción
Qué es la seguridad informática
Objetivos de la Seguridad Informática
Gestión del Riesgo
Amenazas

Seguridad informática

Desde la consolidación de Internet como medio de interconexión global, los incidentes de seguridad relacionados con sistemas informáticos vienen incrementándose de manera alarmante. Este hecho viene provocando una creciente necesidad de implantar mecanismos de protección que reduzcan al mínimo los riesgos asociados a los incidentes de seguridad. En este caso vamos a proporcionar una visión general de los aspectos más relevantes de la seguridad informática, observando esta disciplina desde un punto de vista estratégico y táctico.

Para ello destacaremos la conveniencia de afrontar su análisis mediante una aproximación de gestión, concretamente con un enfoque de gestión del riesgo. Para completar esta visión introductoria a la seguridad informática, mencionaremos las amenazas y las contramedidas más frecuentes que deberían considerarse en toda organización.

El objetivo de la seguridad informática es mantener la Integridad, Disponibilidad, Privacidad, Control y Autenticidad de la información manejada por computadora.

Se ocupa de proteger la información De la organización en cualquier forma en que se encuentre.

Debe velar por la transmisión, procesamiento y almacenamiento de la misma.

La seguridad no es un conjunto de medidas que se toman por única vez, sino un proceso dinámico en el que todos los actores juegan un rol permanente.

La seguridad debe abarcar las 3 aéreas de incumbencia (Personas/Procesos/Tecnología).

Introducción

La seguridad informática, de igual forma a como sucede con la seguridad aplicada a otros entornos, trata de minimizar los riesgos asociados al acceso y utilización de determinado sistema de forma no autorizada y en general malintencionada.

Esta visión de la seguridad informática implica la necesidad de gestión, fundamentalmente gestión del riesgo. Para ello, se deben evaluar y cuantificar los bienes a proteger, y en función de estos análisis, implantar medidas preventivas y correctivas que eliminen los riegos asociados o que los reduzcan hasta niveles manejables. En general cualquier persona consideraría poco razonable contratar a un agente de seguridad en exclusiva para proteger su domicilio. Posiblemente sería una medida de seguridad excelente para evitar accesos no autorizados a nuestro domicilio, sin embargo, muy pocos lo considerarían, simplemente por motivos económicos.

Tras evaluar el valor de los bienes a proteger, lo habitual sería considerar otras medidas más acordes con el valor de nuestros bienes. Podríamos pensar en una puerta blindada, un conserje compartido con otros vecinos o incluso un servicio de vigilancia privada basada en sensores, alarmas y acceso telefónico con una central de seguridad. Combinando estas medidas preventivas con otras correctivas como podría ser una póliza de seguro contra robo, alcanzaríamos un nivel de seguridad que podría considerarse adecuado.

Muchas veces sin hacerlo de forma explícita, habríamos evaluado el valor de nuestros bienes, los riesgos, el coste de las medidas de seguridad disponibles en el mercado y el nivel de protección que ofrecen. En seguridad informática, los principios mostrados con nuestro ejemplo de seguridad en el domicilio son igualmente aplicables. Las únicas diferencias aparecen por las particularidades técnicas asociadas a los sistemas informáticos.

La valoración económica de los bienes a proteger puede ser muchas veces una tarea compleja, la casuística de los riesgos potenciales muy grande, y la complejidad y diversidad de las medidas de seguridad disponibles difi culta su selección. Sin embargo, el fondo sigue siendo el mismo, seguridad implica proteger alguna entidad frente a un conjunto de riesgos y en este caso riesgos relacionados con los sistemas informáticos.

Qué es la seguridad informática

La seguridad informática es una disciplina que se encarga de proteger la integridad y la privacidad de la información almacenada en un sistema informático. De todas formas, no existe ninguna técnica que permita asegurar la inviolabilidad de un sistema.

Un sistema informático puede ser protegido desde un punto de vista lógico (con el desarrollo de software) o físico (vinculado al mantenimiento eléctrico).

Por otra parte, las amenazas pueden proceder desde programas dañinos que se instalan en la computadora (como virus) o llegan por vía remota (los delincuentes que se conectan a internet e ingresan a distintos sistemas).Entre las herramientas más usadas de la seguridad informática, se encuentran los programas antivirus, los firewalls y el uso de contraseñas.

Un sistema seguro debe ser integro, confidencial, irrefutable y tener buena disponibilidad.De todas formas, como en la mayoría de los ámbitos de la seguridad, lo esencial sigue siendo la capacitación de los usuarios.

Una persona que conoce cómo protegerse de las amenazas sabrá utilizar sus recursos de la mejor manera posible para evitar ataques o accidentes.

En otras palabras, puede decirse que la seguridad informática busca garantizar que los recursos de un sistema de información sean utilizados tal como una organización o un usuario lo ha decidido, sin intromisiones.

Objetivos de la Seguridad Informática

El objetivo de la seguridad informática es proteger los recursos informáticos valiosos de la organización, tales como la información, el hardware o el software.

A través de la adopción de las medidas adecuadas, la seguridad informática ayuda a la organización cumplir sus objetivos, protegiendo sus recursos fi nancieros, sus sistemas, su reputación, su situación legal, y otros bienes tanto tangibles como inmateriales. Desafortunadamente, en ocasiones se ve a la seguridad informática como algo que difi culta la consecución de los propios objetivos de la organización, imponiendo normas y procedimientos rígidos a los usuarios, a los sistemas y a los gestores.

Sin embargo debe verse a la seguridad informática, no como un objetivo en sí mismo, sino como un medio de apoyo a la consecución de los objetivos de la organización.

En general el principal objetivo de las empresas, es obtener beneficios y el de las organizaciones públicas, ofrecer un servicio eficiente y de calidad a los usuarios.

En las empresas privadas, la seguridad informática debería apoyar la consecución de beneficios. Para ello se deben proteger los sistemas para evitar las potenciales pérdidas que podrían ocasionar la degradación de su funcionalidad o el acceso a los sistemas por parte de personas no autorizadas.

De igual forma, las organizaciones públicas deben proteger sus sistemas para garantizar la oferta de sus servicios de forma eficiente y correcta.

En cualquier caso, los gestores de las diferentes organizaciones deberían considerar los objetivos de la propia organización e incorporar la seguridad de los sistemas desde un punto de vista amplio, como un medio con el que gestionar los riesgos que pueden comprometer la consecución de los propios objetivos, donde la cuantificación de los diferentes aspectos, muchas veces económica, debe ser central.

Gestión del Riesgo

La protección de los sistemas y de la información no suele eliminar completamente la posibilidad de que estos bienes sufran daños.

En consecuencia, los gestores deben implantar aquellas medidas de seguridad que lleven los riesgos hasta niveles aceptables, contando para ello con el coste de las medidas a implantar, con el valor de los bienes a proteger y con la cuantificación de las pérdidas que podrían derivarse de la aparición de determinado incidente de seguridad.

Los costes y beneficios de la seguridad deberían observarse cuidadosamente para asegurar que el coste de las medidas de seguridad no excedan los beneficios potenciales.

La seguridad debe ser apropiada y proporcionada al valor de los sistemas, al grado de dependencia de la organización a sus servicios y a la probabilidad y dimensión de los daños potenciales. Los requerimientos de seguridad variarán por tanto, dependiendo de cada organización y de cada sistema en particular. En cualquier caso, la seguridad informática exige habilidad para gestionar los riesgos de forma adecuada. Invirtiendo en medidas de seguridad, las organizaciones pueden reducir la frecuencia y la severidad de las pérdidas relacionadas con violaciones de la seguridad en sus sistemas.

Por ejemplo, una empresa puede estimar que está sufriendo pérdidas debidas a la manipulación fraudulenta de sus sistemas informáticos de inventariado, de contabilidad o de facturación. En este caso puede que ciertas medidas que mejoren los controles de acceso, reduzcan las pérdidas de forma significativa. Las organizaciones que implantan medidas adecuadas de seguridad, pueden obtener un conjunto de beneficios indirectos que también deberían considerarse.

Por ejemplo, una organización que cuente con sistemas de seguridad avanzados, puede desviar la atención de potenciales intrusos hacia víctimas menos protegidas, puede reducir la frecuencia de aparición de virus, puede generar una mejor percepción de los empleados y otros colaboradores hacia la propia empresa, aumentando la productividad y generando empatía de los empleados hacia los objetivos organizativos. Sin embargo, los beneficios que pueden obtenerse con medidas de seguridad presentan costes tanto directos como indirectos.

Los costes directos suelen ser sencillos de evaluar, incluyendo la compra, instalación y administración de las medidas de seguridad. Por su parte pueden observarse costes indirectos, como decremento en el rendimiento de los sistemas, pueden aparecer necesidades formativas nuevas para la plantilla o incluso determinadas medidas, como un excesivo celo en los controles, pueden minar la moral de los empleados. En muchos casos los costes asociados a las medidas de seguridad pueden exceder a los beneficios esperados por su implantación, en cuyo caso una correcta gestión llevaría a platearse su adopción frente a la posibilidad de simplemente tolerar el problema.

Amenazas

Los sistemas informáticos son vulnerables a multitud de amenazas que pueden ocasionar daños que resulten en pérdidas significativas. Los daños pueden variar desde simples errores en el uso de aplicaciones de gestión que comprometan la integridad de los datos, hasta catástrofes que inutilicen la totalidad de los sistemas.

Las pérdidas pueden aparecer por la actividad de intrusos externos a la organización, por accesos fraudulentos, por accesos no autorizados, por el uso erróneo de los sistemas por parte de empleados propios, o por la aparición de eventualidades en general destructivas. Los efectos de las diversas amenazas puedes ser muy variados. Unos pueden comprometer la integridad de la información o de los sistemas, otros pueden degradar la disponibilidad de los servicios y otros pueden estar relacionados con la confidencialidad de la información.

En cualquier caso una correcta gestión de los riesgos debe implicar un profundo conocimiento de las vulnerabilidades de los sistemas y de las amenazas que los pueden explotar. Las propias características de las organizaciones deben influir en las medidas de seguridad que resulten más adecuadas y más eficientes en términos de costes, para contrarrestar las amenazas o incluso para tolerarlas conociendo en todo caso sus implicaciones.

A continuación vamos a mostrar las amenazas más frecuentes que deberían ser tenidas en cuenta por toda organización como fuentes potenciales de pérdidas. Conviene destacar que la importancia de una u otra amenaza varía de forma significativa entre organizaciones distintas y que debería hacerse un estudio individualizado de sus repercusiones concretas y de la probabilidad de su aparición. 5. Amenazas a la privacidad de las personas.

La acumulación de enormes cantidades de datos de carácter personal por entidades públicas y privadas, unida a la capacidad de los sistemas informáticos para combinar y procesar las informaciones viene generando claras amenazas a la privacidad de los individuos. La constatación de estas amenazas por parte de la mayoría de países ha llevado a la elaboración de leyes y normas que limitan el tratamiento de los datos de carácter personal.

Estas amenazas no sólo afectan a los individuos, sino también a toda organización que manipule información sensible de personas. De no observarse la legislación vigente y en caso de no implantar las medidas adecuadas para su cumplimiento, se pueden derivar pérdidas, tanto económicas por las correspondientes multas, como de imagen corporativa

Autor:

Alcaraz Yamila.

Calderón Yesica.

Ceballos Cesar.

*****************************************************
Sistemas interorganizacionales

Propuestas de Soluciones e-commerce para la actividad desarrollada en una Empresa X, utilizando modelos de negocio electrónico B2B, B2C, observando las beneficios y riesgos entre sí

La revolución tecnológica llegó a nuestros mercados a finales del siglo XIX, dando continuidad satisfactoria en el siglo XX. Se tuvo que realizar enfoques basados en procesos, posteriormente basado en clientes, el mercadeo fue una base superior, donde la economía, las Industrias y las Empresas de producción y o servicio necesitan establecer nuevos flujos de comunicación con la sociedad.

La Internet cada vez prolonga más sus años de vida, la misma ha abierto varias puertas y ha generado cambios en la forma de pensar en el enfoque al mercado. Esta nueva variante de trabajar, y gestionar la eficiencia, eficacia y efectividad; la Innovación; la creación del valor; nuevas relaciones de negocio es conocida como e-business.

Con el desarrollo de esta nueva forma de gestionar el negocio electrónico, los clientes se volcaron más exigentes, más informados, y se hizo más dependiente a la tecnología de información, para poder responder a las circunstancias que prevalecían.

Todo este cambio, esta nueva forma de hacer negocio es llamada, e-business (negocio electrónico), el cual no es una simple forma de hacer negocio o un canal de venta y relación entre la organización y el cliente, sino que va más allá, es una iniciativa de negocio que transforma las relaciones de negocio, es una nueva forma de gestionar la eficiencia, la innovación, la velocidad, y la creación del valor a la Empresa (Garza Pérez, 2003, citando a Hartman, Sifones y Dador 2000).

Muchas Empresas han intentado no desarrollar el e-business porque no ven el impacto positivo en la economía; pero es necesario tener un modelo estructurado del negocio electrónico ya que en la actualidad la Innovación, la Internet son canales potenciales para fomentar Sistemas Interorganizacionales que den trigo al desarrollo más rápido, mejor oportunidad, y exitosa economía financiera en la organización.

El e-business han traído consigo el desarrollo del e-commerce, este mismo es un proceso de negocio con la aplicación de la tecnología hacia la automatización de las transacciones de negocios y el flujo de trabajo, hay otros expertos como Gómez [1998] que lo define como una tecnología moderna comercial que consigna las necesidades semejantes de las organizaciones mercantiles y consumidores de disminuir costos mientras se mejora también la Calidad de bienes y servicios y se incrementa la rapidez del servicio de entrega.

El e-business hay autores que lo mencionan como son Garza Pérez [2003], Hatman et al [2000] como iniciativas de Internet que transforman las relaciones de negocio, ya sean relacionados b2b (business-to-business); b2c (business-to-costumer); intraempresariales o entre consumidores.

Está demostrado que la tecnología de la información juega un papel importante en el e-business, para completar su desempeño es necesario tener en cuenta herramientas tecnológicas de información; como son:

CRM, Customer Relationship Management. [Siebel, 2003] / Admistración de la Relación con el Cliente

SCM, Supply Chain Management. [Larson, 2001] / Admistración de la Cadena de Suministros

BI, Business Intelligence. [Raymon, 2003] / Inteligencia del Negocio

KM, Knowledge Management. [Allard Suzie y Holsapple Clyde, 2002] / Admistración del Conocimiento

ERP, Enterprise Resource Planning. [Kuei Chu Hua, 2002] / Admistración de los Recursos Empresariales

Con la idea de trabajar con un Control Total de la Calidad enfocamos la acción de nuestro trabajo a desarrollar soluciones en la Empresa que fabriquen mejores productos con la ayuda de nuestros clientes, como es lógico a menos costo, al tiempo que se elevan las ventas, mejorando nuestras utilidades, nuestras relaciones con proveedores, y con el objetivo final de convertir a nuestra Empresa en una organización superior.

Antes de mostrar las soluciones quiero destacar los modelos de e-business más usados:

B2B Business to Business

B2C Business to Consumer

B2A Business to Administration [esta actividad empresarial está dirigida a la Administración Pública]

B2E Business to Employee [actividad empresarial dirigida a los Empleados]

B2I Business to Investors [actividad empresarial dirigida a los Inversores]

C2C Consumer to Consumer [actividad dirigida a la relación entre consumidores]

C2B Consumer to Business [actividad dirigida a la relación de consumidores y el negocio]

A2B/C/A Administration to Business/Consumer/administrator (e-government) [A2B, esta actividad empresarial está dirigida a transacciones entre empresas y organizaciones gubernamentales; A2C, transacciones entre ciudadanos y organizaciones gubernamentales; A2C, esta actividad está dirigida a la relaciones organizaciones gubernamentales y al cliente, como ejemplo la seguridad social]

El modelo de negocio b2b (business-to-business) es un concepto que describe negocios entre Empresas. Permite que comercien electrónicamente con otras empresas, productoras, distribuidoras, o prestadoras de servicios a un comunicador final. El modelo de negocio b2c (business-to-consumer) es más conocido como comercio electrónico y describe las operaciones realizadas entre una empresa productora, distribuidora, o prestadora de servicios a un consumidor final.
Propuestas de Soluciones e-commerce para la actividad desarrollada en una Empresa X, utilizando modelos de negocio electrónico B2B, B2C, observando las beneficios y riesgos entre sí

Monografias.com

Monografias.com

Con estas soluciones podemos abarcar la mayoría de las herramientas antes mencionadas para la realización exitosa del e-business.

Que queremos:

1. Tomar decisiones más eficientes y ágiles auxiliándonos de la automatización de los procesos

2. Permitir un prestigio de penetración del mercado, o igualarnos a las más competitivas empresas

3. Seleccionar la mejor opción para necesidades específicas, teniendo como patrón un modelo de negocio de competencia, bajo premisas de comparación de claras y especificas

4. Integrar eficazmente la cadena de valor

5. Tomar decisiones efectivas para todas las partes contando con una buena práctica de disponibilidad de información

6. Una exitosa cartera de productos que satisfagan las expectativas de nuestros clientes

7. Investigar el desarrollo del e-business y desarrollar mejoras en nuestros Sistemas Interorganizacionales

8. Desarrollar nuevas formas de producir y vender productos

9. Calificar y estandarizar procesos nuevos en toda la empresa

10. Obtener ventajas económicas, utilizando la adecuada administración del conocimiento de la empresa, ya que el conocimiento se encuentre entre los obreros, técnicos es un recurso sumamente importante para la empresa

La idea:

Mostrarles a los usuarios ya sean proveedores, comercializadores, o clientes nacionales o internacionales artículos, productos, precios, y la información deseada para un exitoso negocio electrónico, a medida que aumenta el número de organizaciones en nuestro portal tienen más libertad los clientes de investigar, comparar precios y seleccionar el producto y/o servicio esperado, además de ofrecerles a los clientes y proveedores comodidades a la hora de realizar las compras, transacciones, ventas.

Poder reducir costos y aumentar los ingresos, ya que se le puede dar mejor seguimiento a los pedidos en la cadena de suministro, acota el tiempo utilizado en el proceso de contratación.

Reducir el tiempo de aprovisionamiento, planificación, reducción de inventarios, ciclos de fabricación, mejora el servicio al cliente, comunicación entre Cliente y Proveedor, ampliación del mercado, optimizar el uso y gestión de la Información.

Autor:

José Antonio Castellón García

Asignatura: SISTEMAS INTERORGANIZACIONALES

Curso: 2011-2012

Universidad Central “Martha Abreu” de Las Villas

Maestría Informática Empresarial

*****************************************************
Modelo de sistema de gestion de la calidad para el Telecentro Islavision

Resumen
Introducción
Población y muestra
Resultados esperados a partir de la aplicación práctica del sistema de gestión de la calidad según la NC ISO 9001:2008 en el Telecentro Islavisión

RESUMEN

Dentro de los medios de difusión masiva la televisión a través del tiempo ha desempeñado un papel fundamental. Esto alcanza mayor importancia si se considera que la satisfacción del televidente sólo se logra cuando se coordinan, de forma armónica los esfuerzos individuales y colectivos de todos los que intervienen en el ciclo completo del servicio.

El Objetivo General de la Investigación constituyó el diseño del sistema de gestión de calidad del telecentro Islavisión de conformidad con los requisitos de la Norma NC ISO 9001:2008 la calidad de los servicios del Telecentro Islavisión.

La propuesta contribuye a la elevación de los niveles de calidad de la gestión de la organización, así como de los programas televisivos que se trasmiten, lo que se traduce en el logro de televidentes fieles a la programación. En este aspecto se destaca que la presente investigación se corresponde con la Política de desarrollo del Instituto Cubano de Radio y Televisión (ICRT) que pretende que se implanten sistemas de gestión de la calidad en todos los telecentros del país como cultura, que aseguren la eficacia en la organización. El informe de investigación se estructura de la siguiente forma: Introducción donde se expresa la situación problemática y los elementos teóricos metodológicos de la investigación; el primer capítulo trata las principales tendencias sobre la gestión de la calidad, las definiciones de calidad; el segundo capítulo se expone el sistema de gestión de la calidad en el Telecentro Islavisión, se muestra los resultados del diagnóstico a la organización objeto de estudio práctico; un cuerpo de conclusiones y recomendaciones derivadas de la investigación; la bibliografía consultada y finalmente, un grupo de anexos de necesaria inclusión, como complemento de los resultados expuestos.
INTRODUCCIÓN

Con el avance tecnológico alcanzado y la entrada de la digitalización en el mundo de la televisión que agiliza los procesos y permite una mejor producción de audiovisuales se estrecha mucho más la competencia en el medio y con ello la exigencia de los públicos, ello crea un ambiente que obliga a la organización a ser más competitiva, innovadora y creativa.

Dentro de los medios de difusión masiva la televisión a través del tiempo ha desempeñado un papel fundamental. Esto alcanza mayor importancia si se considera que la satisfacción del televidente sólo se logra cuando se coordinan, de forma armónica los esfuerzos individuales y colectivos de todos los que intervienen en el ciclo completo del servicio.

La mayoría de los estudios en la televisión se centran en medir la calidad desde la óptica del producto; la calidad es analizada de forma independiente a la producción y desarrollo del producto audiovisual.

Según De la Nuez (2005), a pesar de que se han logrado avances en el proceso de integración de la calidad a la gestión empresarial general, predomina el enfoque técnico hacia ésta y se soslaya su papel como función de dirección, lo cual influye en que no forme parte aún de los valores de todos los miembros de la organización y no se conciban productos y servicios en correspondencia con los niveles de satisfacción esperados.

El resultado de implantar y mantener un sistema de gestión orientado al cliente, contribuye a garantizar al éxito de una organización, a partir de la definición de procesos que resulten claramente comprensibles, gestionables y perfectibles con la finalidad de asegurar la eficaz y eficiente operación así como el control de los procesos.

La importancia de implementar un Sistema de Calidad o de Gestión de la Calidad, ya sea para los productos o servicios de la organización, radica en el hecho de que sirve de plataforma para desarrollar desde el interior de la organización, un conjunto de actividades, procesos y procedimientos, enrutados a lograr que las características presentes tanto en el producto como en el servicio cumplan con los requisitos exigidos por el cliente.

El Municipio Especial Isla de la Juventud dispone de un Telecentro: Islavisión fundado en 1987. Es una televisión con un marcado carácter comunitario y que tiene como propósito informar el quehacer de un territorio en franco desarrollo y satisfacer desde una perspectiva esencialmente cultural, los intereses y necesidades informativas, educativas y de entretenimiento de los diferentes públicos.

Dirigir y operar una organización con éxito requiere gestionarla de forma sistemática. El sistema de gestión debe mejorar continuamente la eficacia y eficiencia del desempeño de la organización. Gestionar una organización incluye gestionar la calidad entre otras disciplinas de gestión, a partir de la definición de sistemas y procesos que resulten claramente comprensibles, gestionables y mejorables con la finalidad de asegurar la eficaz y eficiente operación y control de los procesos.

Como resultado del análisis crítico de la experiencia vivencial en el desempeño como Directora de Producción, las indagaciones empíricas (entrevistas, encuestas, análisis documental), realizadas en la etapa exploratoria de esta investigación, la autora pudo resumir que el Telecentro Islavisión en sus más de 23 años transmitiendo productos audiovisuales, ha recibido reconocimientos territoriales y nacionales. Sin embargo, se logró identificar dentro de los antecedentes de esta investigación un conjunto de situaciones problemáticas que se refieren a continuación:

ü La planificación y estrategia de la organización tiene afectaciones en el cumplimiento de políticas, objetivos y planes.

ü No se emplea el pleno potencial del personal para la mejora continua de las operaciones de la organización.

ü La división funcional de la organización dificulta la toma de decisiones.

ü Insuficiente gestión, utilización y conservación de los recursos.

ü Falta de sistematicidad en evaluaciones para cambio de nivel en personal artístico.

ü No se mide sistemáticamente la percepción de la sociedad sobre la imagen de la organización.

ü El Telecentro Islavisión no dispone de una metodología que integre los conocimientos y criterios organizacionales y de la comunidad para la realización de productos comunicativos de impacto que satisfagan las necesidades del poblador pinero.

En consecuencia, las acciones que se implementan no poseen la potencia ni la coherencia necesaria para ser eficientes y efectivas, ni se aprovecha sistemáticamente las oportunidades que se presentan para contribuir a la mejora de la organización y sus productos.

De lo anteriormente expresado se precisa como problema científico de la investigación: ¿Cómo contribuir al perfeccionamiento de la función calidad que repercuta en la mejora de los servicios del Telecentro Islavisión?

Por lo que se define como objeto de estudio: la función calidad y como campo de acción: la gestión de la calidad según la NC ISO 9001:2008 en el Telecentro Islavisión.

El objetivo de la investigación lo constituye: Diseñar el sistema de gestión de calidad del Telecentro Islavisión de conformidad con los requisitos de la Norma NC ISO 9001:2008 para mejorar la calidad de los servicios del Telecentro Islavisión.

Para el cumplimiento del objetivo se precisan las siguientes preguntas científicas:

1. ¿Cuáles son los referentes teóricos que sustentan la calidad como una función de la organización y su gestión en el sector empresarial cubano?

2. ¿Qué caracteriza en la actualidad el proceso de gestión de la calidad en el Telecentro Islavisión?

3. ¿Qué alternativa organizativa podría contribuir a perfeccionar la gestión de la calidad en el Telecentro Islavisión?

4. ¿Qué resultados podrían esperarse una vez aplicada en la práctica el sistema de gestión de calidad resultado de la investigación?

Para dar solución a dichas preguntas científicas se proponen las siguientes tareas científicas:

1. Sistematización de los referentes teóricos, que sustentan la calidad como una función de la organización y su gestión en el sector empresarial cubano.

2. Caracterización del estado actual del proceso de gestión de la calidad en el Telecentro Islavisión.

3. Diseño del Sistema de Gestión de la Calidad de conformidad con los requisitos de la Norma NC ISO 9001:2008 para mejorar la calidad de los servicios del Telecentro Islavisión.

4. Validación práctica del sistema de gestión de la calidad elaborado.

Para la realización del trabajo se emplearon los siguientes métodos y técnicas de investigación:

v Métodos del nivel teórico:

1. Análisis y Síntesis: se empleó para a partir de la información obtenida en la revisión bibliográfica realizada y el procesamiento de la misma conformar el marco teórico de la tesis y las generalizaciones del proceso de investigación.

2. Histórico lógico: permitió el análisis de las regularidades de la función calidad y su gestión en el sector empresarial en su sucesión cronológica; en aras de analizar su comportamiento evolutivo, su esencia y descubrir la lógica objetiva del desarrollo histórico de este proceso.

3. Enfoque de sistema: para abordar en su esencia e interrelación los diferentes elementos de un sistema de gestión de la calidad y el proceso de elaboración del manual para contribuir al perfeccionamiento de los servicios del Telecentro Islavisión

v Métodos del nivel empírico:

1. Encuestas: a clientes externos para recoger criterios acerca del grado de satisfacción con los servicios dados por el telecentro y a clientes internos relacionado con el comportamiento de la gestión de la calidad en la organización.

2. Entrevistas: a los jefes de áreas para profundizar en los diversos aspectos de la gestión y realización de los productos en el Telecentro Islavisión.

3. Revisión de documentos: para cumplir los requisitos del cliente, los legales y los reglamentarios aplicables a los productos y los propios de la organización definidos en leyes, resoluciones, circulares.

v Método matemático – estadístico:

1. Estadística descriptiva: para procesar, ilustrar y comparar los resultados del análisis de los datos obtenidos con la aplicación de diferentes métodos empíricos y el procesamiento de los mismos, permitiendo poner de manifiesto sus propiedades, realizar inferencias y llegar a conclusiones.
Población y muestra

La población se consideran todos los trabajadores del Telecentro Islavisión y cálculo de la muestra se aplicó el calculador del tamaño1 de la muestra basado en la adaptación de Creative Research Systems por J.B.Madrigal, donde se definió por la autora una población de 87 para un nivel de confianza del 95,0 % e intervalo de confianza de 4,0, obteniéndose un tamaño de muestra de 76 trabajadores. Ver anexo. El muestreo fue aleatorio simple.

La población para encuestas a televidentes es de 86 420 habitantes donde un 47,0 % es hombre y un 53,0 % mujer; de ellos el 86% viven en zonas urbanas y el 14,0 % en zonas rurales. Para el cálculo de la muestra de los televidentes se empleó los criterios2 establecidos por el Centro de Investigaciones del ICRT3 para los estudios de calidad, promoción y rating. Obteniéndose una muestra de 400 televidentes

El valor social radica en su contribución a la elevación de los niveles de calidad de la gestión de la organización, así como de los programas televisivos que se trasmiten, lo que se traduce en el logro de televidentes fieles a la programación.

El aporte práctico se constituye en el Sistema de Gestión de la Calidad contentivo de un manual y sus procedimientos de gestión. La significación práctica se relaciona con la implantación de los mecanismos que establece el Sistema de Gestión de la Calidad para el Telecentro, lo que implica la elevación de su desempeño. En este aspecto se destaca que la presente investigación se corresponde con la Política de desarrollo del Instituto Cubano de Radio y Televisión (ICRT) que pretende que se implanten sistemas de gestión de la calidad en todos los Telecentros del país como cultura, que aseguren la eficacia en la organización.

El informe de investigación se estructura de la siguiente forma: Introducción donde se expresa la situación problemática y los elementos teóricos metodológicos de la investigación; el primer capítulo trata las principales tendencias sobre la gestión de la calidad, las definiciones de calidad, y la evolución de las normas de la gestión de la calidad; en el segundo capítulo se expone el sistema de gestión de la calidad en el Telecentro Islavisión, se muestra los resultados del diagnóstico a la organización objeto de estudio práctico; además aparecen las conclusiones y recomendaciones derivadas de la investigación; la bibliografía consultada y finalmente, un grupo de anexos (14) de necesaria inclusión, como complemento de los resultados expuestos.
Resultados esperados a partir de la aplicación práctica del Sistema de Gestión de la Calidad según la NC ISO 9001:2008 en el Telecentro Islavisión

Los resultados de la aplicación la aplicación práctica del Sistema de Gestión de la Calidad según la NC ISO 9001:2008 en el Telecentro Islavisión y la opinión de los expertos sobre las posibilidades de generalización, evidencian que el sistema de gestión expuesto en esta investigación, es, en primer lugar, factible de aplicación en los telecentros, y demuestra así su pertinencia, capacidad de descripción, explicación y predicción, en lo relativo al comportamiento ex-ante y ex-post del desempeño de tales entidades; está en correspondencia con las tendencias modernas de gestión de la calidad, demostrándose así su actualidad teórico-práctica; muestran una consistencia lógica visible; son comprensibles y asimilables por parte del personal involucrado en los límites que establece su complejidad intrínseca, así como posibles de extender a otros telecentros del país , con las necesarias adecuaciones.

A partir de la implementación del Sistema de Gestión de la Calidad es posible obtener los siguientes beneficios:

I. Dotar al Telecentro de un instrumental metodológico que le permita:

· Evaluar, el nivel de satisfacción de los televidentes y el impacto potencial relativo de ésta, de acuerdo con los niveles de gestión de calidad existentes.

· Realizar un diagnóstico del estado de las variables de la gestión de la calidad.

· Definir las deficiencias existentes en la gestión de la calidad y sus factores inhibidores en el Telecentro.

· Concebir y desarrollar un despliegue de estrategias de mejora en todos los niveles y procesos del telecentro que posibilite incrementar continuamente los niveles de satisfacción de los televidentes y el impacto potencial relativo de esta, cuya adecuada implementación posibilite la consolidación de la orientación al televidente y una efectiva respuesta a sus expectativas, propiciándose el aumento del rating.

· Potenciar paulatinamente una cultura de cambio, tanto en las formas de pensar como en las de un actuar flexible para enfrentar los cambios internos y externos mediante el permanente monitoreo de estos y la participación de los actores que lo integran.

II. Perfeccionar el proceso de toma de decisiones operativas y estratégicas, fortalecer la dirección colegiada del telecentro y el establecimiento de políticas y objetivos comunes; incrementar su efectividad, de acuerdo con los recursos y medios disponibles y/o con las posibilidades reales de gestión, en correspondencia con el potencial a partir de una mayor incidencia en los factores críticos y la evaluación sobre esa base del impacto de las decisiones tomadas.

III. Implantar una cultura cooperativa orientada al televidente, como elemento común de los intereses de las entidades del territorio, facilitar una mayor claridad y consistencia de los objetivos del ICRT en su gestión, así como la integración de las debilidades/fortalezas internas con las externas, propiciar un importante cambio de valor y de actitudes en la mayoría los actores del territorio.

IV. Mejorar el clima laboral y los niveles de estimulación de los trabajadores y directivos.

V. Estudiar, describir y mejorar los procesos, así como su formalización en el manual de normas y procedimientos elaborados a tales efectos, los que se han actualizado periódicamente. Estos estudios de procesos permitirán:

· Perfeccionamiento de los mecanismos de trabajo y flujos de proceso, y en consecuencia un incremento en el logro de los objetivos establecidos.

· Mejora de la comunicación interdepartamental, interproceso, lo que provoca una mayor eficacia de la organización.

· Disminución del consumo de materiales y energía a partir del ajuste y control de las normas de consumo y el perfeccionamiento de los servicios técnicos.

NOTAS:

1 En Anexo 1

2 Anexo 2 Tabla de Confiabilidad y poblaciones del ICRT.

3 Instituto Cubano de Radio y Televisión

Autor:

MsC. Juana Lucía Sagué Alfonso

Nueva Gerona, 2012 “Año 54 de la Revolución ”

*****************************************************
Analisis de la leche pasteurizada

Introducción
Justificación
Planteamiento del problema
Marco teórico
Diseño metodológico
Bibliografía
Anexos

Introducción

La leche pasteurizada es un producto de consumo masivo obtenida básicamente por la aplicación de un tratamiento térmico ligero a la leche cruda y su posterior envasado, en la cual podrían permanecer viables microorganismos banales procedentes del centro de producción primario o de la planta de proceso. Por ser un medio compuesto por diversos principios nutritivos, la hace un alimento altamente perecedero, por lo cual debe ser producida en condiciones higiénicas óptimas, cumpliendo con los parámetros microbiológicos y físico-químicos establecidos por los entes gubernamentales. Dado que se trata de un producto de origen animal, sujeto a grandes variables en su proceso de obtención primaria, sepuede contaminar con un amplio espectro de microorganismos provenientes de diferentes fuentes contaminantes (1). Algunos de estos microorganismos son patógenos para el hombre, mientras que otros, producen alteraciones en la leche, como acidificación, proteólisis y lipólisis, que la hacen poco apta para su consumo.Algunos microorganismos patógenos son capaces de persistir en la leche sin causarle cambios en sus características organolépticas, con lo que aumenta el riesgo sanitario, al no poderse evidenciar su presencia por parte del consumidor. Es por ello que se hace indispensable una evaluación adecuada para la detección de estos gérmenes, con el propósito de plantear medidas correctivas en beneficio de la salud pública.

El proceso de pasteurización consiste en destruir mediante el empleo apropiado del calor, la totalidad de la Microbiota patógena y la casi totalidad de la flora banal que pudiese estar presente en la leche, procurando alterar lo menos posible su estructura física, su equilibrio químico y vitaminas [3]. Sin embargo, después de una pasteurización adecuada de la leche, los microorganismos pueden llegar a ella directa o indirectamente,

a través de mezclas con materiales contaminados, equipos defectuosos, contacto con las manos o ropa de los operarios, exposición a estornudos y tos o por caída de gotas de agua contaminada, produciendo de esta manera una recontaminación, constituyendo un peligro al consumidor, por lo que es necesario practicar pruebas que nos permitan evaluar si hubo recontaminación y poder así evitar o reducir el riesgo al mínimo [2].

La temperatura de la leche durante su transporte y almacenamiento es uno de los factores más importantes que afectan el crecimiento bacteriano y por lo tanto influye en su tiempo de conservación, determinando los tipos de microorganismos que se desarrollan y por ende en los cambios o tipos de descomposición que experimenta el producto. En las temperaturas de conservación óptimas de la leche, el deterioro de la misma está principalmente relacionado al crecimiento de microorganismos psicrótrofos, entre ellos cabe destacar al género Pseudomonas [4], los cuales alcanzan el producto por una contaminación posterior al tratamiento térmico, ya que no lo soportan, mientras que si la temperatura de conservación en cualquier punto de la cadena de distribución y comercialización se encuentra sobre el rango de los 10° a 12°C, situación muy común en nuestro medio, es la flora termudúrica la beneficiada y por lo tanto responsable de las alteraciones presentes [1].

En la leche pasteurizada, a diferencia de la leche cruda, la presencia de bacterias coliformes es inaceptable, ya que las temperaturas de pasteurización las destruye. Una prueba de coliformes positiva en productos lácteos pasteurizados denota mala pasteurización ó contaminación post-pasteurización, por lo tanto debe rechazarse [3, revista iberoamericana de ganadería, pag 3]. En Nicaragua el consumo de leche que distribuyen las empresas comercializadoras es cada vez mas alto, es por ello que por el alto consumo nos conlleva a analizar la calidad bacteriológica esto como patrón de la calidad en la comercialización y de salud pública.
Justificación

El presente estudio es de mucha importancia porque nos permitirá analizar la calidad bacteriológica de la leche pasteurizada industrializada en relación con la semi-industrializada que se comercializa en Nicaragua. También nos permitirá brindar recomendaciones a la población sobre la calidad bacteriológica de las leches en estudio.

OBJETIVOS

3.1 Objetivo general

Determinar la calidad bacteriológica de la leche pasteurizada, procesada por las industrias lácteas PARMALAC y CAMOAPAN y comercializadas en el municipio de Managua en el periodo de Septiembre a Noviembre del 2011.

3.2 Objetivos específicos

3.2.1 Identificar la calidad bacteriológica en base a los siguientes parámetros: pH, temperatura, características del microorganismo en la leche pasteurizada distribuida por dos industrias de procesamiento láctico, PARAMALAT Y CAMOAPAN de interés en la salud pública bajo el método de conteo de bacteria permisibles en medio de cultivos.

3.2.2. Relacionar los resultados obtenidos en lo que los productos analizados son aptos para consumo humano en base a la norma RTCA y la norma técnica de leche entera pasteurizada NTON 03034-00.

3.2.3 Comparar las dos marcas de leche dando aportes de información útil en la verificación del cumplimiento de los parámetros establecidos en las normas de referencia para la comercialización y consumo de la leche pasteurizada en el país.
Planteamiento del problema

La problemática radica en que el consumo de leche pasteurizada que distribuyen las empresas comercializadoras en Nicaragua es cada día más alto en la población nicaragüense. Una parte aun importante de la población consume leche no pasteurizada, siendo estas poblaciones las más rurales de nuestro país.

Por la importancia del alto consumo de leche pasteurizada comercializada en Nicaragua es necesario analizar la calidad de esta leche cuyas marcas actualmente la distribuyen, como son: la PARMALAT de procesamiento industrial y la CAMOAPAN de procesamiento semi-industrial y determinando así su calidad bacteriológica.

Se sospecha que la calidad de la leche pasteurizada, no cumple al ciento por ciento los requerimientos y estándares de calidad bacteriológica por efectos de la manipulación y trasiego que sufren en las bodegas de almacenamiento en cada planta procesadora, además por el tiempo que pasa para ser trasladada para su distribución en camiones repartidores hasta el almacén de comercialización donde también es almacenada en freezer o mantenedoras.

Por lo anterior y para aportar a las mejores prácticas del manejo de la leche pasteurizada que se consume en Nicaragua, se propone realizar un estudio contribuyendo a resolver de manera analítica el problema siguiente:

¿Cuál es la calidad bacteriológica de la leche pasteurizada comercializada por dos marcas (Parmalat y Camoapan) distribuidoras y comercializadoras de lácteos en la ciudad de Managua, Nicaragua durante los meses de Septiembre a Noviembre del 2011?
Marco teórico

5.1 Generalidades

La leche pasteurizada es un producto de consumo masivo obtenida básicamente por la aplicación de un tratamiento térmico ligero a la leche cruda y su posterior envasado, en la cual podrían permanecer viables microorganismos banales procedentes del centro de producción primario o de la planta de proceso. Por ser un medio compuesto por diversos principios nutritivos, la hace un alimento altamente perecedero, por lo cual debe ser producida en condiciones higiénicas óptimas, cumpliendo con los parámetros microbiológicos y físico-químicos establecidos por los entes gubernamentales y normas internacionales en base ala calidad del procesamiento de lácteos. Por ello se toma en cuenta que en Nicaragua en un aporte fundamental el alto consumo de leche, la industria PARMALAT que es una industria de procesamiento internacional en lácteos, cuya sede se encuentra en Italia desde 1,867 funciona en nuestro país desde 1996, cuando adquirió las acciones de la empresa nacional lácteos “La Perfecta” en Nicaragua, en el caso de la Camoapan, proveniente de la cooperativa de servicios agropecuarios San francisco de Asis desde 1991 en la localidad de rancho rojo región del municipio de Camoapa departamento de Boaco. (revista de cooperativa agroindustriales en Nicaragua)

Dado que se trata de un producto de origen animal, sujeto a grandes variables en su proceso de obtención primaria, se puede contaminar con un amplio espectro de microorganismos provenientes de diferentes fuentes contaminantes . Algunos de estos microorganismos son patógenos para el hombre, mientras que otros, producen alteraciones en la leche, como acidificación, proteólisis y lipólisis, que la hacen poco apta para su consumo. Algunos microorganismos patógenos son capaces de persistir en la leche sin causarle cambios en sus características organolépticas, con lo que aumenta el riesgo sanitario, al no poderse evidenciar su presencia por parte del consumidor. Es por ello que se hace indispensable una evaluación adecuada para la detección de estos gérmenes, con el propósito de plantear medidas correctivas en beneficio de la salud pública. Organización Mundial de la Salud. Normas para el examen de los Productos Lácteos. 11va ed. Washington.145-179 pp. 1960.

El proceso de pasteurización consiste en destruir mediante el empleo apropiado del calor, la totalidad de la microbiota patógena y la casi totalidad de la flora banal que pudiese estar presente en la leche, procurando alterar lo menos posible su estructura física, su equilibrio químico y vitaminas . Sin embargo, después de una pasteurización adecuada de la leche, los microorganismos pueden llegar a ella directa o indirectamente, a través de mezclas con materiales contaminados, equipos defectuosos, contacto con las manos o ropa de los operarios, exposición a estornudos y tos o por caída de gotas de agua contaminada, produciendo de esta manera una recontaminación, constituyendo un peligro al consumidor, por lo que es necesario practicar pruebas que nos permitan evaluar si hubo recontaminación y poder así evitar o reducir el riesgo al mínimo .

La temperatura de la leche durante su transporte y almacenamiento es uno de los factores más importantes que afectan el crecimiento bacteriano y por lo tanto influye en su tiempo de conservación, determinando los tipos de microorganismos que se desarrollan y por ende en los cambios o tipos de descomposición que experimenta el producto. En las temperaturas de conservación óptimas de la leche, el deterioro de la misma está principalmente relacionado al crecimiento de microorganismos psicrótrofos, entre ellos cabe destacar al género Pseudomonas [FOSTER, E. Microbiología de la leche. Ed. Herrero, S. A. México. 165-172 pp. 1994.], los cuales alcanzan el producto por una contaminación posterior al tratamiento térmico, ya que no lo soportan, mientras que si la temperatura de conservación en cualquier punto de la cadena de distribución y comercialización se encuentra sobre el rango de los 10° a 12°C, situación muy común en nuestro medio, es la microbiota termudúrica la beneficiada y por lo tanto responsable de las alteraciones presentes. En la leche pasteurizada, a diferencia de la leche cruda, la presencia de bacterias coliformes es inaceptable, ya que las temperaturas de pasteurización las destruye. Una prueba de coliformes positiva en productos lácteos pasteurizados denota mala pasteurización ó contaminación post-pasteurización, por lo tanto debe rechazarse (BOSCÁN, L. A. Guías Prácticas del Laboratorio de Industrias Lácteas. 11va Ed. FCV-LUZ. 75-81 pp. 1983. Y Organización Mundial de la Salud. Normas para el examen de los Productos Lácteos. 11va ed. Washington. 145-179 pp. 1960)

Conceptos y definiciones

Leche

Del (Lat. Lactis.) es la secreción líquida blanquecina producto de las mamas de los mamíferos hembras para asegurar la subsistencia de sus crías hasta que éstas se adapten a la alimentación propia de la especie. La leche es el alimento más completo por su gran valor nutritivo, debido a su riqueza en grasas emulsificádas, destacando las butíricas de la mantequilla, proteínas como la caseína, azúcares como la lactosa, vitaminas liposolubles como las A, D y E y minerales, principalmente el calcio y magnesio

Pasteurización

Es el proceso térmico realizado a líquidos (generalmente alimentos) con el objeto de reducir los agentes patógenos que puedan contener: bacterias, protozoos, mohos y levaduras, etc. El proceso de calentamiento recibe el nombre de su descubridor, el científico-químico francés Louis Pasteur (1822-1895). La primera pasteurización fue realizada el 20 de abril de 1864 por el mismo Pasteur y su colega Claude Bernard.

Leche pasteurizada

Es aquella leche íntegra o entera, semidescremada o descremada, que ha sido sometida a un tratamiento térmico específico y por un tiempo determinado que asegura la total destrucción de los organismos patógenos que pueda contener y casi la totalidad de los organismos no patógenos, sin alterar en forma considerable su composición, sabor ni valor nutritivo.

Temperatura

Elemento físico que indica las características de frio y calor de los elementos en el caso de leche no todos los microorganismos crecen a la misma temperatura, dentro de ellos tenemos:

Mesófilos

Microorganismos que en la fisiología del crecimiento están entre 32°C a 42°C con un promedio de temperatura de 37°C. El grupo de bacterias Mesófilos pertenece la mayoría de la flora que se encuentra con mayor frecuencia en la leche.

5.2.4.2 Psicrófilos

Microorganismos que en su fisiología de crecimiento se da a una temperatura, de 15°C a 25°C aunque existen bacterias que se adaptan a temperaturas menores a 15°C. Las bacterias Psicrófilos son las que crecen a temperatura de refrigeración.

5.2.4.3 Termófilos.

Microorganismos que en su fisiología de crecimiento bacteriano, crecen en un rango de 45°C a 55°C.

5.2.5. Factores implícitos

se describen los relacionados directamente, son las especies microbianas, su metabolismo y las relaciones que establecen. No todas las bacterias tienen la capacidad de crecer en la leche, aun cuando encuentren condiciones óptimas. Por ejemplo no todas las bacterias tiene la capacidad de metabolizar la lactosa.

5.2.6. Grasa

Es parecida a las de los animales, tiene forma de pequeñas gotas que se agrupan y pueden subir a la superficie formando la capa de nata.

5.2.7. Lactosa

Es un azúcar menos dulce que el azúcar común, es el alimento de muchos microbios que hay en la leche; esta se acidifica cuando la lactosa es transformada en ácido láctico. 5.2.8. Sales minerales de la leche

La leche contiene calcio, fósforo, cloro, sodio, potasio, y otros. El calcio y fósforo forman lo que se llama fosfato de calcio el cual es muy importante para la coagulación de la leche con cuajo y también desde el Punto de vista nutritivo.5.2.9. Proteínas

La caseína es una de ellas y se encuentra en suspensión formando las llamadas miselas, y las proteínas de suero se encuentran disueltas en solución.5.2.10. Vitaminas

Son contenido de características proteoenzimaticas de la leche que establece un buen carácter nutricional en el consumo lácteo. Se encuentran vitaminas A, B, C, D, E, K Y pueden ser:

5.2.10.1 Vitaminas liposolubles

En este grupo se encuentran las vitaminas A, D, E, K las mismas son solubles en los cuerpos grasos, son pocos alterables y el organismos puede almacenarlas facilmente

5.2.10.2 HIDROSOLUBLES

Son aquellas que efectúan homogeneidad con el agua dentro de ellas tenemos la vitamina: B, C

Microbiología de la leche

Es parte de la microbiología que estudia los microorganismos que estan presentes en la leche y sus productos, con especial énfasis en aquellos microorganismos importantes en la tecnología de leche pasteurizada enmarcadas en las propiedades de industrialización de la misma.

Características generales

Tipos de microorganismos

Dentro de los microorganismos tenemos: Bacterias, Virus, Hongos y levaduras, tomamos en cuenta que en nuestro estudio se enmarcara en la calidad bacteriológica

5.3.1.2 Forma de agruparlos

Se toma en cuenta características de beneficio con respecto a los efectos sobre la salud del hombre, Las temperaturas optimas de crecimiento, Las necesidades de oxigeno para vivir, La acidez del medio que prefieren o que los favorece, El nutriente que utilizan para el desarrollo.

5.3.1.3 Efectos sobre la salud del hombre

Estos Pueden ser: 1) Patogenos: Aquellos que provocan enfermedades y 2)Comensales: Aquellos que no son perjudiciales para el hombre y su salud, a su vez estas pueden o no ser utiles desde el punto de vista tecnologicos.

5.3.1.4 Temperaturas

5.3.1.4.1 Criófilos: Son los mocroorg. que prefieran bajas temp. (Entre 3 y 12ºC)5.3.1.4.2 Mesófilos: Son los que se desarrolan a temp. medias (Entre 12 y 35ºC)5.3.1.4.3 Termófilos: Son los que prefieren temp. Superiores (Entre 35 y 53º C)5.3.1.4.4 Existen otros que no actúan en temperaturas Optimas de crecimiento y pueden resistir 72º C o más y se llaman termoduricos o termoresistentes.5) Otros microorg. Son capaces de desarrollarse a temp. inferiores a 6-7º C (En leche fría) y se los llama psicrotofos.

5.3.2 La leche como medio de vida de los microorganismos

La leche es un alimento completo, reúne en ella casi todos los componentes de los otros alimentos: tiene la proteína de la carne y del pescado, la grasa del aceite y la manteca; posee azúcar y contiene las sales minerales y vitaminas de las verduras y frutas. Por esta razón, la leche es un alimento ideal tanto para el hombre como para los microorganismos. Esto explica porque una leche contaminada debido a un ordeñe sucio, sin higiene, o un mal manejo posterior al ordeñe, o a alguna enfermedad de la vaca, se daña en pocas horas y ya no puede ser usada para fabricar cualquier producto de buena calidad, ni para el consumo como bebida. Teniendo en cuenta que los microorganismos necesitan para vivir: agua, alimentos.Después del ordeñe, si la leche permanece caliente ( temperatura de 36-37ºc) los microorganismos trabajan muy intensivamente y consumen la lactosa produciendo ácido láctico, degradando grasas y proteínas. Por esto, las leches dejadas al sol o que no se enfrían ni se refrescan luego de ser ordeñadas y se demoran mucho en llegar a la planta por la lejanía de los lugares de ordeñe o por la dificultad del transporte, entran el la fabrica con mucho ácido láctico, esto es la razón por la cual la determinación de acidez da muy elevada, o bien se corta antes la prueba de alcohol.

Microbiología de la leche cruda

La leche es un alimento completo como lo hemos dicho antes, y es también un medio de cultivo para el crecimiento de una variedad de microorganismos. Una de las ramas de la industria Láctea que depende en gran manera de la actividad de los microorganismos es la elaboración de los quesos, hay una gran variedad de quesos que se elaboran bajo la actividad enzimática de especies bacterianas y fúngicas. Hay otros microorg. Que no se pueden usar por su capacidad de alterar la composición y características organolépticas de la leche y derivados lácteos o por sus agentes causales de enfermedad en los consumidores.La importancia del estudio microbiológico de la leche se basa en tres partes:5.3.3.1 Producen cambios deseables en las características físicas-químicas de la leche durante la elaboración de diversos productos lácteos.

5.3.3.2 Los productos lácteos y la leche pueden contaminarse con microorganismos patógenos o sus toxinas y provocan enfermedades en el consumidor.

5.3.3.3 Pueden causar alteraciones de la leche y productos lácteos haciendo inadecuados para el consumo. En la leche se encuentran microorganismos como bacterias, hongos y levaduras.

5.3.4 Contaminación de la leche

La leche se contamina por dos vías:

5.3.4.1 Mamaria

Los mocroorganismos. Alcanzan la ubre, pueden llegar a contaminar la leche antes o después del ordeño. Estos pueden alcanzar la leche por vía mamaria por dos vías;5.3.4.1.1 Ascendentes

Lo que hacen las bacterias que se adhieren a la piel de la ubre y posterior al ordeño, entran a través del esfínter del pezón ( Staphilococos, Streptococos, coliformes).

5.3.4.1.2 Descendentes o hematógena

Son los microorganismos que pueden causar enfermedad sistémica o tienen la propiedad de movilizarse por la sangre y a través de los capilares mamarios llegan a infectar la ubre (Salmonella, Brucella, Micobacterium.5.3.4.2 Medio externo

La contaminación se produce una vez extraída de la glándula mamaria. Los utensilios, tanques de almacenamientos, transportes e incluso el personal que manipula la leche, son fuentes de contaminación.

1. Fuentes de contaminación de leche Principales fuentes

Animal Cualquier lesión en el animal puede causar una elevada contaminación, la ubre esta en contacto con el suelo, heno, etc., animales enfermos (mastitis) causantes de esta enfermedad es el , el cual es resistente al tratamiento de antibióticos y no es destruida por la pasterización, la entero toxina que produce por su resistencia pudiendo llegar a causar enfermedades al consumidor.

Aire: Representa uno de los medios mas hostiles por la constante exposición al oxigeno, cambios de temperaturas y humedad relativa, radiación solar, etc. En el aire se pueden encontrar MICROCOCUS, STREPTOMYCES Y ESPIRGILLUS Y PENICILLIUM.

Agua: usada para la limpieza de los equipos y utensilios de ordeño, higiene del animal y del personal, y encontramos microorganismos como PSEUDOMONAS y por contaminación de estos de BACTERIAS COLIFORMES.

Suelo: Principal fuente de microorganismos termoduricos y termofilos.

2. El ordeñador o personal

Juega un papel importante si se ordeña de manera manual, si no se lava las manos y peor aun se las humedecen e la leche misma para lograr lubricación que facilite el ordeño. Aparece la contaminación con microorganismos patógenos.Estiercol: fuente principal de macroorganismo coliformes.

Utensilios y transportes: Es importante una buena higiene por medio de agentes desinfectantes, afecta significativamente la calidad de la leche. La flora microbiana de esta fuente puede ser diversa, pero la mas frecuente es la flora termoresistente, razón mas que suficiente para exigir al máximo la higiene.

Control de contaminación

El empleo de sistemas de ordeño mecánico ayuda a reducir la contaminación a partir del animal, ordeñadoras, aires y suelo. De manera que la contaminación en este caso estará mayormente en los tanques de almacenamiento y en el sistema de ordeño en si mismo; a través de campañas de educación se puede reducir la contaminación por parte del personal, así como una supervisión cercana para evitar que personas enfermas participen en la labor diaria del ordeño.

Deben ejecutarse programas sanitarios preventivos sobre el rebaño, con lo cual no solo se logra un producto de buena calidad sino que también se incrementa la productividad. Además debe evitarse ordeñar animales enfermos o bajo tratamiento medicinal, tomando en cuenta las principales fuentes de contaminación, pueden tomarse diversas medidas encaminadas a evitar el contacto de estas con la leche y mejorar su calidad sanitaria final.

Calidad de la leche y su importancia para la fabricación

1. Característica de la leche

La calidad de la leche cruda tiene fundamental importancia para obtener un producto uniforme y de buenas cualidades. A pesar de los adelantos en los diseños y características de los equipos se puede afirmar que es imposible hacer productos de calidad aceptable si se cuenta con leche de calidad pobre o inferior. Se hace por ello, controlar diariamente la leche que se recibe y tener suficiente criterio para su admisión o rechazo.Las pruebas de laboratorio permitirán al operario ajustar sus procedimientos de trabajo para elaborar el mejor producto posible. Para los productos frescos es indispensables contar con leche de primera calidad, tanto en la composición como microbiológicamente hablando.Por sus características, los productos frescos conservan y acentúan los defectos que pudiera presentar la leche con que fueron elaboradas. Ciertas alteraciones como la rancidez, tiene un efecto dañino no solo por transmitírselo al producto final, sino porque algunos ácidos que provocan este defecto pueden dificultar el desarrollo de los microorganismos en la fabricación de productos fermentados. Las leches que contienen contaminantes o inhibidores, son también inapropiadas para la elaboración de productos frescos, porque dificultan los procesos tecnológicos impidiendo lograr las características de sabor, aroma, textura y apariencia deseada. La leche que ingresa a la fábrica puede ser:

Normal: De buena calidad composicional y cicrobiana, proviene de animales sanos, de ordeñes higiénicos y debe ser mantenida de forma total, que conserve sus propiedades desde la extracción hasta el procesamiento.

Anormales: Aquellas que pueden deteriorarse por Contaminación microbiana Esta contaminación se debe eliminar desde el principio. Hay algunos de los problemas más comunes que suelen presentarse y la forma de interpretarlos para tratar de atenuar su efecto. Se reduce en forma significativa mediante un tratamiento de pasterización. Dando a lugar a efectos que producen los microorganismos contaminates como: riesgos en la salud del consumidor y del operario, defectos de sabor y aroma en el producto, defectos de forma y textura en el producto,

2. Bacterias que comúnmente contaminan la leche

Coliformes: son bacterias anaerobias aerotolerantes, que crecen en ambientes sin oxigeno, pero la presencia de este no las inhibe. El medio debe ser ligeramente ácido. Los géneros que comúnmente aparecen en la leche son: Aerobacter, Aerogenes y escherichia coli. siendo estos los principales causantes de fermentaciones anormales durante los procesos de elaboración y maduración.

Formadores de esporas: pueden ser: bacterias aerobias: crecen cuando hay oxigeno, bacterias anaeróbicas; crecen cuando no hay oxigeno. las bacterias que se desarrollan en medio alcalino, las que forman esporas, suelen resistir las temperaturas de pasteurización y aun mayores. Son las causantes de defectos en productos no ácidos, de larga conservación.

Bacterias psicótropas: liberan productos de desechos y enzimas, con las cuales degradan la materia grasa y las proteínas, como consecuencia inhiben los fermentos. Algunas de sus enzimas continúan rompiendo la molécula de grasa aun después de la pasterización, lo que otorga el producto sabores que reducen su calidad. Y esto proviene de una mala higiene en tanques de almacenamiento y transportes e incorrectas practicas de ordeñe.

Acido láctico: es producida por bacterias Mesofilos, que contaminan la leche y degradan la lactosa produciendo acido láctico, de manera tal que se constituye en una de las consecuencias de las contaminaciones microbianas, sus efectos son; – disminución del ph, aproximándose a aquel en que coagula la caseína por acidificación( leche se corta) – aumento de la cantidad de iones de calcio en solución, por aumento de acidez se produce la sustitución de iones de calcio de la caseína por los de hidrogeno. – modificación del sabor y aroma.

Adulteraciones: puede ser: efecto del aguado: puede aumentar la contaminación, a causa de gérmenes presentes en el agua y disminuye el valor nutricional por unidad de producto. efecto del descremado; modifica la relación proporcional entre grasa y proteínas, retrasa los tiempos de elaboración y reduce la calidad de los productos por aparición de olores, sabores y color desagradables.

3. Inhibidores

Naturales; dificultan el desarrollo de los fermentos en las primeras h. después del ordeñe.

Antibióticos; detienen el crecimiento de los fermentos.

Químicos; detienen o retardan el crecimiento de los fermentos.

Bacteriológicos; actúan sobre el fermento acidificante, inactivándolo.5.4.7 Refrigeración de la Leche

La correcta refrigeración de la leche durante su almacenamiento en el tambo es el medio más seguro para limitar la proliferación de bacterias. El frío tiene una acción bacteriostática y no bactericida. El recuento final de bacterias después de su almacenamiento depende de: el tiempo de almacenamiento; el recuento total puede aumentar 1,5 veces si el tiempo hasta alcanzar los 4ºC es de 5 horas en lugar de 2 horas; la estabilidad de la temperatura entre ordeños. Como fue mencionado, los grupos bacterianos contaminantes de la leche presentan diferentes comportamientos según la temperatura de almacenamiento. Esto puede verse reflejado en la evolución de los recuentos de bacterias totales en la leche almacenada a 5ºC en diferentes tambos comerciales. Los recuentos evolucionan de manera muy diferente en cada tambo.

Requisitos de Efectividad

Limitar la contaminación bacteriológica inicial de la leche, especialmente la del grupo de sicrótrofas. La temperatura de almacenamiento de la leche debe ser 4ºC. El logro de una leche con una reducida contaminación bacteriológica es un criterio básico de calidad. El productor lechero debe adoptar en el tambo una serie de prácticas y técnicas adecuadas para garantizar este objetivo. Los dos aspectos generales que definen el nivel de contaminación bacteriológica de la leche entregada a la industria son: el nivel de higiene adoptada durante el ordeño seguido por una correcta refrigeración. Como referencia final, se identifican y jerarquizan las fuentes de contaminación que constituyen además los puntos de control sobre los que habría que actuar para limitar la contaminación bacteriológica total o por grupo bacteriano. Una correcta sanidad del rodeo aplicando medidas preventivas y de control de enfermedades, garantizan la inocuidad y calidad final de la leche y los productos.

Técnicas determinadas para estudios de bacteriología de la leche

Nos basamos a las normas RTCA y NTON que enuncian así:

5.5.1 NTON 03 034 – 00 NORMA TÉCNICA DE LECHE ENTERA PASTEURIZADA

La Norma Técnica Obligatoria Nicaragüense 03 034-99 Leche Entera Pasteurizada tiene como objetivo establecer los requisitos que debe cumplir la leche pasteurizada. En la cual dicha norma establece para calidad bacteriológica lo siguiente:

Requisitos microbiológicos. La leche pasteurizada deberá cumplir con los siguientes

Requisitos

n

m

M

c

Recuento total de microorganismos mesofílicos / cm 3

3

> 100 000

100 000

1

NMP coliformes totales /cm 3

3

< 39

39

1

NMP coliformes fecales / cm 3

3

< 3

-

0

n = Número de muestras que deben analizarsem = Recuento mínimo recomendadoM = Recuento máximo permitidoc = Número de muestras que se permite que tengan un recuento mayor que m pero no mayor que M.
Diseño metodológico

7.1. Área de estudio

Se desarrollará en la ciudad de Managua, donde se tomarán diferentes tiendas de comercialización y/o pulperías donde se comercialicen productos lácteos de las muestras de dos marcas de leche pasteurizada como son: PARMALAT y CAMOAPAN las cuales se nombraran como muestra A y B respectivamente, las que serán objeto de análisis bacteriológico.

7.2. Tipo de estudio

Por el método de muestreo análisis será cuantitativo, descriptivo por que no se profundizará sobre las causas del problema, solamente se establecerá la calidad bacteriológica de manera comparada entre la dos marcas y por el tiempo de estudio será de tipo transversal ya que será un enfoque de la situación de la leche analizada en el período de Septiembre a Noviembre.

Métodos y técnicas del estudio.

Se desarrollará un método de análisis cuantitativo, de muestreo y el análisis comparado de laboratorio para la determinación de la calidad bacteriológica de la leche pasteurizada muestreadas por las marcas A y B de leche en el objeto de estudio.

Universo o población de estudio

EL universo de estudio lo comprenden la producción total volúmenes de leche procesada y pasteurizada en cantidad de litros diarios.

Para la Empresa PARMALAC(A) se estima una producción diaria de 100,000 litros de leche por día y para la Empresa CAMOAPAN(B) se estima una producción diaria de 32,000 litros de leche por día para un volumen estimado de procesamiento y pasteurización del 10% correspondiendo 10,000 litros para A y 3,200 litros para B, estimándonos un universo de leche pasteurizada por día de 13,200 litros de leche por día (Informe de producción CAMOAPAN Y PARMALAT, 2011).

Muestra y métodos de muestreo

Tamaño de muestra

El tamaño de muestra será de un total de 20 muestras de leche: 10 muestras de la Marca A y 10 muestras de la marca B. Este es un muestreo de tipo intencional ya que no hay una representación estadística del volumen total de leche procesada y pasteurizada, de tal manera que el número de 10 muestras para cada marca de leche se hizo con fines didácticos y de aprendizaje de la investigación.

Recolección de la muestra:

Se analizarán un total de 20 muestras de leche pasteurizada de las dos marcas (A, B) de gran distribución en la ciudad de Managua, obtenidasde diferentes expendios (supermercados y pulperías)ubicados en distintos puntos en toda la ciudad. Se analizarán 5 muestras de la marca "A", 5 de la marca "B", durante el lapso comprendido entre septiembre y Noviembre 2011, procesando 5 muestras quincenalmente. Al momento de obtener las muestras se tomará la temperatura la cual estaban almacenadas, luego serán transportadas dentro de cavas con hielo termos hacia el laboratorio para su análisis, se tomará la previsión de tomar muestras con fecha de elaboración reciente con relación al muestreo y similares entre las marcas utilizadas. Se les practicó análisis bacteriológico, pruebas para evaluar la eficiencia de la pasteurización, presencia de bacterias, y pH.

Descripción del método

Análisis microbiológico

El análisis microbiológico comprenderá pruebas para el recuento de gérmenes aerobios mesófilos, psicrótrofos y termodúricos, y recuento de coliformes totales en placas. Para el recuento de aerobios mesófilos (RAM), se utilizará el procedimiento descrito para tal fin por COVENIN 902-78, mediante el cual se prepararon diluciones seriadas (1: 10 hasta 1: 10.000) sembradas en placas con agar estándar a 32°C por 48 horas.

El recuento de psicrótrofos se realizará de manera similar al RAM, variando la temperatura de incubación, que fue a 10°C durante 7 días. Para la determinación de microorganismos termodúricos se tomará aproximadamente 10 mL de la muestra y se re-pasteurizará a 62,5°C por 30 min en un baño de María, antes de proceder a preparar las diluciones para la siembra, según el procedimiento utilizado para el RAM. Todas las placas serán incubadas de manera invertida, bajo las condiciones correspondientes a cada grupo.

Finalizado el período de incubación, se seleccionarán las placas donde se encuentren entre 25 y 250 unidades formadoras de colonias [1] y con la ayuda de un cuenta colonias tipo Quebec, se contarán todas las colonias presentes. Para la determinación de coliformes se empleará el método de Recuento de bacterias coliformes en placas petri según la metodología de la APHA [1], para lo cual se procederá a la preparación de las diluciones de igual manera que para el RAM, utilizando agar bilis rojo neutro cristal violeta, aplicando una capa superficial posterior a la coagulación del medio, luego se incubaron a 35°C por 24 horas, para luego realizar el contaje respectivo con ayuda de un cuenta colonias tipo Québec.

En todos los casos (mesófilos, psicrótrofos, termodúricos y coliformes) las siembras se realizaron por duplicado, tomándose como resultado el número promedio de colonias de las dos placas de una misma dilución multiplicado por la dilución correspondiente.

Variables y Operacionalización de variables

Selección de variables

Las variables de estudio serán:

Variable compleja: Calidad microbiológica de la leche,

Variables concretas:

microorganismos patógenos,

Microorganismos no patógenos,

Coliformes totales

Coliformes fecales

Pruebas de pH.

Matriz de Operacionalización de variables

Matriz de Consistencia y Operacionalización de Variables

Monografias.com

7.6. Diseño de instrumentos

Los instrumentos se diseñarán en función del método, técnicas y de las variables seleccionadas:

A. Ficha de registro de Resultados de Laboratorio

Plan de Procesamiento

Se procesaran y analizarán los resultados utilizando las Normas Técnicas para calidad de Leche Norma Nicaragüense y la Normativa RTC.

*****************************************************
Virus y antivirus de computadora

Virus
Anti-Virus

CAPÍTULO I
Virus

Reseña Histórica

El primer virus que atacó a una máquina IBM Serie 360 (y reconocido como tal), fue llamado Creeper, creado en 1972 por Robert Thomas Morris. Este programa emitía periódicamente en la pantalla el mensaje: "I'm a creeper... catch me if you can!" (Soy una enredadera, agárrenme si pueden). Para eliminar este problema se creó el primer programa antivirus denominado Reaper (segadora). Sin embargo, el término virus no se adoptaría hasta 1984, pero éstos ya existían desde antes. Sus inicios fueron en los laboratorios de Bell Computers. Tres programadores desarrollaron un juego llamado Core Wars, el cual consistía en ocupar toda la memoria RAM del equipo contrario en el menor tiempo posible. Después de 1984, los virus han tenido una gran expansión, desde los que atacan los sectores de arranque de diskettes hasta los que se adjuntan en un correo electrónico y se ocultan en un formato de imagen comprimida con la extensión JPG.

A continuación se presenta una breve cronología de lo que ha sido los orígenes de los virus: 1949: Se da el primer indicio de definición de virus. John Von Neumann (considerado el Julio Verne de la informática), expone su "Teoría y organización de un autómata complicado". Nadie podía sospechar de la repercusión de dicho artículo. 1959: En los laboratorios AT&T Bell, se inventa el juego "Guerra Nuclear" (Core Wars) o guerra de núcleos. Consistía en una batalla entre los códigos de dos programadores, en la que cada jugador desarrollaba un programa cuya misión era la de acaparar la máxima memoria posible mediante la reproducción de sí mismo. 1970: Nace "Creeper" que es difundido por la red ARPANET. El virus mostraba el mensaje "SOY CREEPER... ¡ATRÁPAME SI PUEDES!". Ese mismo año es creado su antídoto: El antivirus Reaper cuya misión era buscar y destruir a "Creeper".

1974: El virus Rabbit hacía una copia de sí mismo y lo situaba dos veces en la cola de ejecución del ASP de IBM lo que causaba un bloqueo del sistema. 1980: La red ARPANET es infectada por un "gusano" y queda 72 horas fuera de servicio. La infección fue originada por Robert Tappan Morris, un joven estudiante de informática de 23 años que según él, todo se produjo por un accidente. 1983: El juego Core Wars, con adeptos en el MIT, salió a la luz pública en un discurso de Ken Thompson Dewdney que explica los términos de este juego. Ese mismo año aparece el concepto virus tal como lo entendemos hoy. 1985: Dewdney intenta enmendar su error publicando otro artículo "Juegos de Computadora virus, gusanos y otras plagas de la Guerra Nuclear atentan contra la memoria de los ordenadores".

1987: Se da el primer caso de contagio masivo de computadoras a través del "MacMag" también llamado "Peace Virus" sobre computadoras Macintosh. Este virus fue creado por Richard Brandow y Drew Davison y lo incluyeron en un disco de juegos que repartieron en una reunión de un club de usuarios. Uno de los asistentes, Marc Canter, consultor de Aldus Corporation, se llevó el disco a Chicago y contaminó la computadora en la que realizaba pruebas con el nuevo software Aldus Freehand. El virus contaminó el disco maestro que fue enviado a la empresa fabricante que comercializó su producto infectado por el virus. Se descubre la primera versión del virus "Viernes 13" en los ordenadores de la Universidad Hebrea de Jerusalén. 1988: El virus "Brain" creado por los hermanos Basit y Alvi Amjad de Pakistán aparece en Estados Unidos.

Definición

Es un malware que tiene por objeto alterar el normal funcionamiento de la computadora, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos almacenados en una computadora, aunque también existen otros más inofensivos, que solo se caracterizan por ser molestos. Los virus informáticos tienen, básicamente, la función de propagarse a través de un software, no se replican a sí mismos porque no tienen esa facultad como el gusano informático, son muy nocivos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil.

El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente (alojado) en la memoria RAM de la computadora, aun cuando el programa que lo contenía haya terminado de ejecutarse. El virus toma entonces el control de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se añade el código del virus al programa infectado y se graba en el disco, con lo cual el proceso de replicado se completa.

Características

Dado que una característica de los virus es el consumo de recursos, los virus ocasionan problemas tales como: pérdida de productividad, cortes en los sistemas de información o daños a nivel de datos. Una de las características es la posibilidad que tienen de diseminarse por medio de replicas y copias. Las redes en la actualidad ayudan a dicha propagación cuando éstas no tienen la seguridad adecuada. Otros daños que los virus producen a los sistemas informáticos son la pérdida de información, horas de parada productiva, tiempo de reinstalación, etc. Hay que tener en cuenta que cada virus plantea una situación diferente.

Algunas de las características de estos agentes víricos:

Son programas de computadora: En informática programa es sinónimo de Software, es decir el conjunto de instrucciones que ejecuta un ordenador o computadora.

Es dañino: Un virus informático siempre causa daños en el sistema que infecta, pero vale aclarar que el hacer daño no significa que vaya a romper algo. El daño puede ser implícito cuando lo que se busca es destruir o alterar información o pueden ser situaciones con efectos negativos para la computadora, como consumo de memoria principal, tiempo de procesador.

Es auto reproductor: La característica más importante de este tipo de programas es la de crear copias de sí mismos, cosa que ningún otro programa convencional hace. Imaginemos que si todos tuvieran esta capacidad podríamos instalar un procesador de textos y un par de días más tarde tendríamos tres de ellos o más.

Es subrepticio: Esto significa que utilizará varias técnicas para evitar que el usuario se dé cuenta de su presencia. La primera medida es tener un tamaño reducido para poder disimularse a primera vista. Puede llegar a manipular el resultado de una petición al sistema operativo de mostrar el tamaño del archivo e incluso todos sus atributos.

Los virus pueden infectar múltiples archivos de la computadora infectada (y la red a la que pertenece): Debido a que algunos virus residen en la memoria, tan pronto como un disquete o programa es cargado en la misma, el virus se "suma" o "adhiere" a la memoria misma y luego es capaz de infectar cualquier archivo de la computadora a la que esta tuvo acceso.

Pueden ser Polimórficos: Algunos virus tienen la capacidad de modificar su código, lo que significa que un virus puede tener múltiples variantes similares, haciéndolos difíciles de detectar.

Pueden ser residentes en la memoria o no: Como lo mencionamos antes, un virus es capaz de ser residente, es decir que primero se carga en la memoria y luego infecta la computadora. También puede ser "no residente", cuando el código del virus es ejecutado solamente cada vez que un archivo es abierto.

Pueden ser furtivos: Los virus furtivos (stealth) primero se adjuntarán ellos mismos a archivos de la computadora y luego atacarán el ordenador, esto causa que el virus se esparza más rápidamente. Los virus pueden traer otros virus: Un virus puede acarrear otro virus haciéndolo mucho más letal y ayudarse mutuamente a ocultarse o incluso asistirlo para que infecte una sección particular de la computadora.

Pueden hacer que el sistema nunca muestre signos de infección: Algunos virus pueden ocultar los cambios que hacen, haciendo mucho más difícil que el virus sea detectado.

Pueden permanecer en la computadora aún si el disco duro es formateado: Si bien son muy pocos los casos, algunos virus tienen la capacidad de infectar diferentes porciones de la computadora como el CMOS o alojarse en el MBR (sector de buteo).

Importancia

Los virus pueden ser letales para una computadora, por lo que hay que darle gran importancia, pues la tiene, ya que nuestro ordenador podría verse afectado por un virus en cualquier momento, y lo mejor para evitarlo es tener un antivirus que no permita la entrada de un malware que pueda dañar, modificar o eliminar cualquier de nuestros archivo. Es importante resaltar, que para los usuarios de computadores, no es de gran importancia que sus computadoras contengan virus, debido a que permite que el software trabaje más lento o su sistema operativo en general, es decir, un virus informático, es un problema para las computadoras, entonces, para los creadores de antivirus, es importante que existan los virus, debido aquellos ganan dinero en la programación y creación de antivirus, porque estos programas son vendidos en el mercado, por ende, para ellos es gran importancia que existan los virus de computadora y que a su vez los virus son creados por ellos mismo en algunos casos.

Ventajas

Gran detección de virus polimórficos o desconocidos.

Gran Protección Garantizada.

Gran facilidad de uso.

Buena Apariencia.

Protección en tiempo real contra los virus.

Fácil de actualizar la base de virus para una mejor protección.

Elimina todo fácilmente.

Es Fácil de instalar.

Desventajas

Utiliza muchos recursos y pone lento el CPU.

Es lento a la hora de escanear.

Es apto para computadores que tengan como mínimo en 512 de Memoria RAM.

Las opciones de conexión, búsqueda y protección son muy reducidas y limitadas, obligando a tener que soportar muchas ejecuciones secundarias no deseadas del programa.

No es software libre.

Tipos o Clasificación

Existen fundamentalmente dos tipos de virus:

Aquellos que infectan archivos. A su vez, éstos se clasifican en:

Virus de acción directa. En el momento en el que se ejecutan, infectan a otros programas.

Virus residentes. Al ser ejecutados, se instalan en la memoria de la computadora. Infectan a los demás programas a medida que se accede a ellos.

Un virus es simplemente un programa, una secuencia de instrucciones y rutinas creadas con el único objetivo de alterar el correcto funcionamiento del sistema y, en la inmensa mayoría de los casos, corromper o destruir parte o la totalidad de los datos almacenados en el disco. De todas formas, dentro del término "virus informático" se suelen englobar varios tipos de programas, por lo que a continuación se da un pequeño repaso a cada uno de ellos poniendo de manifiesto sus diferencias. La clasificación es la siguiente:

Virus que afectan los sectores de arranque de los discos o infectores del área de carga inicial: infectan los disquetes o el disco duro y se alojan en el área donde están los archivos que se cargan a memoria principal antes de cualquier programado disk boot sector. Son los programas que le preparan el ambiente al sistema operativo para que pueda interactuar con un programado. Toman el control cuando se enciende la computadora y lo conservan todo el tiempo.

Virus de sistemas: este tipo de virus infecta archivos que la máquina utiliza como interfase con el usuario (programas intérpretes de mandatos o shells), como por ejemplo, el COMMAND.COM. De esta forma, adquieren el control para infectar todo disco que se introduzca en la computadora.

Virus de archivos: este tipo de virus ataca los archivos. La mayor parte de ellos invaden archivos ejecutables; e.j., archivos con las extensiones .EXE y .COM. La infección se produce al ejecutar el programa que contiene el virus cuando ‚éste se carga en la memoria de la computadora. Luego comienza a infectar todos los archivos con las extensiones antes mencionadas al momento de ejecutarlos, autocopiándose en ellos.

Dentro del término "virus informático" se suelen englobar varios tipos de programas, por lo que a continuación se da un pequeño repaso a cada uno de ellos poniendo de manifiesto sus diferencias.

Gusanos: son programas que se reproducen a sí mismos y no requieren de un programa o archivo anfitrión. Porque se replica, este tipo de intruso puede disminuir la capacidad de memoria principal o de un disco; puede hacer más lento el procesamiento de datos. Algunos expertos no lo clasifican como virus porque no destruyen archivos y por qué no requieren anfitrión alguno para propagarse. Afectan los sistemas conectados en redes.

Virus Puros: Un verdadero virus tiene como características más importantes la capacidad de copiarse a sí mismo en soportes diferentes al que se encontraba originalmente, y por supuesto hacerlo con el mayor sigilo posible y de forma transparente al usuario; a este proceso de autorréplica se le conoce como "infección", de ahí que en todo este tema se utilice la terminología propia de la medicina: "vacuna", "tiempo de incubación", etc. Como soporte entendemos el lugar donde el virus se oculta, ya sea fichero, sector de arranque, partición, etc. Un virus puro también debe modificar el código original del programa o soporte objeto de la infección, para poder activarse durante la ejecución de dicho código; al mismo tiempo, una vez activado, el virus suele quedar residente en memoria para poder infectar así de forma trasparente al usuario.

Bombas de Tiempo: son virus programados para entrar en acción en un momento predeterminado, una hora o fecha en particular. Se ocultan en la memoria de la computadora o en discos, en archivos con programas ejecutables con las extensiones .EXE y .COM. Cuando llega el momento apropiado, "explotan", exhibiendo un mensaje o haciendo el daño para el cual fueron programados. Se activan cuando se ejecuta el programa que lo contiene.

Caballos de Troya: son virus que se introducen al sistema bajo una apariencia totalmente diferente a la de su objetivo final, como el Caballo de Troya original. Al cabo de algún tiempo se activan y muestran sus verdaderas intenciones. Por ejemplo, un programa "disfrazado" puede estar presentándole al usuario unas gráficas bonitas en pantalla y por otro lado está destruyendo el contenido de algún archivo o está reformateando el disco duro. Por lo general, son destructores de información que esté en disco.

CAPÏTULO II
Anti-Virus

Reseña Histórica

Los antivirus son programas cuyo objetivo es detectar y/o eliminar virus informáticos, que nacieron durante la década de 1980. Con el transcurso del tiempo, la aparición de sistemas operativos más avanzados e Internet, ha hecho que los antivirus hayan evolucionado hacia programas más avanzados que no sólo buscan detectar virus informáticos, sino bloquearlos, desinfectarlos y prevenir una infección de los mismos, y actualmente ya son capaces de reconocer otros tipos de malware, como spyware, rootkits, etc.

Usualmente, un antivirus tiene un (o varios) componente residente en memoria que se encarga de analizar y verificar todos los archivos abiertos, creados, modificados, ejecutados y transmitidos en tiempo real, es decir, mientras el ordenador está en uso. Asimismo, cuentan con un componente de análisis bajo demando (los conocidos scanners, exploradores, etc), y módulos de protección de correo electrónico, Internet, etc.

El objetivo primordial de cualquier antivirus actual es detectar la mayor cantidad de amenazas informáticas que puedan afectar un ordenador y bloquearlas antes de que la misma pueda infectar un equipo, o poder eliminarla tras la infección.

Definición

Son programas desarrollados por las empresas productoras de Software. Tiene como objetivo detectar y eliminar los virus de un disco infectado estos programas se llaman antivirus, y tienen un campo de acción determinado, por lo cual son capaces de eliminar un conjunto de grandes virus, pero no todos los virus existentes, y protegen a los sistemas de las últimas amenazas víricas identificadas. Es un programa creado para prevenir o evitar la activación de los virus, así como su propagación y contagio. Cuenta además con rutinas de detención, eliminación y reconstrucción de los archivos y las áreas infectadas del sistema.

Un antivirus tiene tres principales funciones y componentes:

Vacuna, es un programa que instalado residente en la memoria, actúa como "filtro" de los programas que son ejecutados, abiertos para ser leídos o copiados, en tiempo real.

Detector, que es el programa que examina todos los archivos existentes en el disco o a los que se les indique en una determinada ruta o PATH. Tiene instrucciones de control y reconocimiento exacto de los códigos virales que permiten capturar sus pares, debidamente registrados y en forma sumamente rápida desarman su estructura.

Eliminador, es el programa que una vez desactivada la estructura del virus procede a eliminarlo e inmediatamente después a reparar o reconstruir los archivos y áreas afectadas.

Es importante aclarar que todo antivirus es un programa y que, como todo programa, sólo funcionará correctamente si es adecuado y está bien configurado. Además, un antivirus es una herramienta para el usuario y no sólo no será eficaz para el 100% de los casos, sino que nunca será una protección total ni definitiva. La función de un programa antivirus es detectar, de alguna manera, la presencia o el accionar de un virus informático en una computadora. Este es el aspecto más importante de un antivirus, independientemente de las prestaciones adicionales que pueda ofrecer, puesto que el hecho de detectar la posible presencia de un virus informático, detener el trabajo y tomar las medidas necesarias, es suficiente para acotar un buen porcentaje de los daños posibles. Adicionalmente, un antivirus puede dar la opción de erradicar un virus informático de una entidad infectada

Importancia

La función de un programa antivirus es detectar, de alguna manera, la presencia o el accionar de un virus informático en una computadora. Este es el aspecto más importante de un antivirus, independientemente de las prestaciones adicionales que pueda ofrecer, puesto que el hecho de detectar la posible presencia de un virus informático, detener el trabajo y tomar las medidas necesarias, es suficiente para acotar un buen porcentaje de los daños posibles. Adicionalmente, un antivirus puede dar la opción de erradicar un virus informático de una entidad infectada.

Tipos o Clasificación de Antivirus

Los antivirus informáticos son programas cuya finalidad consiste en la detección, bloqueo y/o eliminación de un virus de las mismas características. Una forma de clasificar los antivirus es:

Antivirus Preventores: Como su nombre lo indica, este tipo de antivirus se caracteriza por anticiparse a la infección, previniéndola. De esta manera, permanecen en la memoria de la computadora, monitoreando acciones y funciones del sistema.

Antivirus Identificadores: Esta clase de antivirus tiene la función de identificar determinados programas infecciosos que afectan al sistema. Los virus identificadores también rastrean secuencias de bytes de códigos específicos vinculados con dichos virus.

Antivirus Descontaminadores: Comparte una serie de características con los identificadores. Sin embargo, su principal diferencia radica en el hecho de que el propósito de esta clase de antivirus es descontaminar un sistema que fue infectado, a través de la eliminación de programas malignos. El objetivo es retornar dicho sistema al estado en que se encontraba antes de ser atacado. Es por ello que debe contar con una exactitud en la detección de los programas malignos.

Antivirus en Línea (por medio de Internet): No proporcionan protección, sólo sirven para hacer un análisis y detectar la presencia de virus. No hay que instalarlo en el ordenador, sino que usted accede a la página Web del antivirus y procede a la búsqueda de virus en su ordenador. Sólo funcionan cuando se entra en la página Web de la aplicación. No protegen su ordenador permanentemente. Es de utilidad para saber si el sistema está infectado.

Software Antivirus: Consiste en un programa que se debe instalar en su ordenador. Protege su sistema permanentemente, si algún virus intenta introducirse en su ordenador el antivirus lo detecta. La desventaja es el precio, ya que es un Software antivirus de pago.

Otra manera de clasificar a los antivirus es la que se detalla a continuación:

Cortafuegos: Estos programas tienen la función de bloquear el acceso a un determinado sistema, actuando como muro defensivo. Tienen bajo su control el tráfico de entrada y salida de una computadora, impidiendo la ejecución de toda actividad dudosa.

Antiespías: Esta clase de antivirus tiene el objetivo de descubrir y descartar aquellos programas espías que se ubican en la computadora de manera oculta.

Antipop-Ups: Tiene como finalidad impedir que se ejecuten las ventanas pop-ups o emergentes, es decir a aquellas ventanas que surgen repentinamente sin que el usuario lo haya decidido, mientras navega por Internet.

Antispam: Se denomina spam a los mensajes basura, no deseados o que son enviados desde una dirección desconocida por el usuario. Los antispam tienen el objetivo de detectar esta clase de mensajes y eliminarlos de forma automática.

Autor:

Michael Vitriago

*****************************************************
Mejora en los autos

Introducción
El automóvil
Automóviles en la actualidad
Autos eléctricos
El auto del futuro
Conclusiones
Bibliografía

Introducción

Desde hace muchos años los autos han estado evolucionando, las mismas necesidades han hecho que se modifiquen, pero no solo son las necesidades, sino también los gustos de cada persona han hecho que los autos sean más lujosos y rápidos a la vez. Es obvio que entre autos mas lujos su precio se cotiza mas, como por ejemplo ahora en la actualidad, una empresa que puede tener autos de lujo son: mercedes Benz, Ferrari, Cadillac, BMW, Lincoln y Acura.

Los precios de dichos autos sobrepasan el millón de pesos, es difícil comprender como es que halla personas que puedan pagar ese precio, pero son empresas que ganan mucho dinero es mas que obvio que realizaron un estudio de mercado y cosas por el estilo, por un ejempló en Puebla, hay muchas agencias de autos de lujo muy caros y hay quienes los compran.

En el siguiente ensayo que presentaremos, hablaremos acerca de los autos desde el primero hasta las novedades de los autos mas recientes, pero como sabemos aparte de la tecnología que se le viene implementando a los autos, y no solo es que traiga un navegador satelital, un estéreo con bluetooth, el ahorro en el combustible y la seguridad que puede proporcionar en el autos sin duda son grandes avances.

Los autos cada vez buscan el ahorro de combustible, ahora que el precio es muy alto, al igual se están preparando para el futuro, cuando los noveles de gasolina sean escasos el precio aumentara drásticamente, es por eso que esta desarrollando autos totalmente eléctricos y que emitan menos gases dañinos a la capa de ozono.

El automóvil

El término automóvil es utilizado para referirse a los automóviles de turismo, existen otros tipos de automóviles, como camiones, autobuses, furgonetas, motocicletas, motocarros o cuatriciclos.

En España, el Real Decreto 2822/1998, de 23 de diciembre, por el que se aprueba el Reglamento General de Vehículos, define "automóvil " en el anexo II como vehículo de motor que sirve, normalmente, para el transporte de personas o mercancías, o de ambas a la vez.

HISTORIA DEL AUTOMÓVIL

La historia empieza con los vehículos autopropulsados por vapor del siglo XVIII. En 1885 se crea el primer vehículo automóvil por motor de combustión interna con gasolina.

La inversión del primer automóvil fue por Nicolas-Joseph Cugnot, quien construyó un automóvil de vapor, diseñado inicialmente para arrastrar piezas de artillería. El Fardier, como lo llamó Cugnot, comenzó a circular por las calles de París en 1769. Se trataba de un triciclo que montaba sobre la rueda delantera una caldera y un motor de dos cilindros verticales y 50 litros de desplazamiento; la rueda delantera resultaba tractora y directriz a la vez, trabajando los dos cilindros directamente sobre ella. En 1770 construyó un segundo modelo, mayor que el primero, y que podía arrastrar 4.5 toneladas a una velocidad de 4 Km. /h. Con esta versión se produjo el que podría considerarse primer accidente automovilístico de la historia, al resultar imposible el correcto manejo del monumental vehículo, que acabó chocando contra una pared que se derrumbó fruto del percance. Todavía tuvo tiempo Cugnot de construir una tercera versión en 1771, que se conserva expuesta en la actualidad en el Museo Nacional de la Técnica de París.

En 1815 Josef Bozek, construyó un auto con motor propulsado con aceite. Walter Hancock. En 1838 Robert Davidson construyó una locomotora eléctrica que alcanzó 6 km por hora. Entre 1832 y 1839 Robert Anderson inventó el primer auto propulsado por células eléctricas no recargables.

Alrededor de 1870, en Viena, el inventor Siegfried Marcus hizo funcionar motor de combustión interna a base de gasolina, conocido como el primer coche de Marcus. En 1883 Marcus patentó un sistema de ignición de bajo voltaje que se implantó en modelos subsiguientes.

En 1900 le podemos llamar la etapa veterana, la producción masiva de automóviles había ya empezado en Francia y USA. Las primeras compañías creadas para fabricar automóviles fueron las francesas Panhard et Levassor y Peugeot. En 1908, Henry Ford comenzó a producir automóviles en una cadena de montaje, sistema totalmente innovador que le permitió alcanzar cifras de fabricación hasta entonces impensables.

La Etapa del latón así nombrada por el uso frecuente del latón para las carrocerías. En esta etapa la estética de los automóviles aún recordaba a la de los antiguos coches de caballos.

Etapa de época comprende desde el final de la primera guerra mundial hasta la gran depresión de 1929.

Etapa preguerra abarca desde 1929 1949 desarrollo de los coches completamente cerrados y de forma más redondeada.

Etapa moderna caracterizada por el desarrollo de motores más seguros y eficientes y menos contaminantes.

Automóviles en la actualidad

Los automóviles en masa, es lo que pasa ahora hay muchos automóviles, quizás no se fácil de ver, per se podría pensar que a donde va esa chatarra de los automóviles, después de un tiempo o cuando dejan de ser útiles, por otra parte el daño a nuestro medio ambiente ha sido demasiado, es mas que obvio que no solo por automóviles, pero seguimos haciendo daño, y aun así no dejamos de usarlos.

Los autos de ahora, sabemos que cuentan con un GPS para poder ayudarte en rutas desconocidas, o incluso cuando no sepas a donde o como llegar a dicho lugar, el GPS te guiara hasta dicho lugar, sin duda una gran ventaja en los autos, pero alguna desventaja por decir es que no todos los autos lo cuenta, que ya eso depende de la versión del automóvil y la clase, ahora si por decir el precio lo dice todo, pues como el precio lo dice es más que obvio que los autos de lujo contaran con ese medio, por eso es que sacas tantas versiones de autos del mismo modelo y año, de alguna forma también es una forma de sacar mas dinero.

Algo que también esta de moda en los autos de ahora es que se estacionan solo, por hablar de alguno en partícula es Ford, el cual ha integrado en sus nuevos modelos la tecnología de Asistencia Activa de Aparcamiento, el cual permite que el auto realice las maniobras para estacionarse solo, el conductor en realidad no tendrá que hacer nada.

Esto se logra mediante diez sensores ultrasónicos situados en las laterales del vehículo y en los parachoques trasero y delantero, el cual permite facilitar la maniobra de estacionar y minimizar la posibilidad de roces o desperfectos en la operación. Los sensores en la parte frontal buscan huevos entre los carros estacionados a un lado, encontrando un espacio, alertan mediante una señal acústica y una visual en la pantalla de la consola central.

El conductor sólo tendrá que preocuparse de manejar los pedales de acelerador y freno, además de elegir entre la marcha atrás y primera. El sistema electrónico de dirección asistida es sobre el control del volante, usa la información recogida por los sensores para encajar el coche en el espacio de manera automática. Con solo pulsar un botón, puedes estacionar en los huecos más pequeños y, al mismo tiempo, reduces el riesgo de dañar accidentalmente tu coche o los que lo rodean.

Monografias.com

Otro punto de los autos de ahora, es un punto o una característica muy importante, no solo engloba los autos sino al mundo y las personas, las emisiones de dióxido de carbono, ahora ya los autos, están tratando de hacerse mas ahorrativos, con respecto al consumo de gasolina y contaminantes.

Un ejemplo de un automóvil que ahorre gasolina es la camioneta RAM 2500, su motor es de 8 cilindros 5.7 litros, cuando la camioneta o el motor mejor dicho no sea forzado solo trabajaran 4 pistones y si le aceleras trabajaran los 8 para mayor potencia sin sentir el cambio de trabajo de los pistones, cabe mencionar que puedes alcanzar la misma velocidad con a que trabajen los 4 u 8 pistones, aquí la variante es el tiempo, y este tipo de motores o tecnología se empezó a usar en los modelos del 2009 en adelante, pero por ahora Dodge no es la única empresa que tiene estos automóviles, hay mas que están sacando estos motores, sin duda una gran innovación.

Ahora presentamos una lista de autos que son lo más ahorrativos en combustible:

Honda Insight 2000 (3cil. 1.0L híbrido) consumo combinado: 22.53Km/l

Toyota Prius 2010 (4cil. 1.8L híbrido) consumo combinado: 21.26Km/l

Chevrolet Sprint ER 1986 (3cil. 1.0L) consumo combinado: 20.41Km/l

Geo Metro XFI 1990-1994 (3cil 1.0L) consumo combinado: 19.98Km/l

Honda Civic Coupe HF 1986-1987 (4cil 1.5L) consumo combinado: 19.56Km/l

Honda Civic hatchback VX 1994-1995 (4cil. 1.5L) consumo combinado: 18.28Km/l

Honda Civic Hybrid 2006-2010 (4cil 1.3L híbrido) consumo combinado: 17.86Km/l

Honda Insight 2010 (4cil 1.3l híbrido) consumo combinado: 17.43Km/l

Autos eléctricos

Los autos eléctricos existen desde finales del siglo XIX, pero su desarrollo sólo fue tomado en serio a partir de la crisis del petróleo que afectó al mundo a mediados de los años setenta. Hoy, con los problemas energéticos y la contaminación atmosférica producida por miles de autos de combustión interna, hay razones suficientes para motivar la creación de vehículos que funcionen con energía eléctrica.

Los autos eléctricos, más bien conocidos como C-ro, provienen de China, y su particular característica es que no ocupa bencina, sino un motor eléctrico, que solo se carga enchufándolo, en algún cargador. Chile es uno de los primeros países de Sudamérica en traer este tipo de autos, que solo cuestan entre 4 y 8 millones y se cargan en tan solo 8 horas, consumiendo entre ocho y 10 kilowatts, que equivale a un gasto de $700.

Hace poco tiempo atrás se veía a los autos eléctricos como una posibilidad muy distante.Sin embargo en el mundo, por la actual crisis del petróleo y el daño notorio al ambiente que ocasionan productos, como la polución que provocan los autos de combustión interna, los autos eléctricos han llegado a ser mas populares y bien pueden ser parte importante de nuestro futuro no muy distante.

Automóviles eléctricos han sido producidos, probados y testeados por muchos fabricantes y consumidores que están excitados con los proyectos.

Los autos eléctricos son limpios y seguros para el ambiente, por conducir autos eléctricos nuestra generación puede virtualmente eliminar la polución ambiental y hacer al aire limpio para futuras generaciones.

Aire limpio es una necesidad y los autos eléctricos pueden trabajar para proveerlo.Los automóviles eléctricos son más accesibles que los movidos por otros combustibles, como los derivados del petróleo, el mas conocido es el hidrogeno, que bajo adecuadas mediadas, ofrece mayor seguridad que el petróleo refinado.

Los motores eléctricos para automóviles no son nuevos. En época tan lejana como fines del siglo XIX e inicios del XX, hace más de 100 años, un diseñador y constructor de autos del calibre de Ferdinand Porsche, fabricó un auto con máquina eléctrica que era viable. Pero en aquellos tiempos los automóviles no corrían más de 40 Km/h, los viajes no llegaban a 100 Km y el peso del vehículo no significaba nada.

El desarrollo automotor aconsejó la utilización de motores de combustión interna, que llegaron rápidamente a cotas inimaginables. Año tras año fueron mejorando su potencia, régimen de giro (revoluciones por minuto) y velocidad punta (kilómetros por hora, incluyendo aceleración) fueron y todavía son, los máximos logrados en cualquier automóvil del siglo XX.

La contaminación ambiental, el calentamiento global, el próximo fin de los combustibles derivados del petróleo, aconsejan hoy, en pleno siglo XXI, cambios en los combustibles de los motores de combustión interna o algo mucho mejor: su eliminación definitiva. Esto ha tomado por sorpresa a la industria automotriz.

Una variante propagada por los defensores de los motores de combustión interna, que no están dispuestos a aceptar el fin de su utilidad, podría ser el cambio del combustible fósil por otros combustibles a base de alcoholes derivados de la caña de azúcar, el maíz, la soya, la remolacha y otros cultivos que ahora mismo sirven de alimentación a gran parte de la población.

Sin embargo, el motor eléctrico sigue siendo una alternativa viable siempre que se desarrolle. Los autos eléctricos son hoy todavía una curiosidad automotriz. Tienen muy poca autonomía, sus fuentes de energía pesan demasiado y su velocidad no cubre los requerimientos actuales. No obstante, se reúnen los inventores, hacen competencias y se desarrollan, pero muy lentamente aún.

¿Por qué los autos eléctricos aún no se han impuesto en el mercado?

Los argumentos han sido varios. Entre ellos podemos señalar su baja autonomía, la mayoría son muy pequeños en su versión de CITYCAR, pero la explicación que está más en boga es el complot internacional de las compañías petroleras que han confabulado en contra de su masificación. Lo cierto es que la promesa que hubo hace un tiempo de que los autos eléctricos serían muy baratos, no fue tal, ya que supuestamente costarían alrededor de 3 o 4 millones de pesos en Chile, y vaya sorpresa, aquí llegaron a costos superiores a 5 millones y medio. Obviamente que por esos precios sigue siendo más atractivo el auto común y corriente, movido por petróleo o gasolina.

Por otra parte, existen los recuerdos de los fracasos de autos eléctricos y la imagen de cementerios de modelos experimentales que, o no funcionaron o complotaron contra su funcionamiento.

Monografias.com

El auto del futuro

Los autos del futuro, sin duda serán más rápidos, con cada vez menos consumo de gasolina, y una tecnología mas inteligente, sin duda varias empresas por la competencia que hay en el mercado están sacando muchos autos con tecnología de ultimo modelo, pero el autos con el tiempo se ira innovando incluso hablar con el, tener sensores y cámaras que capturen las rutas para cuando quieras llegar a un lugar tu solo lo ordenas, y quizás así mejorar hasta llegar el punto donde ya las personas no manejaremos todo será por computadores y sistematizado, se tienen varias hipótesis de que si en vez de manejar un humano a que manejara una maquina o autos inteligentes (nos referimos a autos que se manejen solos) el riesgo de accidentes bajaría considerablemente, es impresionante que sucediera eso, pero a la sociedad le costaría trabajo adaptarse a ese tiempo de tecnología, no confiarías tanto en autos que no sabes a donde te llevaran o si diste las ordenes bien. Por otra parte porque no pensar en autos que vuelen como esa caricatura de los súper sónicos, por ahora quizás sean sueños o todo parezca ciencia ficción, pero en un futuro no muy lejanos podemos llegar a esa tecnología que ahora nos burlaríamos, pero sin duda las innovación van creciendo día a día, a pasos muy grandes que el día menos esperados ya tendremos autos voladores o que alcancen velocidades muy grandes, y moverse ya no sea ningún problema o cuestión del tiempo.

Monografias.com

Conclusiones

Es un tema muy interesante, sobre todo actual, los automóviles se han convertido en unas de las cosas mas indispensables para el traslado de lugares en lugares, pero como pudimos observar no solo se trata de un auto normal, a como pasa el tiempo la tecnología sigue desarrollándose, y poder aplicarla en los autos es impresionante.

El mercado en la industria del automóvil es muy amplio y sobre todo muy competido por las grandes empresas, cabe destacar que hay autos para cada tipo de gustos y necesidades, desde el que tiene dinero para comprar un auto muy lujoso y elegante hasta que el que quiere uno solo para satisfacer sus necesidades, o solo para hacerle su trabajo mas fácil. Pero no solo se trata de crear un automóvil y que se vea bonito, también es importante tener en cuenta el consumo de combustible, saber si puedes darle el mantenimiento adecuado, pero otra cosa mas importante el daño, como sabemos todo lo bueno trae consigo algo malo, en este caso es que por un tiempo no nos preocupo el daño que ocasionarían los autos de combustión interna, ahora las altas cantidades de concentración de dióxido de carbono son muy peligrosas, y la misma necesidad nos esta haciendo crear autos que ya no tengan ese defecto, pero tener un auto 100% que no contamine yo diría que no existe, hay autos que trabajan con menos combustible y no emiten tantos gases a la atmosfera pero al final emiten.

La tecnología crece y puede lograrse magia en los autos todo es cuestión de seguir investigando y saber hasta donde puede llegar el ser humano.

Bibliografía

http://poderelectrico.blogspot.mx/

http://www.tudiscovery.com/elfuturodelosautos_entv/

http://autos.terra.com/noticias/el_auto_del_futuro_cada_vez_mas_cerca/aut1495/

http://mx.noticias.autocosmos.yahoo.net/2010/06/14/los-10-autos-mas-ahorradores-de-combustible-de-los-ultimos-25-anos

Hill L. (1958). Mixed Blessing: The Motor in Britain. Buchanan

Autor:

Jiménez Orea Jorge Iván

Benemérita Universidad Autónoma de Puebla

Facultad de Ingeniería

Ingeniería Mecánica y Eléctrica

Asignatura

DHTIC

H. Puebla de Zaragoza a 2 de Noviembre del 2012

*****************************************************
Estado del arte de la investigacion de la biomasa como alternativa energetica

Introducción
Marco teórico
Referencias bibliográficas

Introducción

La energía en su mayor parte se produce con combustibles fósiles como el petróleo y el carbón. Sin embargo, en los últimos años se ha venido implementando un conjunto de nuevas tecnologías que utilizan la biomasa como combustible, generando un porcentaje de energía limpia, el cual reduce los Gases de Efecto Invernadero (GEI) que tanto daño está causando a nuestro planeta tierra, estos gases que afectan el medio ambiente son: el metano (CH4), el monóxido de carbono (CO) y el dióxido de carbono (CO2), los cuales causan el efecto del calentamiento global del planeta (Carmona et al., 2005).

Biomasa, según el Diccionario de la Real Academia Española, tiene dos acepciones:

1. f. Biol. Materia total de los seres que viven en un lugar determinado, expresada en peso por unidad de área o de volumen.

2. f. Biol. Materia orgánica originada en un proceso biológico, espontáneo o provocado, utilizable como fuente de energía (Española, 2012).

La primera acepción se utiliza habitualmente en Ecología. La segunda acepción, más restringida, se refiere a la biomasa 'útil' en términos energéticos formales: las plantas transforman la energía radiante del Sol en energía química a través de la fotosíntesis, y parte de esa energía química queda almacenada en forma de materia orgánica; la energía química de la biomasa puede recuperarse quemándola directamente o transformándola en combustible (biogás).

Energía Renovable: Se denomina energía renovable a la energía que se obtiene de fuentes naturales virtualmente inagotables, ya sea por la inmensa cantidad de energía que contienen, o porque son capaces de regenerarse por medios naturales. Entre las energías renovables se cuentan la eólica, geotérmica, hidroeléctrica, maremotriz, solar, undimotriz, la biomasa y los biocombustibles (Wikipedia, 2012).

Como se menciono en la definición de biomasa, es una fuente de energía renovable del cual se puede obtener "biogás" la bibliografía especializada hace referencia de diversa manera la historia y la naturaleza del biogás, pero todos coinciden en señalar que es el gas biológico combustible obtenido mediante la digestion anaeróbica de los compuestos o materia de origen organico, es decir bacterias que se encargan de descomponer el residual orgánico, produciendo una fermentación anaeróbica en ausencia de oxigeno, cuyo principal componente es el metano (CH4), e identificado por primera vez en 1667, por shiley, como "gas de pantanos". Se afirma que la primera instalación de biogás se construyó en 1859 en Bombay, India para el tratamiento de excretas humanas, y el gas que en ella se generó fue utilizado para el alumbrado; a partir de ese momento se ha incrementado el número de biodigestores, y actualmente funcionan en ese país alrededor de doscientas mil unidades. China es hoy la región que tiene un mayor número de este tipo de instalaciones, aproximadamente 6,7 millones (Sorrondequí, 2012).

El biogás es un gas compuesto por alrededor de 60% a 66% de gas metano (CH4) y 33% a 40 % de bióxido de carbono (CO2) y otras cantidades minimas de gases, entre ellos 1 % de ácido sulfhídrico (H2S). Es un poco más livianos que el aire y posse una temperatura de inflamción de 700 0C, y su llama alcanza una temperatura de 870 0C. Con un contenido de metano mucho menor de 50 %, el biogás deja de ser inflamable. Su poder calorifico promedio es de 5000 Kcal. Un metro cúbico de biogas permite generar entre 1.3-1.6 KWh, que equivalen a medio litro de petróleo, aproximadamente (J. E. Coto, 2007).

El biogas puede ser utilizado como cualquier otro combustible, tanto para la cocción de alimentos, en sustitución de la leña, el keroseno, el gas licuado, etc., tambien puede utilizarse para el alumbrado, mediante lámparas adaptadas. Las mezclas de biogás con aire, en una relación 1:20, forman un gas detonante altamente explosivo, lo cual permite que tambien sea empleado como combustible en motores de combustión interna adaptados (Cadavid, 1998).

CAPITULO I
Marco teórico

1. LAS FUENTES RENOVABLES DE ENERGIA.

Las fuentes renovables de energía (FRE), o fuentes limpias de energía, por excelencia son la energía solar y sus manifestaciones como el viento, que es producto de un calentamiento desigual de la Tierra por parte de la radiación solar; la hidráulica, que tiene su origen en la evaporación, también por la acción del calor solar, del agua de los océanos, lagos y ríos, encharcamientos, etcétera, y su posterior condensación y caída en forma de lluvia; la biomasa, que es materia orgánica que está formada por arbustos, árboles, pastos, cultivos, residuos orgánicos, que se nutrieron con la participación de la energía del sol; el oleaje marino, que es a su vez ocasionado por el viento, entre otras, en la figura 1 se puede observar las FRE. La energía geotérmica y la de las mareas también se consideran renovables, aunque son quizás, junto con los combustibles nucleares, las únicas fuentes energéticas que no tienen su origen en el sol. Sin embargo el petróleo y sus derivados, así como el carbón mineral, se formaron durante millones de años a partir de la fosilización de biomasa en procesos energéticamente muy poco eficientes, los cuales emanan gases contaminantes en la atmosfera, produciendo el Efecto Invernadero (GEI) que tanto daño está causando a nuestro Planeta Tierra ya que genera cambios climáticos que afectan a todas las especies animales y plantas, estos gases que afectan el medio ambiente son: el metano (CH4), el monóxido de carbono (CO) y el dióxido de carbono (CO2), los cuales causan el efecto del calentamiento global del planeta (Carmona et al., 2005).

Monografias.com

Figura 1 Fuentes Renovables de Energía (FRE)

2. EVOLUCION HISTORICA DE LA APLICACIÓN DE LAS FUENTES RENOVABLES.

Durante milenios el hombre basó su consumo energético en las fuentes renovables de energía; desde su origen empleó biomasas para cocinar sus alimentos y calentarse; hace mas de 6,500 años ya empleaba la energía del viento para propulsar embarcaciones y posteriormente la empleó para moler sus granos y para irrigar sus campos de cultivo. Se tienen referencias sobre proyectos del emperador Hammurabi para irrigación empleando la energía eólica que data del 1700 A.C. (Ricón Mejia, 2006)

Posteriormente los persas, los griegos, los chinos, los holandeses, etc., emplearon con éxito a través de los siglos la energía del viento. En la actualidad existen aún en operación algunos centenares de aerobombas del tipo multipala, del cual se fabricaron más de seis millones, después de su invención en 1854.

Fue el descubrimiento de grandes yacimientos de combustibles fósiles, y el desarrollo de las tecnologías que permitían su explotación, la causa de que cayeran en desuso estos pequeños sistemas descentralizados de aprovechamiento de las fuentes renovables de energía, y de que se establecieran en su lugar sistemas altamente centralizados, que si bien ofrecían energía abundante y barata para el desarrollo industrial, trajeron consigo la implantación de patrones de consumo irracional de ésta y como consecuencia el deterioro del medio ambiente, crecimiento desbordado de las ciudades, con los problemas que esta genera, aunado con el abandono gradual del sector rural.

A partir de entonces, la evolución de los sistemas de aprovechamiento de las FRE se ha caracterizado por una sucesión de períodos de entusiasmo seguidos por otros de estancamiento, que han dependido de los costos y disponibilidad de los recursos fósiles. El periodo de gran entusiasmo comprendió los inicios de los 50"s y mediados de los 60"s, en el que se funda la Sociedad Internacional de Energía Solar (ISES) en 1954 y se efectúa la conferencia mundial de la ONU sobre fuentes nuevas de energía en 1961, siguió un periodo de estancamiento ocasionado por los bajos precios del petróleo.

El embargo petrolero árabe de 1973, que recientemente cumplió 39 años de haberse realizado, originó como reacción en los países industrializados afectados (Noruega, Holanda, US, China, Alemania, Japón, Gran Bretaña, India), el establecimiento de programas y políticas orientados a la sustitución del petróleo como fuente energética con base en gran medida en las FRE, con lo que se impulsó nuevamente su investigación y desarrollo. Paralelamente se busco la diversificación de proveedores de petróleo, y el ahorro de energía en la industria, el transporte, etc. Tanto éxito tuvieron las medidas de ahorro (y se sigue avanzando en este sentido, como ejemplo podemos mencionar la eficiencia que se ha desarrollado en los motores de los automóviles), que la demanda de energía en esos países se vio drásticamente detenida, ocasionando esto a su vez, una tendencia a la baja en los precios del petróleo y una nueva disminución de los presupuestos oficiales para investigación y desarrollo de FRE, ya que un porcentaje del producto interno bruto (PIB) de la explotación del petróleo se destina para la investigación. A 39 años de distancia, actualmente el consumo per cápita de petróleo en los EUA es muy inferior al correspondiente a 1973, pero las importaciones de crudo por parte de ese país, se han incrementado en forma neta a niveles récord muy superiores a los de aquel año, seguramente por lo bajo que está su precio en el mercado internacional, gracias a políticas y acciones enfocadas a ese fin.

En ese breve periodo (crisis petroliferas1973 y 1979), se lograron desarrollar sistemas confiables, eficaces y altamente rentables desde el punto de vista económico. Ejemplo de ellos son los aerogeneradores empleados ya por millares, los diversos sistemas de calefacción para uso doméstico, la producción de miles de metros cuadrados de módulos fotovoltaicos y la producción de metanol y su empleo como combustibles a partir de biomasas.

La creciente inclusión de los costos del daño ambiental (llamada internacionalmente costos ambientales) a nuestro planeta tierra, ocasionados por la explotación del petróleo nos llevan a tomar medidas en los procesos de generación de energía, traerá aparejados nuevos referentes y reformulaciones sobre la rentabilidad real de los proyectos de implantación de las FRE. Esta internalización de los costos ambientales puede representar una de las transformaciones estructurales del mercado de los energéticos más significativos, debido a que las FRE se consideran energías limpias, desde la implantación del petróleo como fuente predominante en la base energética mundial.

Debido al factor de daño ambiental, al desarrollo tecnológico propio de algunas FRE y a los costos de calidad incorporados en el precio de los combustibles fósiles, actualmente se vislumbra un panorama de expansión en el uso de las FRE a nivel mundial y previsible, con dicha expansión y con el fortalecimiento de los aún incipientes mercados, se producirá, a su vez, otra transformación estructural en estos mercados que incluye: economías de escala en su producción y comercialización, difusión general de sus tecnologías y una aceptación cultural que harán posible el uso creciente y generalizado de dichas energías.

3. BIOMASA FUENTE RENOVABLE DE ENERGÍA.

El uso de la biomasa (plantas, hojas secas, desechos animales) es casi tan viejo como el hombre. Basta con secarlas y quemarlas para obtener energía térmica. Sin embargo, esta forma rudimentaria de utilizarlas, contribuye en gran medida a la deforestación y la secuela de problemas que ésta acarrea (disminución en la productividad de la tierra, desertificación). Esta situación se irá agravando cada vez más mientras el principal energético del medio rural siga siendo la leña. Urge pues, dotar al sector rural de una fuente alterna de energía.

Como ya se menciono anteriormente, la biomasa primaria es la vegetal, sin embargo, ésta puede ser transformada por otros seres vivos que se nutren de la misma y generan la denominada biomasa animal o biomasa de los residuos animales. Asimismo, diversas actividades industriales que manejan biomasa vegetal o animal generan subproductos. Los núcleos de población, fruto de la actividad cotidiana de sus habitantes, también generan residuos, en la siguiente figura 2 se presenta estas fuentes de biomasa.

Una buena opción consiste en generar gas metano a partir de la fermentación de la materia orgánica contenida en los desechos animales y humanos, por la acción de las bacterias anaerobias dentro de digestores.

Monografias.com

Figura 2.- Fuentes de biomasa.

El metano podría emplearse para cocinar alimentos o en alguna otra aplicación como por ejemplo en la generación de electricidad y potencia calorífica para las calderas. Esta alternativa tiene la ventaja de proporcionar, además del gas, fertilizantes productos de la fermentación y un medio para deshacerse de desechos que podrían constituir focos de infección, contaminación del suelo y del agua.

DEFINICION DE BIOMASA

Biomasa, según el Diccionario de la Real Academia Española, tiene dos acepciones:

1 f. Biol. Materia total de los seres que viven en un lugar determinado, expresada en peso por unidad de área o de volumen.

2 f. Biol. Materia orgánica originada en un proceso biológico, espontáneo o provocado, utilizable como fuente de energía (Española, 2012).

La primera acepción se utiliza habitualmente en Ecología. La segunda acepción, más restringida, se refiere a la biomasa 'útil' en términos energéticos formales: las plantas transforman la energía radiante del Sol en energía química a través de la fotosíntesis, y parte de esa energía química queda almacenada en forma de materia orgánica; la energía química de la biomasa puede recuperarse quemándola directamente o transformándola en combustible (biogás).

TIPOS DE BIOMASA

Atendiendo a su origen, podemos clasificar la biomasa, de la cual se puede extraer la energía útil para la humanidad, en: Residuos Sólidos Agrícolas, Residuos Sólidos Forestales, Cultivos Energéticos y Residuos Sólidos Urbanos (Dirección General de Industria, Energia y Minas, 2002). En la siguiente figura 3 se muestra los tipos de biomasa.

Monografias.com

Figura 3 Tipos de biomasa (Dirección General de Industria, Energia y Minas, 2002)

a. Residuos Sólidos Agrícolas: Entendemos como Residuos Sólidos Agrícolas aquellos que provienen de cultivos leñosos o herbáceos. Estos restos se obtienen de los restos de los cultivos, y también de las limpiezas que se hacen en el campo para evitar las plagas o los incendios.

b. Los Residuos Forestales: Estos residuos pueden venir, por un lado, del mantenimiento y la mejora de las montañas y masas forestales cuando se hacen podas, limpiezas, etc., por otro lado, son los residuos resultantes de cortar los troncos de los árboles para hacer productos de madera, como muebles, etc.

c. Los Cultivos Energéticos: Son unas plantaciones de crecimiento rápido, destinados únicamente a la producción de energía, estos cultivos energéticos se clasifican en cuatro tipos:

Cultivos tradicionales: Se trata de cultivos que ha utilizado el hombre tradicionalmente y que ya no son rentables en su aplicación alimenticia o industrial habitual. Entre estos cultivos pueden señalarse los cereales, la remolacha, la caña de azúcar.

Cultivos pocos frecuentes: cultivos que pueden implantarse en terrenos difíciles de explotar por los cultivos destinados a la alimentación. Pueden mencionarse las plantaciones de pitas (henequén, sábila, maguey), cardos (onopardun).

Cultivos acuáticos: Un altísimo porcentaje de la superficie terrestre esta cubierta de agua, donde los rayos solares alimentan a un considerable número de plantas acuáticas. Algunas de estas plantas, entre los que se pueden señalar las algas, Macrocystis, Nerocystis, en aguas saladas, y el jacinto de agua, en agua dulce, podían cultivarse con finalidad energética.

Cultivos óptimos para la obtención de combustibles líquidos. Hay plantas con propiedades similares a las de los derivados del petróleo que , mediante un sencillo tratamiento, pueden proporcionar combustibles líquidos. En este sentido pueden señalarse la planta africana (elaeis guineensis), la tabaiba ( euphorbia lathyris), etc.

d. Los Residuos Sólidos Urbanos: Se refiere a la basura doméstica, denominada RSU, el tratamiento y eliminación de estos residuos constituye un problema cada día más agobiante debido a su incesante crecimiento, a medida que aumente la población y el nivel de vida de la misma. Los desechos tienen un alto contenido en materia orgánica, y otros componentes, como el papel, con un poder calorífico similar al de los carbones de baja calidad (Eléctrica, Guía del electricista, 2012). Actualmente, con tecnologías muy diversas, se extrae la energía que nosotros hemos depositado en el contenedor de la calle en forma de bolsa de basura, los cuales se seleccionan para poderlos reciclar y recuperar todo lo que sea posible. La fracción no reciclable recibe diversos tratamientos: a menudo, se sitúa en depósitos controlados, se incinera o es tratada para obtener "composta". El cual se utiliza en el campo agrícola para fertilizar. (Cadavid, 1998)

4. BIOGAS

La bibliografía especializada hace referencia de diversa manera la historia y la naturaleza del biogás, pero todos coinciden en señalar que es el gas biológico combustible obtenido mediante la digestion anaeróbica de los compuestos o materia de origen organico, es decir bacterias que se encargan de descomponer el residual orgánico, produciendo una fermentación anaeróbica en ausencia de oxigeno, cuyo principal componente es el metano (CH4), e identificado por primera vez en 1667, por shiley, como "gas de pantanos". Se afirma que la primera instalación de biogás se construyó en 1859 en Bombay, India para el tratamiento de excretas humanas, y el gas que en ella se generó fue utilizado para el alumbrado; a partir de ese momento se ha incrementado el número de biodigestores, y actualmente funcionan en ese país alrededor de doscientas mil unidades. China es hoy la región que tiene un mayor número de este tipo de instalaciones, aproximadamente 6,7 millones (Sorrondequí, 2012).

El biogás es un gas compuesto por alrededor de 60% a 66% de gas metano (CH4) y 33% a 40 % de bióxido de carbono (CO2) y otras cantidades minimas de gases, entre ellos 1 % de ácido sulfhídrico (H2S). Es un poco más livianos que el aire y posse una temperatura de inflamción de 700 0C, y su llama alcanza una temperatura de 870 0C. Con un contenido de metano mucho menor de 50 %, el biogás deja de ser inflamable. Su poder calorifico promedio es de 5000 Kcal. Un metro cúbico de biogas permite generar entre 1.3-1.6 KWh, que equivalen a medio litro de petróleo, aproximadamente (J. E. Coto, 2007).

MECANISMOS DE PRODUCCION

Un biodigestor es un compartimiento hermético, en el cual la materia orgánica se fermenta en ausencia de oxígeno, generando un gas combustible que posee aproximadamente 66 % de metano y 33 % de bióxido de carbono (FAO, 1995).

La digestión anaerobia que se desarrolla en los biodigestores es un proceso complejo desde el punto de vista microbiológico y está enmarcado en el ciclo anaerobio del carbono, que en ausencia de oxígeno transforma sustancias orgánicas en biomasa y compuestos inorgánicos en su mayoría volátiles: CO2 (Dióxido de carbono), NH3 (Amoniaco), H2S (Sulfuro de hidrógeno), N2 (Nitrógeno) y CH4 (Metano) (Soubes, 1994). De forma natural, este proceso ocurre en el tracto digestivo de animales y debajo de aguas estancadas o pantanos, pero también puede realizarse en depósitos cerrados herméticamente, llamados digestores. Estos se utilizan cuando se requiere captar todos los productos obtenidos de la descomposición anaerobia (gases y sólidos), ya que el ambiente oscuro y sin aire favorece el medio óptimo para el cultivo intensivo de bacterias anaerobias (Salazar, 1993). En esta condición, cuando se acumulan polímeros naturales orgánicos como proteínas, carbohidratos, celulosa, etc., se produce un rápido consumo de oxígeno, de nitrato y de sulfato por los microorganismos, produciéndose la metanogénesis; en estas condiciones, el nitrato se transforma en amonio y el fósforo queda como fosfato. También se reducen los iones férrico y mangánico, debido a la ausencia de oxígeno.

El método básico consiste en alimentar el digestor con materiales orgánicos y agua, dejándolos un periodo de semanas o meses, a lo largo de los cuales, en condiciones ambientales y químicas favorables, el proceso bioquímico y la acción bacteriana se desarrollan simultánea y gradualmente, descomponiendo (Marty, 1984) la materia orgánica hasta producir grandes burbujas que fuerzan su salida a la superficie donde se acumula el gas (Verástegui, 1980).

La digestión anaerobia, a partir de polímeros naturales y en ausencia de compuestos inorgánicos, se realiza en tres etapas:

1. Hidrólisis y fermentación, en la que la materia orgánica es descompuesta por la acción de un grupo de bacterias hidrolíticas anaerobias que hidrolizan las moléculas solubles en agua, como grasas, proteínas y carbohidratos, y las transforman en monómeros y compuestos simples solubles.

2. Acetogénesis y deshidrogenación, donde los alcoholes, ácidos grasos y compuestos aromáticos se degradan produciendo ácido acético, CO2 (dióxido de carbono) e H(hidrógeno) que son los sustratos de las bacterias metanogénicas.

3. Metanogénesis en la que se produce metano a partir de CO2 e H (hidrógeno), por acción de bacterias metanogénicas (Marty, 1984).

La concentración de hidrógeno juega un papel fundamental en la regulación del flujo del carbono en la biodigestión. Los microorganismos que en forma secuencial intervienen en el proceso son:

1. Bacterias hidrolíticas y fermentadoras

2. Bacterias acetonogénicas obligadas reductoras de protones de hidrógeno (sintróficas)

3. Bacterias sulfato reductoras (sintróficas facultativas) consumidoras de hidrógeno

4. Bacterias homoacetogénicas

5. Bacterias metanogénicas

6. Bacterias desnitrificantes (Soubes, 1994).

La principal función de los biodigestores es convertir la materia orgánica y sub productos agrícolas en biogás y efluentes. Las condiciones dentro del biodigestor deben controlarse de tal forma que las poblaciones de bacterias metanogénicas estén balanceadas con las acidogénicas y así evitar descensos excesivos del pH, teniendo en cuenta que cualquier cambio en las características del biodigestor puede afectar la población bacterial ocasionando variaciones en la producción de gas y una eventual deficiencia en el proceso de purificación de efluentes (Villamil et al., 2000).

El fertilizante producido o bioabono sólido o liquido producto del proceso de digestión anaerobia no posee mal olor ni atrae moscas, a diferencia del estiércol fresco, y puede aplicarse en las cantidades recomendadas directamente al campo en forma líquida (McCaskey, 1990) o sólida; además, puede deshidratarse y almacenarse para usarlo posteriormente, con pérdidas por volatilización hasta del 60% de nitrógeno (Day, 1987). Según Botero y Thomas (1987), la composición del bioabono en promedio tiene 8.5% de materia orgánica, 2.6% de nitrógeno (H), 1.5% de fósforo (P), 1.0% de potasio (K) y un pH de 7.5. De acuerdo con Mandujano (1981), un metro cúbico de bioabono producido y aplicado diariamente, puede fertilizar más de 2 hacres (16187.76 m2 o 1.6187 hectárea) de tierra por año y proporcionar hasta 200 Kg de N ha-1(Nitrógeno por hacre menos uno) de los que estarán disponibles en el primer año entre 60 y 70 Kg. El bioabono no deja residuos tóxicos en el suelo, eleva la calidad del mismo y puede considerarse como un buen fertilizante que puede competir o complementarse con los fertilizantes químicos.

4.3 GENERACION DE BIOGAS EN GRANJAS Y RASTROS MUNICIPALES

El correcto manejo de excretas bovinas, porcinas y aves de corral, se han convertido en uno de los factores más limitantes en los procesos de producción animal, por ejemplo en ganaderías de leche, los volúmenes de producción de materia fecal durante el proceso de ordeño en establo, ocasiona grandes problemas de contaminación ambiental. Se calcula que menos del 2% de las explotaciones tienen sistemas de tratamiento de excretas (estiércol + orina) (URPA, 2002). Lo anterior nos indica que existe una gran cantidad de productores que no dan tratamiento alguno a las excretas y las vierten directamente a fuentes de agua que generalmente están ubicadas en las partes bajas de las granjas, causando serios problemas de contaminación en suelos y acuíferos subterráneos por coliformes y nitratos (Ramon et al., 2006), esta contaminación contribuye al calentamiento global con la emisión de gases como el metano, monóxido de carbono y dióxido de carbono (Carmona et al., 2005).

Por su alto contenido de nutrientes y efecto benéfico sobre la composición del suelo, las excretas son utilizadas en forma directa para la fertilización de cultivos, pero en la mayoría de los casos su aplicación se hace sin previo tratamiento y depuración, para evitar que las altas concentraciones de huevos, larvas de parásitos o gérmenes como los coliformes fecales produzcan enfermedades infecciosas capaces de causar hasta la muerte en los animales y el hombre (Soria et al., 2001).

Para la recolección de las excretas de los animales se utilizan varios tipos de métodos, que permiten un tratamiento y depuración del estiércol, orina, agua vertida y alimentos desperdiciados en explotación de animales. Las más comúnmente reportadas son:

Fosas de recolección

Drenaje por gravedad a una instalación exterior por un canal

Sistemas a chorros de agua

Raspado mecánico

Almacenamiento de las excretas al aire libre

Estanques de decantación o estercoleros

Lagunas de tratamiento anaeróbico

Lagunas de etapas múltiples

Tratamiento aeróbico

Sin embargo estos tratamientos no son tan eficientes, ya que la generación de olores desagradables, metano, acido sulfhídrico y otros gases típicos del proceso de tratamiento no se eliminan y se vierten al medio ambiente.

La Organización de las Naciones Unidas para la Agricultura y la Alimentación (FAO, Food and Agriculture Organization por sus siglas en Inglés), propone un prototipo denominado: Biodigestor plástico de flujo continuo, generador de gas biobano a partir de aguas residuales servidas, el cual es sencillo y económico. Las principales características de éste son: polietileno calibre 8 resistente a la luz ultravioleta (LUV), con capacidad para varios m3 y tiempo aproximado de retención para la digestión anaerobia de la materia orgánica diluida de 30 a 40 días en zonas tropicales con temperaturas promedio de 30oC (FAO, 1995).

La temperatura es un parámetro importante en la operación del biodigestor anaerobio, para obtener un crecimiento bacteriano adecuado y aumentar la velocidad de las reacciones bioquímicas que se dan en el proceso (Mejía, 1996).

La generación de biogás por medio de biodigestores se aprovecha en los ranchos, granjas, para producir electricidad y gas en las cocinas, el cual pueden incluso comercializarse, de esta forma se cuenta con una fuente alterna de energía y a la vez dejan de contaminar el suelo.

En el caso de los rastros municipales, las aguas generadas en el proceso de sacrificio de los animales son altamente contaminantes debido a su carga orgánica, con una demanda bioquímica de oxigeno (DBO50) de 5000 a 10000 mg/l, generando un alto impacto ambiental en los cuerpos receptores de agua y en suelo (López et al., 2008), sin embargo Chaux menciona que las concentraciones típicas encontradas en efluentes de faena de vacunos y porcinos alcanzan concentraciones de 3000 mg/l para sólidos suspendidos totales, DB50 de 7000 mg/l y nitrógeno total (NT) de 6000 mg/l (Chaux et al., 2009); gran parte del impacto ambiental y en salud pública que tienen los residuos sólidos y líquidos de los rastros no puede ser cuantificado, sin embargo, una evaluación de riesgos proporciona una perspectiva de la situación en los rastros municipales. La normativa mexicana exige un tratamiento de estos desechos antes de ser destinados a cuerpos de agua, a sistemas de alcantarillado y para riego de cultivos (NOM-001-SEMARNAT-1996).

Los residuos sólidos y líquidos son vertidos, casi en la totalidad de los rastros, en el drenaje o cuerpos de agua. Esta situación representa, además del evidente daño ambiental, un gran desperdicio de recursos que pueden ser empleados en diversas actividades y bien pueden ser considerados como un subproducto de la matanza. Esto significa que se requiere un cambio de paradigma hacia uno con visión ambientalista en el que se entienda que los residuos no son algo de lo que nos tenemos que deshacer inmediatamente sino que son recursos que podemos y debemos aprovechar. Al mismo tiempo, disminuimos la contaminación de la naturaleza y prevenimos riesgos a la salud humana directa o indirectamente.

La recuperación y separación de los residuos de manera integral en el rastro es esencial, primeramente para valorarlos como un subproducto y poderlos utilizar en otras actividades como la elaboración de harinas y alimentos, compostaje o, incluso, generación de energía. Posteriormente, al separar los residuos se facilita el tratamiento del agua residual que se debe realizar para cumplir con la normatividad en la materia (NOM-001-ECOL-1996 y NOM-002-ECOL-1996) y con ello también evitar la contaminación de cuerpos de agua que abastecen a la población.

Asimismo, la implementación de medidas como las mencionadas anteriormente no solo provee un ingreso extra por el manejo integral de los residuos sino que también resulta mucho más económico tratar el agua antes de verterla al drenaje y/o a los cuerpos de agua en comparación con el costo que tendría reparar el impacto ambiental generado, así como sus consecuencias en la biodiversidad y la salud humana.

Nuevamente la FAO propone el uso de biodigestores en los rastros para generar biogás y electricidad, utilizando los desechos orgánicos de las faenas.

Como ya se menciono los biodigestores son tecnologías que utilizan los desechos orgánicos para producir gas y al mismo tiempo solucionan los problemas ambientales por lo que esta tecnología es viable en los rastros municipales.

4.4 USO DOMESTICO E INDUSTRIAL DE BIOGAS.

El biogás puede ser utilizado como cualquier otro combustible, tanto para la cocción de alimentos, en sustitución de la leña, el keroseno, el gas licuado, etc., tambien puede utilizarse para el alumbrado, mediante lámparas adaptadas. Las mezclas de biogás con aire, en una relación 1:20, forman un gas detonante altamente explosivo, lo cual permite que tambien sea empleado como combustible en motores de combustión interna adaptados (Cadavid, 1998).

Los limites de sus componentes principales se indican en la siguiente tabla 1.

Elemento

%

Metano (CH4)

50-70

Dióxido de carbono (CO2)

30-50

Nitrógeno (N2)

0,5-3

Ácido sulfhídrico (H2S)

0,1-1

Vapor de agua

Trazas

Tabla 1. Composición química del biogás (Cadavid, 1995).

El poder calórico del biogás, con concentraciones entre 50 y 70 % de metano CH4, es de 4700 a 6500 Kcal/m3.

Un metro cúbico de biogás, con 70 % de metano CH4, equivale a:

0.8 L de gasolina

1.3 L de alcohol

0.7 L de gasóleo

1.5 m3 de gas butano

2.7 kg de madera.

Es importante aclarar que este gas puede usarse como combustible sólo cuando el metano se encuentra en concentraciones mayores o iguales a 50 % (Chacón, 2007).

Los usos más importantes del biogás para determinar la demanda energética del usuario son:

1. Cocinas: Se emplea con una presión de 75 – 90 mm de columna de agua (CA), a razón de 0.38 – 0.42 m3 por persona – día. Para presiones inferiores el per capital debe calcularse a razón de 0.5 m3/día.

2. Alumbrado: Si se utiliza una lámpara de 100 candelas (aproximadamente 60 W), esta consume de 0.11 a 0.15 m3/h de biogás, requiriendo una presión de 70 a 85 mm de CA.

3. Calderas: Depende del tamaño del quemador, los consumos serán:

Diámetro del quemador 50 mm: 0.32 m3/h.

Diámetro del quemador 100 mm: 0.46 m3/h.

Diámetro del quemador 150 mm: 0.63 m3/h.

4. Motores de combustión interna: El biogás es un combustible excelente para motores, tanto de gasolina como diesel. Sólo se registra una ligera disminución de la potencia y el motor trabaja algo más caliente que con el combustible líquido. Si se dotan de un mezclador de aire-gas adecuado, los motores de gasolina pueden trabajar con 100 % de biogás, sin necesidad de gasolina, incluso en el arranque. No ocurre lo mismo con los motores Diesel, debido a que la temperatura al final de la carrera de compresión no es superior a los 700 grados, y la temperatura de ignición de la mezcla aire-biogás es de 814 grados, por lo que se hace necesaria la inyección de una pequeña cantidad de combustible diesel antes de finalizar la carrera de compresión del pistón, para obtener la ignición de la mezcla y asegurar el funcionamiento normal del motor. En condiciones óptimas se logra economizar entre 70 y 85 % del combustible diesel, sustituyéndolo por biogás. El consumo en motores es 0,45 - 0,54 m3/h por caballo fuerza (HP) de carga, o 0,60-0,70 m3/h por KW de carga, con una presión de 25 a 100 mm de CA (Pareja, 2007).

Teóricamente se puede obtener biogás de cualquier material orgánico. Este material orgánico, o biomasa, debe de contar con 5-10 % de partes sólidas para constituir un material apropiado, como cieno de fermentación. Una de las materias orgánicas más utilizadas es el estiércol fresco de ganado vacuno, que contiene alrededor de 16 % de material sólido y 84 % de agua, y que se recomienda mezclar en proporción 1:1 con agua. El cieno de fermentación para introducir en una planta de biogás tiene entonces 8 % de material sólido y 92 % de agua. Algunos índices de consumo a partir de las biomasas más utilizadas y disponibles para la producción de biogás se exponen en la tabla 2

Monografias.com

Tabla 2 Índices para determinar la producción de biogás a partir del peso y características de la biomasa (Chacón, 2007).

5. BIODIGESTOR

La instalación destinada a la producción y captación del biogás recibe el nombre de biodigestores o planta de biogás. Existen múltiples diseños y formas, en función de su tamaño, materia prima (residual) que se emplea, materiales de construcción con que se construye. Su variedad es tal que los modelos existentes se adaptan prácticamente a todas las necesidades y variantes que se deseen, en cuanto a volumen, materiales empleados y residuales orgánicos que se deben tratar.

5.1 TIPOS DE BIODIGESTORES

En los biodigestores se llevaba a cabo el proceso de fermentación, similar a la digestión producida en nuestro aparato digestivo al ingerir los alimentos, que son descompuestos por la acción de las enzimas, mientras que la captación del biogás se produce mediante una campana o superficie abovedada o cilíndrica (en la mayoría de los casos), desde el cual se extrae el gas a través de una conducción por tubería o manguera.

Las plantas de biogás sencillas pueden ser clasificadas, por su diseño, en tres tipos:

Planta de biogás de campana flotante (tipo hindú)

Planta de biogás de bolsa elástica (tipo balón)

Planta de biogás de cúpula fija (tipo chino)

A continuación se muestran en la figura 4, los tres tipos de plantas de biogás:

Monografias.com

Planta de biogás de campana flotante (tipo hindú)

Monografias.com

Planta de biogás de bolsa elástica (tipo balón)

Monografias.com

Planta de biogás de cúpula fija (tipo chino)

Figura 4. Tres tipos de plantas de biogás (Chacón, 2007).

Según la forma en que se realiza el proceso de carga o introducción de la biomasa a la planta, se clasifican en dos tipos fundamentales:

Plantas de flujo continuo

Plantas de flujos discontinuos o batch (entrada de la biomasa de manera intermitente).

Las primeras son cargadas y descargadas parcialmente todos los días, de forma periódica o permanente (para la obtención de volúmenes considerables de gas), mientras que las segundas son cargadas de una vez y descargadas total o parcialmente después de cierto tiempo de utilización de la biomasa introducida para fermentar (para pequeñas producciones de biogás).

La gran ventaja de las primeras es que las bacterias metanogénicas reciben un suministro estable del material orgánico, por lo que producen biogás de manera más uniforme.

*****************************************************
Cemento de Cobre

Cementación de cobre con chatarra de fierro
Precipitación con bateas o canaletas gravitacionales
Precipitación con equipos rotatorios discontinuos
Precipitación con equipos rotatorios continuos
Referencias

La cementación es la precipitación de un metal desde una solución acuosa, que se produce por efecto de la presencia de otro metal. En este proceso el metal precipitado usualmente se deposita o "cementa" sobre el metal añadido.

En general, mientras mayor sea el potencial de celda de la reacción de cementación, mayor será la tendencia a precipitar impurezas, ya que éstas se encontrarán comprendidas con mayor probabilidad, en cierto rango de potenciales, por lo que se verán favorecidas para precipitar en conjunto.

En el caso de la cementación de cobre mediante fierro, junto al cobre coprecipitan el plomo, estaño, níquel y cobalto que se encuentran presentes en solución, contaminando el producto. De igual modo, cualquier impureza insoluble presente en el fierro, como los carburos, también contaminará el producto.

La cementación en fase líquida presenta las siguientes ventajas:

La reacción se produce con gran rapidez.

El precipitado puede separarse con facilidad sin contaminación.

Se puede reciclar la solución gastada final y proceder a devolverla a su estado reducido anterior con algún otro proceso sencillo.

Presenta una gran economía de espacio y de costos de operación.

Cementación de cobre con chatarra de fierro

La cementación del cobre con chatarra es una técnica muy utilizada en la industria minera de mediana y pequeña escala para recuperar el metal que se encuentra en las soluciones acuosas ricas provenientes de la lixiviación.

La implementación de procesos de sedimentación requiere una inversión menor a la requerida para las plantas tradicionales de SX (extracción por solvente)-EW (electroobtención). No obstante, el uso de SX-EW es en la actualidad una operación muy utilizada, fundamentalmente porque no requiere de un proceso de fundición de cementos.

Una vez obtenidas las soluciones de lixiviación ricas en cobre, éstas son sometidas al proceso de cementación con hierro haciendo uso de las técnicas y alternativas que se indican a continuación.

Tecnicas:
Precipitación con bateas o canaletas gravitacionales

Este es el sistema más antiguo para la cementación de cobre y se basa en el uso de recipientes o bateas hechas de hormigón con fondo de madera. La base de estas bateas tiene una pendiente de 2%, lo que permite el escurrimiento de las soluciones desde una punta hacia la otra.

En cada una de las bateas se adiciona permanentemente chatarra de hierro, y desde el extremo de mayor altura, se alimentan en forma continua las soluciones ricas en cobre.

De esta forma y por efecto de la pendiente de la batea, las soluciones escurren hacia el extremo de menor altura, manteniendo un contacto permanente con la chatarra, logrando que se produzca la cementación.

Cabe recordar que por efectos de eficiencia del sistema, se requiere un flujo continuo y una velocidad de escurrimiento suficiente para que el consumo de chatarra no aumente, ya que a mayor tiempo de cementación, aumenta considerablemente los requerimientos de chatarra.

La recuperación de cobre mediante este sistema alcanza alrededor de un 80 – 85%, obteniéndose un producto bastante sucio, debido a la contaminación con chatarra.
Precipitación con equipos rotatorios discontinuos

Estos equipos fueron desarrollados en Alemania en la década del 60, y se les conoce como "fall-trommels". En Chile, fueron utilizados en la Mina La Cascada entre los años 1972 y 2000, y en Mantos Blancos desde 1991 a 1996.

Cada reactor de estos equipos está formado por una botella de acero cilíndrica, cerrada y con un extremo semi-esférico. Su capacidad alcanza a los 33 metros cúbicos y tiene un eje inclinado a unos 25 grados por encima de la horizontal. A su vez, el reactor cuenta con los mecanismos necesarios para rotar lentamente sobre el eje a unas 0,3 rpm, similar a la rotación que mantienen los camiones que transportan cemento.

La gran ventaja de estos reactores en relación al uso de las bateas, es que logran mantener la chatarra en movimiento permanente, con lo que el cobre depositado se despega continuamente, generando nuevas superficies de precipitación y pudiendo así alcanzar grandes rendimientos.
Precipitación con equipos rotatorios continuos

A partir de los diseños originales de lo alemanes, en los años 60 se desarrolló en Chile una serie de reactores cilíndricos, pero horizontales, de diversas dimensiones, inicialmente hechos de madera y con sistemas de movimiento similares a los de un molino de bolas, que giran sobre su eje a una frecuencia muy baja, correspondiente a una vuelta por cada 3 a 5 minutos.

En su interior, los cilindros presentan un sistema de protección basado en tacos de madera de fibra larga, similar a la del eucaliptus, colocados uno al lado del otro, con el sentido de la fibra orientada hacia el interior del reactor.

Al humedecerse, la madera se hincha, generando un sello perfecto para el líquido contenido. En el manto del cilindro se ubica una compuerta para efectuar el relleno de chatarra cada vez que se inicia un nuevo turno.

Monografias.com

Ilustración : Producción Cemento de Cobre

MinaChancado

Lixiviación

Precipitación

Filtrado

Cemento de Cobre

Fundición

Electro Refinacion

Cátodos de Cu

Extracción por solventes

Electro -Obtención

Ilustración : Diferencias Entre la Producción de Cemento de Cobre, con el proceso tradicional
Referencias

CODELCO Chile: https://www.codelcoeduca.cl/proceso/electroobtencion/t-cementacion.html

B. Mihovilovic y P. Kittl : Uso de la descomposición térmica para beneficio de los minerales sulfurados de cobre Chilenos, sin contaminación de azufre. Facultad de Ciencias Físicas y Matemáticas, Universidad de Chile

Autor:

Drezerness

*****************************************************
Etapas del proceso de fundicion

Resumen
Introducción
Preparación de la mezcla
Vertido
Conclusiones
Bibliografía

Resumen

Se abordan las etapas principales del proceso de fundición. Se dan criterios sobre la elaboración de la tecnología de fundición y la plantilla. Se detalla en la preparación de las mezclas para moldes y machos, tantos en lo referido a sus composiciones, como en lo relacionado a su preparación; así como en el proceso de moldeo propiamente dicho. Se describe el proceso de elaboración de acero al carbono en cuanto a los componentes de carga y las etapas del proceso, al tiempo que se dan los aspectos fundamentales del proceso de vertido. Finalmente se describe el proceso de desmolde, limpieza y acabado de las piezas.
Introducción

La fundición es el procedimiento más antiguo para dar forma a los metales. Fundamentalmente radica en fundir y colar metal líquido en un molde de la forma y tamaño deseado para que allí solidifique. Generalmente este molde se hace en arena, consolidado por un apisonado manual o mecánico alrededor de un modelo, el cual se extrae antes de recibir el metal fundido. No hay limitaciones en el tamaño de las piezas que puedan colarse, variando desde pequeñas piezas de prótesis dental, con peso en gramos, hasta los grandes bastidores de máquinas de varias toneladas. Este método, es el más adaptable para dar forma a los metales y muchas piezas que son imposibles de fabricar por otros procesos convencionales como la forja, laminación, soldadura, etc.

El primer acercamiento del hombre con metales en estado natural (oro, plata, cobre) se estima que ocurrió hace 4000—7000 años a.n.e. Su verdadera acción como fundidor el hombre la inicio posteriormente, cuando fue capaz de fundir el cobre a partir del mineral.

El desarrollo en la obtención de productos fundidos se manifestó tanto en Europa como en Asia y África. Los romanos explotaron yacimientos de hierro en Estiria (Australia) de donde obtenían el metal para sus armas, instrumentos de trabajo y de uso doméstico. (A.Biedermann 1957)

Hoy en día los países desarrollados, al calor de la revolución científico-técnica contemporánea, acometen las tareas de mecanización y automatización, la implantación de nuevas tecnologías y el perfeccionamiento de las existentes.

Etapas del proceso de fundición

La posibilidad de fundir un metal o una aleación depende de su composición (fijada por el intervalo de solidificación), temperatura de fusión y tensión superficial del metal fundido. Todos estos factores determinan su fluidez. Se utilizan tres tipos de fundición(Gutiérrez 2007):

En lingoteras: Se usa la fundición de primera fusión a la que se añaden los elementos de aleación necesarios que posteriormente se depositan en lingoteras de colada por gravedad o a presión.

Colada continua: En este tipo se eliminan las bolsas de aire y las secreciones, tanto longitudinales como transversales. Mediante este sistema se obtienen barras, perfiles, etc.

Fundición en moldes: Se extraen las piezas completas.

En este trabajo se utiliza el método de fundición en molde pues es el método más utilizado en el taller de fundición de empresa Planta Mecánica. hay que destacar que el proceso de obtención de pieza por fundición por diferentes procesos los cuales son(Ing.Ramon Garcia Caballero 1983):

Preparación de mezcla

1. Moldeo

2. Fusión

3. Vertido

4. Desmolde ,limpieza, acabado

Cada uno de ellos dispondrá de su respectiva tecnología y se desarrollaran como dos flujos de producción paralelos los cuales en determinado momento se unirán para darle forma y terminación a la pieza como se demuestra en el siguiente diagrama de flujo.

Monografias.com

Figura 1. Esquema de flujo del proceso de fundición de piezas.
Preparación de la mezcla

Una mezcla de moldeo en su forma más simple es la unión de diferentes materiales capaces de producir un material de construcción con el cual se puede elaborar el molde o sea la cavidad donde se verterá el metal fundido. Cuando se preparan las mezclas para el moldeo de la plantilla elaboración de los machos, estas deben responder a determinadas exigencias impuestas por el proceso tecnológico como son: permeabilidad, resistencia en verde, resistencia en seco, plasticidad y otros, por lo tanto la selección de los materiales de moldeo responderá por tanto a determinadas normas, que depende fundamentalmente de la complejidad de la pieza y el peso de esta. Cuando algunos de los parámetros citados no corresponde a los admisibles se deben regenerar las propiedades de las mezclas corrigiendo su composición.

En el caso del molde, el mismo se elaborará con las siguientes mezclas:

MC -1: Mezcla de cara para piezas fundidas de acero en base a arena de sílice y silicato de sodio para moldes y machos .Composición: Arena de Sílice 94% y silicato de sodio 6%. La cual ocupara en el molde en un 30%

MR-1: Mezcla de relleno para moldeo de hierro y aceros su composición es: Arena de retorno 94%, bentonita 3%, agua hasta la humedad requerida y melaza3% la cual ocupara el 70%.de la mezcla que se constituye el molde.

Los machos se elaborarán con:

MM-15: Para machos. Su composición es: Arena Sílice 94% y solución silicato- azúcar

6% (silicato de sodio 80% y azúcar a 4%).

Elaboración de la tecnología de fundición

Esta etapa resulta fundamental en la posterior obtención de un semiproducto sano. En el diseño de la tecnología, se debe valorar, la posibilidad de obtener la pieza fundida de la forma más económica, para ello se debe seleccionar el método de moldeo más correcto en dependencia del material y condiciones de trabajo de la pieza. En la empresa a desarrollar dicha tecnología se utiliza el moldeo a mano con la ayuda del pizón neumático. En el caso de la presente pieza, se realizará un moldeo en seco, con el proceso Silicato-CO2 se utilizarán dos cajas de moldeo una superior y otra inferior cuyas dimensiones serán 1250 x 1250 x 300/300 respectivamente. La caja de moldeo sirve para dar a la arena apisonada un sostén adecuado a fin que las partes del molde no se desmoronen, así como para poder ser transportadas sin dificultad.

Otro requisito a tener en cuenta a la hora de elaborar la tecnología es el plano divisor del molde y de la plantilla. Y la posición de la pieza durante el vertido. Dicha plano división se determinará según la forma de la pieza, las exigencias técnicas y las posibilidades técnicas del taller, se debe tener en cuenta también que la cantidad de divisiones del molde sea la mínima, siguiendo una forma geométrica simple. Deben ser mínima la cantidad de parte suelta de la plantilla y la cantidad de machos. El plano divisor debe asegurar la comodidad del moldeo y fácil extracción de la plantilla además que debe asegurar la salida fácil de los gases de los machos y cavidades del molde.

Se debe realizar el cálculo de las mazarotas y del sistema de alimentadores. Las mazarotas, los respiraderos y los sistemas de alimentación se utilizan para la obtención de las piezas de fundición blanca, de aleación de alta resistencia, como también para piezas con paredes gruesas de fundición, ellos sirven para alimentar las partes gruesas de la pieza.

Las mazarotas se disponen de tal manera que la masa fundida en ellas se solidifique en último término con el propósito de que vaya cediendo metal líquido a la pieza. En la pieza además hay que dirigir la solidificación desplazando el nudo (la parte más masiva) hacia la parte superior de la misma, siempre que sea posible o utilizando enfriadores, evitando aglomeraciones locales de meta. El espesor de la mazarota tiene que ser mayor que el espesor pieza de esta forma las cavidades por rechupe y las intensas porosidades que como resultado de la solidificación del metal ocurren se forman en la mazarota que es la última en enfriar y que posteriormente luego de solidificada la pieza se oxicortan y se desechan, quedando una pieza sana.

Los alimentadores son canales destinados a conducir el metal líquido directamente a la cavidad del molde. La sección de los alimentadores deben tener una configuración tal que la masa fundida llegue suavemente a la cavidad del molde, y se enfríe poco en el trayecto.

La pieza en análisis por su forma y diseño presenta una mazarota, un alimentador y un tragadero. Para determinar los mismos se realizaron los cálculos y esbozos de los elementos del sistema de alimentación, de las mazarotas, nervios, etc. los cuáles serán mostrados posteriormente.

Plantillería

En esta área, operarios de alta calificación y pericia elaboran en madera las plantillas con la configuración de la pieza fundida que servirán de modelos para elaborar la cavidad vacía del molde, que posteriormente se llenará con metal líquido.

Planta Arena

En esta área se preparan las mezclas con las composiciones adecuadas, en mezcladoras especiales para el efecto.

Moldeo y Macho

Es una de las áreas más compleja del proceso, en ella se elaboran se elaboran los moldes y los machos. Se pintan y se ensamblan dejándolos listos para el vertido del metal.

Fusión

Para poder vertir el metal en los moldes el metal debe pasar por un proceso de fusión en el cual se le elevará la temperatura hasta su punto de fusión llevándolo a un estado líquido y suministrándole determinados elementos los cuales llevaran a la obtención del metal deseado tanto acero, hierro fundido u otras aleaciones.

Un factor determinante en este proceso es la elección del horno. Existen varios tipos de hornos entre ellos tenemos:

El cubilote: Es un horno utilizado en la mayoría de las fundiciones por razón del buen aprovechamiento de los combustibles, facilidad de maniobra y pequeños gastos en la instalación y conservación.

Horno de reverbero: Indicado cuando se trata de fundir piezas de gran tamaño

Horno de crisol: Tiene la ventaja de que se elimina el contacto del hierro con los combustibles ,pero a su vez es muy costoso y se emplea en fundiciones de alta calidad

Horno eléctrico: Posee ventajas indiscutibles sobre cualquier otro tipo de horno como sencillez y rapidez de las operaciones, la ausencia de ventiladores, combustibles etc.

Es frecuente el empleo de este tipo de horno, con una capacidad nominal de 6.2 toneladas, de revestimiento básico con ladrillos de magnesita en la parte del crisol, en las paredes de cromo-magnesita y en la bóveda ladrillos de alta alúmina, un voltaje mayor de 240 V, con una corriente de 6 kA. Presenta una potencia instalada de 3 MW y un consumo tecnológico de 720 kWh/ton.

A modo de ejemplo se considera la obtención de acero AISI 1045, que presenta la siguiente composición química:

Tabla #1 Composición química del acero AISI 1045

Carbono

Silicio

Manganeso

Fosforo:

Azufre

0.43 -0.50 %

: 0.2-0.5%

: 0.6-0.9 %

=0.04%

=0.05%

:

El consumo de materiales para su obtención se muestra en la tabla #2

Tabla#2 consumo de materiales (ton/ton) para la obtención de 1045

Materiales

Consumo en bruto

Consumo neto

Chatarra de acero

0.660

1.320

Retorno de acero

0.440

0.880

Cal

0.050

0.100

Piedra caliza (sustituto de la cal)

0.130

0.260

Escame de molino

0.035

0.070

Chamota granulada (sustituto de espato flúor)

0.004

0.008

Espato flúor

0.003

0.006

Ferrosilicio 75%

0.0065

0.013

Ferromagnesio 80%

0.0055

0.011

Coque (sustituto de pedazo de electrodo)

0.016

0.032

Pedazo de electrodo

0.0045

0.009

Electrodo Ø 300

0.010

0.020

silicio Magnesio (sustituto del ferromagnesio)

0.0075

0.014

Aluminio

0.0015

0.003

magnesita

0.020

0.040

Vertido

En la tecnología de vertido se tomarán en cuenta aspectos como el tipo de cuchara, temperatura de vertido, tiempo de mantenimiento del metal liquido en la cuchara y las particularidades de fundición de las aleaciones

Para el vertido o llenado de los moldes se utilizan las denominadas cucharas de colada las cuales presentan determinadas clasificaciones en el caso de nuestra tecnología será:

Según transportación: Accionadas por grúas

Según la inclinación de las paredes :Cilíndricas

Según el tipo de volteo de la cuchara :Por medio de palanca vertical

Según la forma del pico :Vaciado por debajo

El vertido se realizará con cierto sobrecalentamiento de la aleación por encima de la temperatura de liquidez, lo que favorece a la fluidez y mejora la capacidad de llenado del molde; sin embargo, el acero sufre variación en sus propiedades en mayor o menor medida en función de la temperatura, por lo que cada acero tiene un rango óptimo de temperatura de vertido.

Desmolde, limpieza y acabado

En el caso de la pieza a tratar al ser suministradas por fundición, en bruto, es necesario maquinarla para eliminar las desviaciones que puedan presentar, producto de las contracciones del material durante el proceso de fundición y la posterior normalización a que son sometidos.

Los Sprocket deben estar libres de rechupes, en caso de aparecer estos en la zona donde se eliminaron por oxicorte las mazarotas (Rechupe concentrado) se examinarán los mismos, si su profundidad no compromete el funcionamiento fiable de la pieza, se procederá a su reparación por soldadura. Las zonas reparadas por soldadura se reinspeccionarán verificando que estén libres de grietas y cumplan con los requerimientos de acabado
Conclusiones

El proceso de fundición es un procedimiento complejo, el cual se desarrolla como dos flujos de producción paralelos, que en determinado momento se unen para dar forma y terminación a la pieza. Este consta de cinco etapas, las cuales son:

1. Preparación de mezcla

2. Moldeo

3. Fusión

4. Vertido

5. Desmolde ,limpieza, acabado

Cada una con su respectiva tecnología
Bibliografía

García Caballero, R. (1970).Guía Tecnológica de Fundición.

A. Biedermann, L. M. H.(1957). Tratado Moderno de Fundición del Hierro y del acero.

Askeland, D. R. (1998). Ciencia e Ingeniería de los Materiales .

Norma Técnica 600-9 (1970). Inspección, Reparación y Monta de Conductores de Caña y de Bagazo. M. d. l. o. I. A. d. Oriente.

Beltrán, G. M. (2010). "Investigación sobre el Procesamiento de los metales y sus aleaciones." from http://www.monografias.com/.

Gutiérrez, A. (2007). "Acero & Hierro." from http://www.monografias.com/

García Caballero, R. , I. A. G. R. (1983). Guía Tecnológica para el Proyecto de curso en Tecnología de Fundición II.

Leonardo Goyo Pérez, H. M. R. Tecnología de Fundición II.

Mecánica, E. P. (2010). Elemento de Máquinas para Transmisiones de Movimiento-SPUISITOROCKET-REQS. E. P. Mecánica.

Merino, C. M. S. (1985). Tecnología de Fundición I.

Autor:

Irina Moya Hayle,

Esther Mirian Hayle Cabrera,

Amado Cruz-Crespo

*****************************************************
Metodologia de supervision y control en obras de reconstruccion y modernizacion de carreteras ru

Introducción
Antecedentes
Planteamiento del problema
Pregunta de investigación
Justificación
Marco teórico

Introducción

Se considera como camino rural a una vía que se usa relativamente poco (tránsito diario promedio de menos de 400 vehículos por día), que tiene bajas velocidades de diseño (típicamente menores de 80 kp/h), y geometría correspondiente. Un sistema de caminos rurales bien planeado, localizado, diseñado, construido y mantenido, resulta esencial para el desarrollo comunitario, para el flujo de bienes y servicios entre las comunidades, y para las actividades de administración de recursos. (Keller & Sherar, 2004)

Desde la antigüedad los caminos han sido de vital importancia para el desarrollo de los pueblos ya que estos favorecían el intercambio comercial y cultural, y por consiguiente se necesitaban bienes y servicios necesarios para los usuarios del camino, detonando la economía del lugar por donde pasaba y/o donde comunicaba.

La construcción de los caminos se realizaba mediante la deposición de materiales pétreos gruesos en la base y materiales finos en la parte superior como superficie de rodamiento o también como superficie de rodamiento empedrados acomodados de tal forma que se formara una superficie lisa y uniforme.

Lo anterior era en su momento lo ideal, pero en la actualidad resulta incosteable debido a las velocidades que se desarrollan y a las cargas que por los caminos circulan, lo que ha llevado a desarrollar técnicas de construcción y métodos de planeación; los cuales permiten optimizar los recursos humanos, materiales y tiempo para lograr construir un camino que cumpla su función con seguridad y confort a los usuarios del mismo.
Antecedentes

Al principio los caminos se construían de acuerdo a un razonamiento fundamental la cual era de revestir de material de mejor calidad la franja de terreno por donde se iba a transitar. Siendo estos materiales principalmente: piedra volcánica usada en la zona centro de la Republica Mexicana o materiales calizos usados en la zona Sur de la Republica Mexicana. Estos caminos no necesariamente se construían mediante la optimización de materiales y recursos humanos, o tomando en cuenta la resistencia estructural de cada material para las cargas a las que seria sometida. Pero los materiales y técnicas usados permitieron que algunos sobrevivan hasta nuestros días, prueba de ellos es la Calzada México – Tacuba y el Camino Blanco "Sac-bé" en las inmediaciones de Izamal, en el Estado de Yucatán (Fig. 1).

Monografias.com

Fig. 1. Camino de Sac-Bé en Izamal en Yucatán.

Durante el Virreinato se construyeron varios caminos entre ellos: México - Veracruz (camino a Europa), México – Acapulco, México – Guadalajara; luego vinieron los de Oaxaca, Tampico, Guanajuato, entre otros. Estos caminos se construían en base a las necesidades del comercio y tomando en cuenta solo de tener un alineamiento horizontal lo más derecho posible lo cual por lógica es la más rápida, pero se seguía con la misma metodología de construcción sin tomar en cuenta la optimización de recursos humanos y materiales y de construir según las condiciones del terreno.

Tras el auge de los caminos en el año de 1850 floreció el servicio de diligencias, iniciándose así el primer servicio de transporte público de pasaje y carga entre el puerto de Veracruz y la Ciudad de México, viaje que duraba cuatro días con buen tiempo, posteriormente se extendieron a las demás ciudades, lo que origino que en 1855 se expidiera un decreto clasificando los caminos y estableciendo peajes.

En 1867, el Lic. Don Benito Juárez, termino con el sistema de peaje, y creo un impuesto para la conservación y construcción de caminos, siendo el primer presupuesto de la República para Caminos que estaban al cuidado de la Secretaria de Fomento, con lo cual se comenzaba ya a profesionalizar y estructurar los caminos.

En 1891 se creó por primera vez la Secretaría de Comunicaciones y Obras Públicas -SCOP-, a la cual, además de las carreteras, calzadas y ferrocarriles, correspondía la atención de los correos, telégrafos, teléfonos y vías marítimas. Unos años después en el período gubernamental de Francisco I. Madero, lo referente a los transportes en el país fue competencia de la Secretaría de Gobernación y en la época de Victoriano Huerta el rubro volvió a recaer en la SCOP. La Constitución de 1917 ratificó nuevamente a esta Secretaría con las mismas funciones, que continuarían hasta 1958. En esa fecha se creó la Secretaría de Obras Públicas, separándola de la de Comunicaciones y Transportes, al quedar bajo la competencia de aquélla la construcción de las vías terrestres y aeropuertos del país. (Arena, 1988).

El sector carretero debe decirse que a partir de la creación de la Comisión Nacional de Caminos, en 1925, se da una transformación del ramo, unos años mas tarde en 1932 por acuerdo presidencial se creó la fórmula bipartita para la construcción de caminos y tomó cuerpo legal la creación de juntas locales, empresas de autotransportes y de las Cámaras de Comercio, en las entidades federativas, posteriormente en 1949 se decretó la creación del Comité Nacional de Caminos Vecinales, entidad con autonomía para adquirir legalmente bienes, administrarlos con personalidad jurídica propia, además de que podía invertir su patrimonio y realizar actos y contratos.

En 1956 se restructuró el Comité, ampliando sus funciones a reconstrucción y mejoramiento de aeropuertos y telecomunicaciones, en medianas y pequeñas poblaciones, de acuerdo con la planificación de la SCOP. Este nuevo organismo se denominó Comité Nacional de Comunicaciones Vecinales. A partir de 1960 se modificó nuevamente la estructura del comité y se creó la Comisión Nacional de Caminos Vecinales, encomendada a la Secretaría de Obras Públicas -SOP- y se le desligó del Servicio de Telecomunicaciones Vecinales que fue transferido a la SCT (Secretaria de Comunicaciones y Transportes). En 1967, desaparece la Comisión, dejando a cargo de la SOP la construcción de los caminos vecinales. Posteriormente, dentro de la propia SOP, se crea la Dirección General de Caminos de Mano de Obra. Si bien es cierto que se contaba con rutas troncales y caminos de red secundaria, faltaba el sistema capilar que las alimentara y permitiera el intercambio comercial, el fomento de las zonas agrícolas, industriales, mineras, ganaderas y en general, el desarrollo social y económico de las regiones comunicadas. Por sí solos, ni el Gobierno Federal ni los gobiernos locales, disponían de recursos económicos suficientes para construir caminos vecinales, por lo que se hizo indispensable la cooperación del sector privado. Así se originó en 1949, con la creación del Comité Nacional de Caminos Vecinales, una nueva fórmula de financiamiento: la tripartita, consistente en prorratear el costo de las obras por partes iguales, entre la Federación, los gobiernos estatales y los particulares. Hasta 1967 se habían entregado seis mil 825 kilómetros de caminos construidos mediante este mecanismo. (Transportes, 2006)

en 1976 se decretó la creación de la Secretaría de Asentamientos Humanos y Obras Públicas -SAHOP-, a cuyo cargo quedó, la construcción de las obras públicas que no estuvieran encomendadas expresamente a otras dependencias, correspondiéndole específicamente la construcción y conservación de los caminos y puentes federales, y los realizados, en cooperación con los gobiernos de los estados; la organización y control de las mejoras en los puertos y fronteras, así como la construcción de aeropuertos federales. (Transportes S. d., 2005)

Mientras tanto, a la Secretaría de Comunicaciones y Transportes (SCT) se le encomendó el desarrollo del autotransporte; la construcción y conservación de la red ferroviaria nacional; el fortalecimiento de la operación del sistema portuario el desarrollo de la marina mercante a través de la ampliación y conservación de su infraestructura y equipamiento y por último, las actividades relacionadas al ramo de la aeronáutica. (Transportes S. d., 2005).

A partir del decreto que reformó y adicionó el 29 de diciembre de 1982 a la Ley Orgánica de la Administración Pública Federal, la SCT además de las funciones que tenía encomendadas, concentró las relativas al desarrollo de la infraestructura para el transporte que anteriormente estaban a cargo de la SAHOP (Arena, 1988). La cual es la que regula la construcción de carreteras y caminos en la Republica Mexicana, en donde se menciona los procedimientos de construcción, calidad de los materiales, pruebas de laboratorio, etc.
Planteamiento del problema

Para finales del año 2000, la red carretera nacional tenía una longitud total de 333 mil 247.1 kilómetros, de los que 106 mil 571.5 corresponden a carreteras libres, 5 mil 933.1 a autopistas de cuota, 160 mil 185.1 a caminos rurales y alimentadores y 60 mil 557.4 a brechas. De las carreteras libres, 41 mil 865.8 kilómetros pertenecen a la red federal, mientras que 64 mil 705.7 están distribuidos entre las 31 redes estatales. Por lo que se refiere a las autopistas de cuota, la red operada por la instancia denominada Caminos y Puentes Federales (Capufe), integrada por su red propia y la que opera por cuenta de terceros —incluida la red del Fideicomiso de Apoyo para el Rescate de Autopistas Concesionadas (FARAC), tiene una longitud de 4 mil 714.7 kilómetros, las concesionadas a particulares cuentan con 786 kilómetros y 432.4 son concesiones estatales de cuota. (Transportes S. d., 2005)

Los caminos rurales en su gran mayoría se han transferido a la jurisdicción de los gobiernos de los estados, por lo que la SCT sólo mantiene la jurisdicción directa de 4 mil 596.9 kilómetros. El total de caminos rurales a cargo de los estados suma 108 mil 530.2 kilómetros, mientras que el total que es responsabilidad de municipios y otras dependencias es de 47 mil 58 kilómetros. Las brechas se reparten en todo el país y suman 60 mil 557.4 kilómetros. Del total de kilómetros en servicio de la red carretera nacional, 107 mil 822.4 están pavimentados, 145 mil 350 corresponden a carreteras revestidas, 19 mil 517.3 son de terracerías y 60 mil 557.4 son brechas. Entre los caminos pavimentados, una longitud de 9 mil 872.6 kilómetros (9.2 por ciento del total) tiene cuatro o más carriles. En la actualidad, las condiciones físicas en que se encuentra la red federal de carreteras se clasifican de esta manera: 25 por ciento, buenas, 35 por ciento, regulares, 40 por ciento, malas. (Transportes S. d., 2005).

La red concesionada se forma por autopistas construidas entre 1989 y 1994 cuyo manejo fue asignado a particulares, gobiernos estatales e instituciones financieras. En materia de caminos rurales, el país cuenta con una red de 160 mil 185.1 kilómetros y comunica a 19 mil comunidades en las que habitan 14 millones de personas, es decir, el 60 por ciento de la población rural nacional (Transportes S. d., 2005).

Como se puede observar se debe tomar importancia a la diferencia de longitud de la Red Carretera Federal a la Red Carretera Rural, lo cual hace de su conservación, reconstrucción y/o modernización una ardua tarea la cual debe de preverse para tener una planificación confiable y optima, la cual tome en cuenta las necesidades prioritarias de acuerdo al costo-beneficio de la inversión y de beneficiar al mayor numero de habitantes.

El presente trabajo no tiene la finalidad de encontrar soluciones nuevas o mejorar las técnicas de construcción ya existentes, sino la de contribuir en el manejo y control de las obras en caminos rurales tomando en cuenta la Normatividad vigente que en la Republica Mexicana es la Normativa SCT así como la Ley de Obras Públicas y Servicios Relacionados con las Mismas, todo esto sin contravenir los tratados de libre comercio que la Republica Mexicana tiene con otros países.

Igualmente, el presente trabajo representa una necesidad en el ámbito carretero, en donde la cantidad de obra realizada no es directamente proporcional a la cantidad de personal que supervise y realice la obra. Esto, a veces, resulta agobiante; ya que un ingeniero supervisa varias obras a la vez lo cual es demandante en tiempo y esfuerzo. Por lo que se abordan en este trabajo tablas, graficas, cuadros sinópticos que ayuden a tener un control en los tiempos de tramites de documentos y el tipo de información que se debe entregar y en que cantidad.

La supervisión y control que se plantea en este apartado se inicia desde la fase de licitación, contratación, hasta llegar al proceso de ejecución y hasta llegar a la entrega-recepción de las obras realizadas.
Pregunta de investigación

¿Habrá una forma de tener una efectiva y eficiente forma de Supervisar y llevar un control de las Obras en caminos Rurales mediante contratación de obra pública?

OBJETIVOS DE LA INVESTIGACION

OBJETIVO GENERAL

El objetivo general de este trabajo es la de concentrar en un solo trabajo todo lo necesario para poder tener una buena supervisión y control de la construcción de caminos rurales; mediante el uso de tablas, graficas, cuadros sinópticos de los tramites, y diagramas de flujo de los procesos realizados en una obra contratado mediante licitación publica, todo de acuerdo a la normatividad SCT Vigente y con base a la Ley de Obras Publicas y Servicios Relacionados con los Mismos, así mismo se plantean varias estrategias para abordar la supervisión y control de una obra así como recomendaciones

OBJETIVOS ESPECIFICOS

Elaborar un bosquejo de los requisitos solicitados en la Normatividad SCT Vigente en base a la Ley de Obras Publicas y Servicios Relacionados con los Mismos, para tener todo lo necesario en un solo lugar donde poder consultar lo relacionado a construcción de caminos rurales mediante obra pública.

Plantear estrategias de forma, tomando en cuenta recomendaciones y observaciones realizadas en campo durante la construcción de caminos rurales.

Justificación

Los caminos rurales son parte de un sistema de transportación que se construye generalmente para manejar o explotar recursos de zonas no desarrolladas, los cuales son diseñados para alojar bajos volúmenes de transito con cargas por eje potencialmente extremas. (Vazquez, 2008)

La importancia de este tipo de caminos rurales reside en el servicio que se brinda a los usuarios para mejorar el flujo de bienes y servicios, promover o ayudar al desarrollo regional, la salud publica y la educación, además de servir como ayuda en la administración del uso del suelo y de los recursos naturales. (Keller & Sherar, 2004)

Los caminos rurales unen las poblaciones más pequeñas del mercado regional que abastecen de forma directa diferentes tipos de productos alimenticios a las ciudades, normalmente no pavimentados o con una capa delgada de mezcla asfáltica, son más angostos, los grados de curvatura y las pendientes longitudinales son mayores que los caminos federales. (Vazquez, 2008)

En los últimos años se ha venido ejerciendo en el estado de Campeche un incremento considerable en la inversión de Obra pública para caminos rurales, lo cual constituye un avance en materia de infraestructura carretera y por ende un aumento en la construcción de caminos rurales, lo cual no es directamente proporcional al incremento de personal para supervisar y realizar las obras. Por lo que la carga de trabajo para los Ingenieros especializados en construcción de carreteras se ve incrementada, lo cual hace difícil la supervisión y control de las obras carreteras.

El presente trabajo pretende reducir la carga de trabajo para los Ingenieros encargados de las obras carreteras en caminos rurales, mediante la implementación de tablas, graficas, cuadros sinópticos y diagramas de flujo; los cuales permitirán tener una amplia visión de lo que se esté haciendo y tomar medidas correctivas o mejorar la supervisión y control de las obras.
Marco teórico

Dentro de la red carretera, los caminos rurales constituyen un activo de gran importancia regional y local, ya que a través de ellos es posible la comunicación permanente entre los centros de población y producción en el medio rural, así como el acceso de amplios grupos de población a servicios de salud y educación para mejorar su calidad de vida, así como mayores oportunidades de empleo y desarrollo en general. Por ello el gobierno federal destina recursos a través de la SCT para apoyar a los gobiernos estatales y municipales en la construcción, modernización, reconstrucción y conservación de los caminos rurales y alimentadores. Estos recursos son complementados a los que los gobiernos de los estados programas para la atención de la red rural y alimentadora.

Los caminos rurales y alimentadores se clasifican de esta forma en función del transito diario promedio anual (TDPA). De acuerdo a la normativa SCT vigente las carreteras se clasifican de acuerdo a la siguiente tabla:

CLASIFICACION DE CARRETERAS SEGÚN LA SCT

Tipo A

TDPA de 3,000 a 20,000 vehículos

Tipo B

TDPA de 1,500 a 3,000 vehículos

Tipo C

TDPA de 500 a 1,500 vehículos

Tipo D

TDPA de 100 a 500 vehículos

Tipo E

TDPA hasta 100 vehículos

Tabla 1.- Clasificacion de Carrreteras. (SCT, 1984)

Los caminos rurales son los de tipo D y E y los Caminos Alimentadores son los del Tipo C, los cuales son de especificaciones de diseño mucho menores que los Tipo A o B (SCT, 1984).

En la planeación de las obras públicas que e pretendan realizar deberán ajustarse a los objetivos y prioridades del Plan Nacional de Desarrollo y de los programas sectoriales, institucionales, regionales y especiales que correspondan, así como a las previsiones contenidas en sus programas anuales, y Los objetivos, metas y previsiones de recursos establecidos en el Presupuesto de Egresos de la Federación. (Unión, 2009)

CONTRATACION

Las formas de contratación que tiene el gobierno en la Republica Mexicana consta de tres formas las cuales son: licitaciones públicas, invitación a cuando menos tres personas o adjudicación directa. (Unión, 2009)

Cuando sea por Licitación Publica se debe de tomar en cuenta que una vez realizada la convocatoria se tiene cuando menos de quince días naturales para la presentación y apertura de proposiciones, si existiera causas justificadas se podrá reducir el plazo hasta cuando menos diez días quedando en responsabilidad de la dependencia los plazos ejecutados, teniendo el cuidado de realizar estos cambios antes del séptimo día natural previo al acto de presentación de y apertura de propuestas (Unión, 2009).

La junta de aclaraciones debe ser cuando menos una y se realizaran al menos seis días naturales antes de la presentación y apertura de las propuestas; las dudas y comentarios de los participantes para la Junta de aclaraciones deberán hacerlo por escrito. (Unión, 2009)

El fallo de la licitación una vez analizados las propuestas no deberán de ser mayores a los 30 días naturales contados a partir de la presentación y apertura de las propuestas, este plazo podrá diferirse hasta por 30 días naturales contados a partir del plazo previamente previsto, igualmente una vez realizado el fallo el contratista que resultara ganador tendrá 15 días para la firma del contrato, lo cual de no realizarlo se procederá adjudicar el contrato al segundo lugar. (Unión, 2009)

En la siguiente grafica se muestra los tiempos del proceso de contratación.

SE PUBLICA EN COMPRANET

JUNTA DE ACLARACIONES

PRESENTACION Y APERTURA DE PROPUESTAS

FALLO

> 6 DIAS NATURALES

< 30 DIAS NATURALES

> 15 DIAS NATURALES

Tiempos de licitación según la Ley de Obras Públicas y Servicios Relacionados con las Mismas.

El siguiente cuadro sinóptico muestra los distintos tipos de Licitación que pudieran celebrarse:

Nacional

Internacional con cobertura de tratados

Internacional abierto

Licitación Pública

Invitación a cuando menos tres personas

Adjudicación Directa

Cuadro sinóptico de tipos de Licitación. Fuente LOPYS

Cabe hacer mención que los tipos de licitación previstos en la Ley de Obras Publicas y Servicios Relacionados con las Mismas, cualquiera de los tres, pudiera ser contratado bajo la modalidad de Precios Unitarios, a Precio Alzado o Mixtos. (Unión, 2009).

En este proceso cabe hacer la siguiente recomendación: cuando se esté participando en alguna Licitación deberá de leerse con cuidado y detenimiento las bases de Licitación, ya que estas no siempre son iguales aun se tratase del mismo camino del año pasado con los mismos conceptos, igual deberá de tener cuidado en actualizar su base de datos de insumos para que estén dentro de precios de mercado y así competir en igualdad de condiciones y presentar una propuesta que es fiable y solvente de realizar y tomar en cuenta, y en cuanto a la integración de las Matrices de Precios deberá de tomar en cuenta todas las actividades señalados en la normatividad SCT que es la que rige la construcción de caminos. (Transportes S. d., 2009)

Autor:

Ing. César Alfonso Uc Cohuó.

Monografias.com

Universidad Autónoma de Campeche

Facultad de Ingeniería

Monografias.com

Maestría en Ingeniería

Proyecto de Investigación.-

Catedrático.-

Dr. Guadalupe Cu Balan

Materia.-

Metodología de la investigación

San Francisco de Campeche, Campeche a 4 de Noviembre de 2012.

*****************************************************
Ventajas y desventajas de los sistemas fotovoltaico y eolico

Sistema eólico o aerogenerador
Elementos de un sistema eólico
Ventajas
Desventajas
Sistema fotovoltaico
Elementos de un sistema fotovoltaico
Conclusiones
Trabajos citados

Sistema eólico o aerogenerador

La energía eólica es la energía generada por el viento y que puede ser aprovechada directamente o ser transformada como energía eléctrica. Actualmente es la energía renovable con mayor crecimiento y representa ya una gran parte de la producción eléctrica. La energía eólica tiene mucho potencial y gran cantidad de aplicaciones. (Secretaría de Energía, 2004)

La energía cinética del viento es considerada una tecnología madura para la generación eléctrica, comercialmente se encuentran disponibles aerogeneradores desde 0.5 hasta1.5 MW.

Monografias.com

ELEMENTOS DE UN SISTEMA EOLICO

Elementos de un sistema eólico

Existen diferentes tipos de componentes, dependiendo de la aplicación; sin embargo, se pueden reconocer algunos comunes, (FOCER F. d., 2002) como se explica a continuación:

ROTOR: El rotor es el elemento principal de una máquina eólica, siendo su función la transformación de la energía cinética del viento en mecánica utilizable. Existe gran variedad de rotores y su clasificación más usual se realiza en función de la disposición del eje: horizontal o vertical. Para sistemas de generación eléctrica, el rotor consiste generalmente en dos o tres aspas y está hecho de fibra de vidrio con poliéster o epoxy. El rotor de una turbina eólica puede variar en tamaño, lo cual afecta la cantidad de energía correspondiente que se puede generar. Por ejemplo, una turbina de 10 kW típicamente tiene un diámetro de rotor de siete metros, mientras que una turbina de 750 kW tiene un diámetro de 24 metros.

TREN DE POTENCIA O CONVERSIÓN MECÁNICA: El tren de potencia está constituido por el eje de baja velocidad, la caja de cambios de velocidad, el eje de alta velocidad y las balineras o cojinetes que soportan los ejes. Se aplica en sistemas grandes eléctricos para adaptar la velocidad del eje a la del generador. Algunas turbinas no contienen la caja de cambios.

SISTEMA ELÉCTRICO: En sistemas de generación eléctrica, éste se refiere al generador, el cual está acoplado al eje para transformar la energía mecánica en eléctrica. Además, consiste en las interfaces para la conexión a las aplicaciones o a la red eléctrica.

CHASIS: Contiene los elementos claves de la turbina, como la caja de cambios y el generador. En turbinas grandes, el chasis puede tener el tamaño de un microbús y el personal de mantenimiento entra a él desde la torre. Usualmente, es una pieza metálica forjada sobre la cual se montan las diferentes partes del tren de conversión modularmente, al mismo tiempo que lo protege del ambiente y sirve de aislante al ruido mecánico de la caja de cambios y del generador.

SISTEMA DE ORIENTACIÓN: Las máquinas de eje horizontal tienen este componente, el cual detecta la orientación del viento y coloca el rotor en su misma dirección para aprovecharlo al máximo. El sistema de orientación está compuesto por el cojinete, los motores eléctricos, los sensores y un freno mecánico.

TORRE: Las máquinas eólicas deben estar situadas sobre una estructura de soporte capaz de aguantar el empuje del viento que transmiten el sistema de captación y las eventuales vibraciones. Su altura debe ser suficiente para evitar que las turbulencias, debidas al suelo, afecten a la máquina y para superar los obstáculos cercanos. Por ejemplo, una turbina de 750 kW tiene una altura típica de 63 metros. El uso de torres más altas significa un costo mayor al inicio, pero éste disminuye el período de la recuperación de la inversión, debido a que la velocidad del viento aumenta con la altura y logra generar más energía.

SISTEMA DE SEGURIDAD: Este pone la turbina en una situación estable y segura, en caso de que ocurran anomalías tales como pérdida de carga, velocidad de rotación o temperatura del generador a caja de cambios demasiado altas.

Monografias.com

COMPONENTES DE UN AEROGENERADOR (FOCER F. d., 2002)

Ventajas

La energía eólica presenta varias ventajas, entre las cuales se pueden destacar las siguientes:

Su impacto al medio ambiente es mínimo: no emite sustancias tóxicas o gases, por lo que no causa contaminación del aire, el agua y el suelo, y no contribuye al efecto invernadero y al calentamiento global.

Es una energía limpia ya que no requiere una combustión que produzca dióxido de carbono (CO2), y no produce emisiones atmosféricas ni residuos contaminantes.

La producción de energía por medios eólicos no presenta incidencia alguna sobre las características fisicoquímicas del suelo, ya que no se produce ninguna contaminación que incida sobre este medio. Puede convivir con otros usos del suelo, por ejemplo prados para uso ganadero o cultivos bajos como trigo, maíz, papas, remolacha, etc.

El viento es una fuente de energía inagotable, abundante y renovable, es decir, no se gasta o tarda poco tiempo en volver a regenerarse.

La tecnología no usa combustibles y el viento es un recurso propio de la región, por lo que es una de las fuentes más baratas.

En comparación con otras tecnologías aplicadas para electrificación rural, la operación de un sistema eólico es muy barata y simple. El sistema no requiere mayor mantenimiento, aparte de una revisión periódica de las baterías, en caso de tenerlas, y una limpieza de las aspas en épocas secas.

Proyectos de energía eólica se pueden construir en un plazo relativamente rápido.

Desventajas

Como toda fuente de energía, la eólica tiene sus desventajas también:

El aire al ser un fluido de pequeño peso específico, implica fabricar máquinas grandes y en consecuencia caras.

La variabilidad del viento: para proyectos aislados se requiere de un mecanismo de almacenamiento en batería de la energía generada, para poder disponer de energía cuando no haya suficiente viento.

El alto costo inicial: en comparación con fuentes térmicas de generación, un proyecto eólico tiene un alto costo inicial.

Cantidad de viento: es una opción factible y rentable sólo en sitios con suficiente viento, lo cual significa que no se puede aplicar en cualquier lugar.

El impacto visual: desde el punto de vista estético, produce un impacto visual inevitable, ya que, por sus características, precisa emplazamientos físicos que normalmente evidencian la presencia de las máquinas (cerros, colinas, litoral).

Un impacto negativo es el ruido producido por el giro del rotor.

Riesgo de mortandad al impactar las aves con las aspas.

Sistema fotovoltaico

El sol es una fuente de energía limpia, inagotable y gratuita. La Transformación de energía solar en energía térmica o eléctrica puede realizarse en el propio lugar de consumo, sin tener que transportarse ni depender de otras infraestructuras. (Secretaría de Energía, 2004)

La energía del sol es un recurso de uso universal; por lo tanto, no se debe pagar por utilizar esta energía. Sin embargo, es importante recordar que para realizar la transformación de energía solar en energía eléctrica se necesita de un sistema fotovoltaico apropiado. La utilización de energía solar con tecnología fotovoltaica, convierte la energía solar en energía eléctrica con celdas fotoeléctricas, hechas principalmente de silicio que reacciona con la luz. (FOCER, 2002)

La energía solar térmica es una de las aplicaciones prácticas con más futuro dentro del marco urbano para reducir la emisión de gases contaminantes y disminuir la dependencia de los combustibles fósiles. Los materiales, el diseño y la instalación son los costos de un sistema solar, ya que no requiere ningún combustible para su funcionamiento y los costos de mantenimiento son muy bajos, a diferencia de los sistemas convencionales de calentamiento. (Secretaría de Energía, 2007)

Monografias.com

ESQUEMA SIMPLE DE UN SISTEMA FOTOVOLTAICO (FOCER F. d., 2002)

Elementos de un sistema fotovoltaico

Existen diferentes tipos de componentes, de los cuales se pueden reconocer algunos comunes, (Castellanos, 2009) como se explica a continuación:

EL PANEL FOTOVOLTAICO: Un panel solar está constituido por varias células iguales conectadas eléctricamente entre si, en serie y/o en paralelo, de forma que la tensión y corriente suministrada por el panel se incrementa hasta ajustarse al valor deseado. La mayor parte de los paneles solares se construyen asociando primero células en serie hasta conseguir el nivel de tensión deseado, y luego asociando en paralelo varias asociaciones serie de células para alcanzar el nivel de corriente deseado. Además, el panel cuenta con otros elementos a parte de las células solares, que hacen posible la adecuada protección del conjunto frene a los agentes externos; asegurando una rigidez suficiente, posibilitando la sujeción a las estructuras que lo soportan y permitiendo la conexión eléctrica.

LAS BATERÍAS: En las instalaciones fotovoltaicas lo más habitual es utilizar un conjunto de baterías asociadas en serie o paralelo para almacenar la energía eléctrica generada durante las horas de radiación, para su utilización posterior en los momentos de baja o nula insolación.

EL REGULADOR FOTOVOLTAICO: Para un funcionamiento satisfactorio de la instalación en la unión de los paneles solares con la batería ha de instalarse un sistema de regulación de carga. Este sistema es siempre necesario, salvo en el caso de los paneles auto regulados. El regulador tiene como función fundamental impedir que la batería continúe recibiendo energía del colector solar una vez que ha alcanzado su carga máxima. Otra función del regulador es la prevención de la sobre descarga, con el fin de evitar que se agote en exceso la carga de la batería. Algunos reguladores incorporan una alarma sonora o luminosa previa a la desconexión para que el usuario pueda tomar medidas adecuadas, como reducción del consumo, u otras.

EL INVERSOR FOTOVOLTAICO: Los convertidores e inversores son elementos cuya finalidad es adaptar las características de la corriente generada a la demanda total o parcial para las aplicaciones. En determinadas aplicaciones que trabajan en corriente continua, no es posible hacer coincidir las tensiones proporcionadas por el acumulador con la solicitada por todos los elementos de consumo. En estos casos la mejor solución es un convertidor de tensión continua.

Un inversor viene caracterizado principalmente por la tensión de entrada, que se debe adaptar a la del generador, la potencia máxima que puede proporcionar y la eficiencia.

VENTAJAS

La energía solar presenta varias ventajas, entre las cuales se pueden destacar las siguientes:

No consume combustible, pues obtiene su energía del Sol, lo cual significa que, económicamente, en el largo plazo estos sistemas son más viables y estables.

Los sistemas que hoy llegan a cortos tiempos de amortización (3-6 años) son los sistemas térmicos de bajas temperaturas.

Impacto ambiental prácticamente nulo

Es un recurso inagotable.

El generar energía térmica sin que exista un proceso de combustión, desde el punto de vista medioambiental, es un procedimiento muy favorable por ser limpio y no producir contaminación.

Los sistemas fotovoltaicos no producen ningún sonido molesto cuando operan debido a que no poseen partes y movimientos mecánicos por lo que no ocasionan ningún tipo de contaminación sonora.

Los sistemas tienen una vida útil larga (más de 20 años).

El mantenimiento de los sistemas fotovoltaicos es sencillo y tiene costos muy bajos.

La instalación de los sistemas fotovoltaicos individuales es simple, rápida y sólo requiere de herramientas y equipos de medición básicos.

DESVENTAJAS

Como toda fuente de energía, la solar tiene sus desventajas también:

Las cantidades de potencia y energía que se pueden obtener de un sistema fotovoltaico están limitadas por la capacidad de generación y almacenamiento de los equipos instalados, especialmente de los módulos y la batería respectivamente, y por la disponibilidad del recurso solar.

Limitaciones presupuestarias en cuanto a la capacidad que se puede instalar.

El tiempo de instalación de una planta eléctrica de combustible es menor que el de un sistema fotovoltaico.

Los sistemas fotovoltaicos no producen humo; sin embargo, durante el proceso de carga las baterías liberan al ambiente hidrógeno en cantidades moderadas.

El derrame de la solución de ácido sulfúrico de las baterías representa un peligro para la piel de las personas y para el suelo

La disponibilidad de energía es variable y depende de las condiciones atmosféricas.

Conclusiones

Cuando utilizamos energías renovables evitamos contaminar el medio ambiente debido a que para generar este tipo de energías no es necesaria la utilización de hidrocarburos y por consiguiente contribuimos en gran manera con el ahorro de los recursos no renovables.

El aprovechamiento de las energías renovables posibilita el ahorro de combustibles convencionales e impacta favorablemente sobre el medio ambiente. Asimismo, la naturaleza dispersa de las energías renovables brinda una aceptable oportunidad para la generación eléctrica de forma distribuida.

Las energías renovables ofrecen importantes oportunidades para aplicaciones en entornos donde la energía convencional no llega, o llega solo de manera parcial. La falta de energía en comunidades constituye una situación crítica, ya que suele estar asociada con la ausencia de telecomunicaciones, educación, servicios de salud, y frecuentemente, agua potable.

Trabajos citados

Castellanos, C. (2009). Energía Solar: Una Solución Limpia y Fiable de Produccon de Energía. Quito, Ecuador: Escuela Politecnica Nacional.

FOCER, F. d. (2002). Manuales sobre Energía Renovable: Eólica. San José, Costa Rica: Biomass Users Network (BUN-CA).

FOCER, F. d. (2002). Manuales sobre Energía Renovable: Solar Fotovoltaica. San Jose, Costa Rica: Biomass User Network (BUN-CA).

Secretaría de Energía. (2004). Las Energías Renovables en el Desarrollo Sustentable de México. México: SENER.

Secretaría de Energía. (2007). Prospectiva de Sector Eléctrico 2006-2015. México D.F.: SENER.

Autor:

Pime Edwin Herbe Balán Cámara

*****************************************************
Caracteristicas e historia del cemento

Introducción
Marco teórico
Conclusión
Bibliografía

Introducción

El presente informe se trata acerca del cemento que lo podemos definir como un conglomerante formado a partir de una mezcla de calizas y arcillas calcinadas y posteriormente molidas, que tiene la propiedad de endurecer al contacto con el agua. El cemento mezclado con agregados pétreos (grava y arena) y agua, crea una mezcla uniforme, maleable y plástica que fragua y se endurece, adquiriendo una consistencia pétrea. Esta mezcla también es llamada “concreto”; y por todo lo expresado anteriormente es que su uso está muy generalizado en obras de construcción e ingeniería civil. También trataremos acerca de la historia del cemento, tipos de cemento, propiedades del cemento y su proceso de fabricación, así como otros datos más específicos acerca de este material de construcción. En el Perú la Industria Peruana del Cemento, inicia su actividad productiva en el año 1924 con la puesta en marcha de la Planta Maravillas, propiedad de la Compañía

Peruana de Cemento Pórtland. Hasta mediados de siglo el consumo en otras regiones fue muy reducido, abasteciéndose mayormente por la importación. En 1955 inicia la producción Cemento Chilca S.A., con una pequeña planta en la localidad del mismo nombre, pasando posteriormente a formar parte de la Compañía Peruana de Cemento Pórtland.

El monopolio que de hecho existía en el país en el sector cemento, centralizado en la región capital, fue roto con la formación de dos empresas privadas descentralizadas, Cementos Pacasmayo S.A., en 1957 y Cemento Andino S.A. en 1958. Posteriormente, la empresa capitalina instaló una pequeña planta en la localidad de. Juliaca, que inició la producción en 1963, denominada en la actualidad

Cemento Sur S.A. y en 1956 se crea la fábrica de Cemento Yura S.A. en Arequipa. En la actualidad, en el Perú, existen 7 empresas productoras de cemento, entre ellas: Cemento Lima, Cemento Pacasmayo, Cemento Andino, Cemento Yura, Cemento Sur, Cemento Selva y Cemento Inca.

OBJETIVOS

II. 1 Objetivos generales

Conocer las características principales del cemento, sus tipos, para que sirva, así como su proceso de producción.

II. 2 Objetivos específicos

Conocer las propiedades fundamentales del cemento, como el volumen, densidad, peso específico, etc.

Conocer y mostrar todos los usos que se le pueden dar en el área de la construcción civil y ver cómo es que esta beneficia al hombre.

Conocer los tipos de cemento que existen, y las empresas que la distribuyen a nivel nacional como también local.
Marco teórico

III. 1 Historia del cemento

Desde la antigüedad se emplearon pastas y morteros elaborados con arcilla, yeso o cal para unir mampuestos en las edificaciones. Fue en la Antigua Grecia cuando empezaron a usarse tobas volcánicas extraídas de la isla de Santorini, los primeros cementos naturales. En el siglo I a. C. se empezó a utilizar el cemento natural en la Antigua Roma, obtenido en Pozzuoli, cerca del Vesubio. La bóveda del Panteón es un ejemplo de ello. En el siglo XVIII John Smeaton construye la cimentación de un faro en el acantilado de Edystone, en la costa Cornwall, empleando un mortero de cal calcinada. El siglo XIX, Joseph Aspdin y James Parker patentaron en 1824 el Portland Cement, denominado así por su color gris verdoso oscuro similar a la piedra de Portland. Isaac Johnson, en 1845, obtiene el prototipo del cemento moderno, con una mezcla de caliza y arcilla calcinada a alta temperatura. En el siglo XX surge el auge de la industria del cemento, debido a los experimentos de los químicos franceses Vicat y Le Chatelier y el alemán Michaélis, que logran cemento de calidad homogénea; la invención del horno rotatorio para calcinación y el molino tubular y los métodos de transportar hormigón fresco ideados por Juergen Hinrich Magens que patenta entre 1903 y 1907.

III. 2 Historia del cemento en el Perú

La introducción del cemento en el Perú se inicia en la década de 1860. En efecto, en 1864 se introdujo en el Arancel de Aduanas, la partida correspondiente al denominado “Cemento Romano”, nombre inapropiado que designaba un producto con calidades hidráulicas desarrollado a inicios del siglo. En 1869 se efectuaron las obras de canalización de Lima, utilizando este tipo de cemento. En 1902 la importación de cemento fue de 4,500 T.M. Posteriormente, en 1904 el Ingeniero Michel Fort publicó sus estudios sobre los yacimientos calizos de Atocongo, ponderando las proyecciones de su utilización industrial para la fabricación de cemento. En 1916 se constituyó la Cía. Nac. de Cemento Pórtland para la explotación de las mencionadas canteras.

Las construcciones de concreto con cemento Pórtland se inician en la segunda década del siglo con elementos estructurales de acero, como el caso de las bóvedas y losas reforzadas de la Estación de Desamparados y la antigua casa Oechsle.

También, en algunos edificios del Jr. de la Unión y en el actual teatro Municipal. A partir de 1920 se generaliza la construcción de edificaciones de concreto armado, entre ellos las aún vigentes: Hotel Bolívar, Sociedad de Ingenieros, Club Nacional, el Banco de la Reserva, la Casa Wiesse y otros. Asimismo, se efectúan obras hidráulicas, la primera de ellas la Bocatoma del Imperial, construida en 1921, empleando 5,000 m 3 de concreto. En el período 1921 – 1925 se realizan importantes obras de pavimentación en Lima, dentro de las que debemos incluir la antigua Av. Progreso, aún en servicio con la denominación de Av. Venezuela. La Industria Peruana del Cemento, inicia su actividad productiva en el año 1924 con la puesta en marcha de la Planta Maravillas, propiedad de la Compañía Peruana de Cemento Pórtland. Hasta mediados de siglo el consumo en otras regiones fue muy reducido, abasteciéndose mayormente por la importación. En 1955 inicia la producción Cemento Chilca S.A., con una pequeña planta en la localidad del mismo nombre, pasando posteriormente a formar parte de la Compañía Peruana de Cemento Pórtland.

El monopolio que de hecho existía en el país en el sector cemento, centralizado en la región capital, fue roto con la formación de dos empresas privadas descentralizadas, Cementos Pacasmayo S.A., en 1957 y Cemento Andino S.A. en 1958. Posteriormente, la empresa capitalina instaló una pequeña planta en la localidad de. Juliaca, que inició la producción en 1963, denominada en la actualidad

Cemento Sur S.A. y en 1956 se crea la fábrica de Cemento Yura S.A. en Arequipa. El total de la capacidad instalada en el país es de 3’460,000 TM/A de cemento, lo que significa una disposición de 163 Kg. de cemento por habitante. El Perú ocupa el sexto lugar en la producción de cemento en Latinoamérica luego México, Brasil, Argentina, Colombia y Venezuela.

III. 3 Propiedades físicas y mecánicas del cemento

III. 3.1 Fraguado y endurecido

El fraguado es la pérdida de plasticidad que sufre la pasta de cemento. La velocidad de fraguado viene limitado por las normas estableciendo un periodo de tiempo, a partir del amasado, dentro del cual debe producirse el principio y fin del fraguado. Este proceso es controlado por medio del ensayo de la aguja de Vicat (NB 063; ASTM C191), que mide el inicio y fin del fraguado en mediciones de penetraciones cada 15 min, de la siguiente manera:

Inicio del Fraguado.- Cuando la aguja no penetra más de 25 mm en la pasta. Se recomienda que una vez iniciado el fraguado el cemento ya deba estar totalmente colocado y no debe moverse de su lugar, ya que se originaran fisuras.

Fin del Fraguado.- Cuando la aguja no deja marcas e la superficie de la pasta.

Monografias.com

Falso Fraguado o endurecimiento prematuro.- Se manifiesta por un endurecimiento rápido del hormigón poco después del mezclado. Si este es resultado de la deshidratación del yeso durante el proceso de molido, por lo general desaparecerá con un mezclado adicional. Si es resultado de la interacción cemento aditivo, es posible que se requieran agua y mezclado adicionales para mitigar el problema.

Fraguado por compactación.- En ocasiones, en el manejo del cemento a granel, se encuentra que el cemento presenta cierta dificultad para fluir o que fluye mal.

Este “fraguado por compactación”, no tiene efecto sobre las propiedades del cemento para producir el hormigón. El problema suele ser la humedad, instalaciones de manejo inadecuadamente diseñadas o haber dejado que el cemento se asentara, por demasiado tiempo sin moverlo. El fraguado por compactación puede presentarse en donde, durante el tránsito, la vibración ha eliminado la mayor parte del aire que rodea las partículas de cemento, como en los vagones de ferrocarril. Se puede tener una situación semejante en los silos de almacenamiento. Por lo general, la aplicación de chorros de aire esponjará bastante el cemento como para permitir que fluya. El uso de sustancias para ayudar a la pulverización del cemento ha reducido de manera significativa los problemas de flujo. Los sistemas modernos de aireación, los vibradores adecuados para los depósitos y los depósitos y silos correctamente diseñados experimentan pocos problemas, en caso de haberlos.

III. 3.2 Finura

Influye decisivamente en la velocidad de reacciones químicas que tienen lugar durante el fraguado y el principio de este. Al entrar en contacto con el agua, los granos de cemento solo se hidratan en una profundidad de 0,01 mm, por lo que si dichos granos fuesen muy gruesos, su rendimiento sería muy pequeño, al quedar en su interior un núcleo prácticamente inerte, como se ilustra en la figura:

Monografias.com

Si el cemento posee una finura excesiva, su retracción y calor de hidratación serán muy altos, se vuelve más susceptible a la meteorización y disminuye su resistencia a las aguas agresivas, lo que en general resulta muy perjudicial. La finura influye sobre las propiedades de ganancia de resistencia, en especial hasta un envejecimiento de 7 días. Por esta razón, el cemento del Tipo III se muele más fino que los otros tipos. Aun cuando las especificaciones (NB 011; ASTM C150) señalan una finura mínima la mayor parte de los cementos sobrepasan este mínimo en entre un 20 y un 40%. Una señal práctica de que las partículas son muy pequeñas, es cuando durante el almacenamiento y manejo, una cantidad muy pequeña de humedad pre-hidrata el cemento.

Algunos usuarios especifican un mínimo de finura, en un esfuerzo por minimizar la contracción por secado del hormigón.

III. 3.3 Resistencia mecánica

La velocidad de endurecimiento del cemento depende de las propiedades químicas y físicas del propio cemento y de las condiciones de curado, como son la temperatura y la humedad. La relación agua/cemento (A/C) influye sobre el valor de la resistencia última, con base en el efecto del agua sobre la porosidad de la pasta.

Una relación A/C elevada produce una pasta de alta porosidad y baja resistencia.

La resistencia es medida a los 3, 7 y 28 días, teniendo estas que cumplir los valores mínimos.

Para determinar la resistencia a la compresión, se realiza el ensayo de Compresión (NB 470; ASTM C109), en el cual se usan cubos de mortero de 5 cm. por lado, con una relación constante agua/cemento de 0.485, y para los cementos con puzolana se calcula esta relación, según el contenido de puzolana, hasta lograr la consistencia especificada. El mortero para las pruebas consta de una parte de cemento y 2.75 partes de arena graduada estándar, mezclados con agua. Los cubos de mortero se preparan en moldes que se compactan en 2 capas con una varilla normalizada, se deja secar en una cámara con humedad mayor al 90%. Luego se desmolda y se coloca en agua saturada de Oxido de Calcio a una temperatura entre 23 a 25ºC.

El ensayo se lleva a cabo en la máquina de compresión, donde se colocan los cubos y se les aplica presión, hasta la rotura.

Los cubos son curados unas 24 horas en los moldes, luego son removidos de estos y son sumergidos en agua con cal hasta el momento de realizarse el ensayo.

Monografias.com

III. 3.4 Expansión

El exceso de cal libre o de magnesia en el cemento da por resultado expansión y la desintegración del hormigón hecho con ese cemento.

En el caso de la cal libre, se debe a partículas de esta que no llegan a combinarse con los demás componentes y que van aumentando de volumen hasta explotar.

En el caso de la magnesia se debe a la formación de la periclasa, formada por el oxido de magnesio que se origina cuando el clinker no ha sido enfriado rápidamente al salir del horno. La expansión producida por el magnesio se presenta a largo plazo, produciendo fisuras, por lo cual la Norma limita la cantidad de oxido de magnesio al 6.0%.

III. 3.5 Fluidez

La fluidez es una medida de la consistencia de la pasta de cemento expresada en términos del incremento del diámetro de un espécimen moldeado por un medio cono, después de sacudir un número especifico de veces.

Mesa de sacudida.- Ensayo de fluidez

Monografias.com

III. 4 Componentes químicos del cemento

El proceso de fabricación del cemento comienza con la obtención de las materias primas necesarias para conseguir la composición deseada para la producción del clinker.

Los componentes básicos para el cemento Pórtland son: CaO, obtenida de materiales ricos en cal, como la piedra caliza rica en CaCO3, con impurezas de SiO2, Al2O3 y MgCO3, de Margas, que son calizas acompañadas de sílice y productos arcillosos, conchas marinas, arcilla calcárea, greda, etc.

SiO2 y Al2O3, obtenidos de Arcilla, arcilla esquistosa, pizarra, ceniza muy fina o arena para proporcionar sílice y alúmina.

Fe2O3, que se obtiene de mineral de hierro, costras de laminado o algún material semejante para suministrar el hierro o componente ferrífero.

Con los dos primeros componentes se produce cemento Pórtland blanco, el tercero es un material fundente que reduce la temperatura de calcinación necesaria para la producción del cemento gris. Esta disminución en la temperatura, hace que sea más económico en su fabricación, en relación al cemento blanco, aunque ambos poseen las mismas propiedades aglomerantes.

El número de materias primas requeridas en cualquier planta depende de la composición química de estos materiales y de los tipos de cemento que se produzcan. Para llevar a cabo una mezcla uniforme y adecuada, las materias primas se muestrean y analizan en forma continua, y se hacen ajustes a las proporciones mientras se realiza el mezclado.

Extracción.- El proceso industrial comienza con la extracción de las materias primas necesarias para la fabricación del cemento, tales como piedra caliza, yeso, oxido de hierro y puzolana. La extracción se realiza en canteras a cielo abierto mediante perforaciones y voladuras controladas, para luego ser transportadas por palas y volquetas a la trituradora.

Monografias.com

III. 5 Tipos de cemento Pórtland

III. 5.1 Pórtland Tipo I

Es un cemento normal, se produce por la adición de clinker más yeso. De uso general en todas las obras de ingeniería donde no se requiera miembros especiales. De 1 a 28 días realiza 1 al 100% de su resistencia relativa.

Monografias.com

III. 5.2 Pórtland Tipo II

Cemento modificado para usos generales. Resiste moderadamente la acción de los sulfatos, se emplea también cuando se requiere un calor moderado de hidratación. El cemento Tipo II adquiere resistencia más lentamente que el Tipo I, pero al final alcanza la misma resistencia. Las características de este Tipo de cemento se logran al imponer modificaciones en el contenido de Aluminato Tricálcico (C3A) y el Silicato Tricálcico (C3S) del cemento. Se utiliza en alcantarillados, tubos, zonas industriales. Realiza del 75 al 100% de su resistencia.

Monografias.com

III. 5.3 Pórtland Tipo III

Cemento de alta resistencia inicial, recomendable cuando se necesita una resistencia temprana en una situación particular de construcción. El concreto hecho con el cemento Tipo III desarrolla una resistencia en tres días, igual a la desarrollada en 28 días para concretos hechos con cementos Tipo I y Tipo II ; se debe saber que el cemento Tipo III aumenta la resistencia inicial por encima de lo normal, luego se va normalizando hasta alcanzar la resistencia normal. Esta alta resistencia inicial se logra al aumentar el contenido de C3S y C3A en el cemento, al molerlo más fino; las especificaciones no exigen un mínimo de finura pero se advierte un límite practico cuando las partículas son tan pequeñas que una cantidad muy pequeña de humedad prehidratada el cemento durante el almacenamiento manejo. Dado a que tiene un gran desprendimiento de calor el cemento Tipo III no se debe usar en grandes volúmenes. Con 15% de C3A presenta una mala resistencia al sulfato. El contenido de C3A puede limitarse al 8% para obtener una resistencia moderada al sulfato o al 15% cuando se requiera alta resistencia al mismo, su resistencia es del 90 al 100%.

III. 5.4 Pórtland Tipo IV

Cemento de bajo calor de hidratación se ha perfeccionado para usarse en concretos masivos. El bajo calor de hidratación de Tipo IV se logra limitándolos compuestos que más influye en la formación de calor por hidratación, o sea, C3A y C3S. Dado que estos compuestos también producen la resistencia inicial de la mezcla de cemento, al limitarlos se tiene una mezcla que gana resistencia con lentitud. El calor de hidratación del cemento Tipo IV suele ser de más o menos el 80% del Tipo II, el 65% del Tipo I y 55% del Tipo III durante la primera semana de hidratación. Los porcentajes son un poco mayores después de más o menos un año. Es utilizado en grandes obras, moles de concreto, en presas o túneles. Su resistencia relativa de 1 a 28 días es de 55 a 75%.

III. 5.5 Pórtland Tipo V

Cemento con alta resistencia a la acción de los sulfatos, se especifica cuando hay exposición intensa a los sulfatos. Las aplicaciones típicas comprenden las estructuras hidráulicas expuestas a aguas con alto contenido de álcalis y estructuras expuestas al agua de mar. La resistencia al sulfato del cemento Tipo V se logra minimizando el contenido de C3A, pues este compuesto es el más susceptible al ataque por el sulfato. Realiza su resistencia relativa del 65 al 85 %.

Monografias.com

III. 6 Tipos de cemento especiales

III. 6.1 Cemento Pórtland blanco

Es el mismo Pórtland regular, lo que defiere es el color, esto se obtiene por medio del color de la manufactura, obteniendo el menor número de materias primas que llevan hierro y oxido de magnesio, que son los que le dan la coloración gris al cemento. Este cemento se usa específicamente para acabados arquitectónicos tales como estuco, pisos y concretos decorativos.

III. 6.2 Cemento Pórtland de escoria de alto horno

Es obtenido por la pulverización conjunta del clinker portland y escoria granulada finamente molida con adición de sulfato de calcio. El contenido de la escoria granulada de alto horno debe estar comprendido entre el 15% y el 85% de la masa total.

III. 6.3 Cemento siderúrgico supersulfatado

Obtenido mediante la pulverización de escoria granulada de alto horno, con pequeñas cantidades apreciables de sulfato de calcio.

III. 6.4 Cemento Pórtland puzolánico

Se obtiene con la molienda del clinker con la puzolana. Tiene resistencia parecida al cemento normal y resistente ataques al agua de mar, lo que lo hace aconsejable para construcciones costeras. Para que el cemento sea puzolánico debe contener entre el 15% y el 50% de la masa total. El cemento puzolánico se utiliza en construcciones que están en contactos directos con el agua, dada su resistencia tan alta en medios húmedos.

III. 6.5 Cemento Pórtland adicionado

Obtenido de la pulverización del clinker Pórtland conjuntamente con materiales arcillosos o calcáreos-sílicos-aluminosos.

III. 6.6 Cemento Aluminoso

Es el formado por el clinker aluminoso pulverizado el cual le da propiedad de tener alta resistencia inicial. Es también resistente a la acción de los sulfatos así como a las altas temperaturas.

III. 7 Proceso de fabricación del cemento

a. Explotación de materias primas

Consiste en la extracción de las piedras calizas y las arcillas de los depósitos o canteras, las cuales dependiendo de sus condiciones físicas se hacen los diferentes sistemas de explotación, luego el material se transporta a la fábrica.

b. Preparación y clasificación de las materias primas

Una vez extraídos los materiales, en la fábrica se reduce el tamaño de la caliza siguiendo ciertas especificaciones dada para la fabricación. Su tamaño se reduce con la trituración hasta que su tamaño oscile entre 5 a 10 mm.

c. Homogenización

Consiste en hacer mezcla de las arcillas y calizas, que ya han sido trituradas, se lleva por medio de bandas transportadoras o molinos, con el objetivo de reducir su tamaño hasta el orden de diámetro de medio milímetro. En ésta etapa se establece la primera gran diferencia de los sistemas de producción del cemento, (procesos húmedos y procesos secos).

d. Clinkerización

Consiste en llevar la mezcla homogeneizada a hornos rotatorios a grandes temperaturas aproximadamente a 1450 °C, en la parte final del horno se produce la fusión de varios de los componentes y se forman gránulos de 1 a 3 cm. de diámetro, conocido con el nombre de clinker.

e. Enfriamiento

Después que ocurre el proceso de Clinkerización a altas temperaturas, viene el proceso de enfriamiento en la cual consiste en una disminución de la temperatura para poder trabajar con el material, éste enfriamiento se acelera con equipos especializados.

f. Adiciones finales y molienda

Una vez que el clinker se halla enfriado, se prosigue a obtener la finura del cemento, en la cual consiste en moler el clinker, después se le adiciona yeso con el fin de retardar el tiempo de fraguado.

g. Empaque y distribución

Esta última etapa consiste en empacar el cemento fabricado en bolsas de 50 kilo, teniendo mucho cuidado con diversos factores que puedan afectar la calidad del cemento, luego se transporta y se distribuye con cuidados especiales.

III. 8 Producción de cemento por empresa

Cemento Andino S.A.

Cemento Andino S.A. es una empresa industrial fundada el 21 de abril del año 1952 con el nombre de Perú Central S.A., razón social que se modificó por la de Cemento Andino S.A. desde el 20 de enero de 1956. En abril de 1956, se inició la construcción de la fábrica original de cemento y entró en operación el 01 de Julio de 1958 con una capacidad instalada de 85,000 TM anuales.

Desde el año 2008 la capacidad instalada práctica es de 1’180,000 TM de clinker y 1’500,000 TM de cemento. Los tipos de cemento que fabrica son:

Cemento Pórtland Tipo I

Cemento Pórtland Tipo II

Cemento Pórtland Tipo V

Cemento Pórtland Puzolánico Tipo I (PM)

Cementos Lima S.A.

Cementos Lima S.A. es la mayor y más importante empresa productora de cemento del Perú. Sus antecedentes en el Perú se remontan a 1916, año en que se da inicio a su fabricación a través de la Compañía Peruana de Cemento Pórtland, que inicia sus operaciones en esa fecha como predecesora de Cementos Lima S.A. En Cementos Lima S.A. se produce las siguientes variedades de cemento:

Cemento Portland Tipo I: Marca “Sol”

Cemento Portland Tipo IP: Marca “Super Cemento Atlas”

Cementos Pacasmayo S.A.A.

La fábrica de Cementos Pacasmayo fue inaugurada el 27 de noviembre de 1957 con la presencia de varias personalidades de la época.

Cementos Pacasmayo se caracteriza por ser una empresa versátil e innovadora que busca satisfacer constantemente las distintas necesidades constructivas del país.

Debido a esta versatilidad e innovación es que hemos ido creando cementos especializados que pueden atender todo tipo de obras, tanto para consumo masivo como para obras que requieran especificaciones muy particulares.

Actualmente contamos con 5 tipos de cemento, cada uno diseñado para usos específicos.

Cemento Portland Tipo I

Cemento Portland Tipo V

Cemento Portland MS

Cemento Pórtland Extraforte

Cemento Pórtland Extradurable

Cementos Selva S.A.

Empresa de fabricación y comercio de cemento, subsidiaria de Cementos

Pacasmayo. Fue creada en el año 2000. Es dueña de la planta de producción ubicada en la ciudad de Rioja, San Martín. Se producen los siguientes tipos de cementos:

Cemento Portland Tipo I

Cemento Portland Tipo II

Cemento Portland Tipo V

Cemento Portland Puzolánico Tipo IP

Cemento Portland Compuesto Tipo 1Co

Cemento Sur S.A.

Cemento Sur S.A., empresa subsidiaria de Yura S.A., tiene como actividad principal la producción y comercialización de cemento así como de cal. Su planta está ubicada en el distrito de Caracoto, provincia de San Román, departamento de Puno.

Abastece a la zona alto andina del sudeste del país así como a la zona de selva de la región sur oriental. Sus productos son:

Cemento Portland Tipo I – Marca “Rumi”

Cemento Portland Puzolánico Tipo IPM – Marca “Inti”

Cemento Portland Tipo II

Cemento Portland Tipo V

Yura S.A.

Yura S.A., desde 1966 se ha constituido en un importante eje de desarrollo de la Macro Región Sur del Perú, cuenta con las Divisiones de Cemento y de Concretos.

En Cementos es el cuarto productor nacional de cemento, liderando el abastecimiento del mercado costeño y andino del sur del Perú. Tiene consolidado el liderazgo y la aceptación en su mercado de influencia gracias a su cemento adicionado con puzolana natural. Su División de Concretos presta servicios a la Industria de la Construcción, produce: concreto premezclado, prefabricados de concreto, y es líder en el mercado de la zona sur del país.

Los tipos de cemento que produce son:

Cemento Pórtland Tipo I

Cemento Pórtland Tipo IP

Cemento Pórtland Tipo IPM

Cementos Inca S.A.

En el año 2007, después de más de 22 años que no se instalaban empresas cementeras en el mercado peruano. Caliza Cemento Inca S.A. ingresa en él mercado inaugurando una nueva planta con tecnología de punta y un riguroso sistema de calidad en cada una de las etapas productivas. Su producto es:

Cemento Pórtland Tipo I Co ecológico

Monografias.com

III. 9 Empresas cementeras mundiales

Lafarge es una compañía internacional de materiales de construcción de origen francés especializada en cuatro productos principales: cemento, hormigón, áridos y yeso. Es actualmente (2009) líder en el mercado del cemento a nivel internacional, segunda en el de áridos y tercera en hormigón y yeso. Lafarge cuenta con 78,000 empleados en 78 países.

Cementos Mexicanos. S.A.B. de C.V. o CEMEX es una compañía global de soluciones para la industria de la construcción, que ofrece productos y servicio a clientes y comunidades en más de 50 países en el mundo. La compañía mexicana ocupa el tercer lugar mundial en ventas de cemento y clinker, con una capacidad de producción de 97 millones de toneladas al año y es la principal empresa productora de concreto premezclado, con una capacidad de producción de aproximadamente 77 millones de toneladas anuales, atendiendo así los mercados de América, Europa,

Asia, África y Medio Oriente. CEMEX opera actualmente en cuatro continentes, con 66 plantas de cemento, 2,000 instalaciones de concreto premezclado, 400 canteras, 260 centros de distribución y

80 terminales marinas.3 Cerca de un tercio de las ventas de la compañía vienen de sus operaciones en México, un cuarto de sus plantas en EE.UU., 15% de España, y el resto de sus plantas alrededor del mundo. Las oficinas centrales se encuentran en San Pedro Garza García, dentro de la Zona Metropolitana de Monterrey, en el noreste de México.

HeidelbergCement es una compañía cementera y de producción de materiales de construcción alemana. A 2010 es la cuarta compañía mundial productora de cemento, es líder en la producción de agregados, y la cuarta productora de hormigón. En 2009 la compañía produjo alrededor de 79 millones de toneladas de cemento. La compañía emplea cerca de 53.000 personas en 2.500 plantas de

producción en 40 países con un volum\en de negocios anual de aproximadamente EUR 11.000 millones.

HOLCIM El grupo tiene acciones en más de 70 países en todos los continentes.

Desde sus inicios en Suiza, el grupo ha crecido hasta alcanzar una escala mundial con una presencia de mercado fuerte en todo el globo. Holcim comenzó la producción de cemento en 1912 en la villa de Holderbank (Lenzburg, Cantón de Aargau, a 40 Km. de Zúrich) y usó el nombre de Holderbank AG hasta 2001 cuando cambió su nombre por Holcim. Actualmente es la cementera más grande del mundo, seguida de Lafarge y de CEMEX. El Grupo ha adquirido participaciones en otras empresas, ampliando su base a más de 50 países, por ejemplo Cementos Bío Bío, en Chile y Holcim Apasco en México.

Italcementi S.p.A. Fabbriche Riunite Cemento es una empresa cementera de Bérgamo (Italia), fundada en 1864. Se trata de la quinta mayor productora de cemento del mundo tras Holcim, Lafarge, CEMEX y HeidelbergCement, y la mayor en la zona del Mediterráneo. La empresa tiene una plantilla de más de 20.000 empleados, de los que 400 de ellos son técnicos dedicados a la investigación. Sus ingresos ascienden a unos 4.500.000 Euros.

Opera en 19 países incluyendo Albania, Bélgica, Bulgaria, Canadá, Chipre, Egipto, Francia, Gambia, Grecia, India, Italia, Kazajistán, Marruecos, Mauritania, España, Sri Lanka, Tailandia, Turquía y los Estados Unidos, en los que posee 62 plantas de producción de cementos. Su filial en España es FYM – Sociedad Financiera y Minera, S. A.

III. 10 Últimas tecnologías del cemento

Expertos de la Universidad Central Marta Abreu de las Villas realizaron una importante investigación, consistente en la elaboración de un modelo físico matemático para analizar los parámetros puzolánicos de los residuos agroindustriales que pueden ser utilizados en la elaboración del cemento. El Doctor Ernesto Villar Cociña, profesor de la Facultad de Matemática, Física y

Computación de la casa de altos estudios, al frente de la investigación, explicó que estos residuos tienen la propiedad de reaccionar con el hidróxido de calcio, a partir de una hidratación del cemento, con lo cual se obtiene un producto de mejor calidad, y mayor resistencia. Según el especialista, se logran determinar parámetros cinéticos y termodinámicos de esos materiales y evaluar en qué proporción se le pueden añadir al cemento. Y añade: “Los resultados son palpables. Con la adición de desechos agroindustriales, indicador que puede llegar hasta un 20 por ciento, se disminuye la cantidad de klinker, un material resistente que se emplea en la confección del cemento, más costoso, además de los consiguientes aportes al ahorro energético y al medio ambiente que ello reporta”. Villar Cociña significó el alto grado de contaminación que reporta la industria del cemento, además del elevado gasto de recursos energéticos, de ahí el impacto de una investigación de este tipo que, por otra parte, propone reciclar los residuos de la agricultura y la industria, que antes iban a parar a vertederos, como residuales sólidos.

Carpas de concreto

Bien. Si bien actualmente hay varios desarrollos, todo comenzó en 2005, dos ingenieros hasta entonces desconocidos, Will Crawford y Peter Brewin, estudiando y trabajando en Londres comenzaron a probar que pasaba si a ciertas telas (estructura) las impregnabas en cemento y luego de darle forma las mojabas.

El próximo año se comercializarán unos nuevos refugios prefabricados con lona de cemento con una gran posibilidad de aplicarlos en distintos campos, militares, deportivos, humanitarios, etc. Sorprende la rapidez con la que se puede preparar uno de estos refugios, basta con inflar la lona previamente humedecida en el interior del saco hasta que adquiera la forma deseada.

En unos 40 minutos podemos disponer de un refugio CC01 bastante más sólido que una tienda de campaña, aunque deberemos esperar dos horas hasta que se solidifique adecuadamente. Incluso resiste el impacto de una bala, no es por tanto nada extraño que los militares se hayan fijado en el refugio en cuestión, aunque sus creadores, los británicos Will Crawford y Peter Brewin, lo habían concebido exclusivamente para el tema humanitario, es decir, para poder proporcionar a miles de refugiados del tercer mundo un lugar donde cobijarse.

El nuevo refugio se encuentra en el interior de una bolsa preparado para su montaje, junto a una bomba de inflado de pedal, basta con romper la bolsa y comenzar a inflarlo para que los 230 kilos de lona tomen la forma adecuada. Aunque también se incorpora una versión en la que una mezcla gaseosa se encarga de darle el cuerpo necesario. Los nuevos refugios pueden mantenerse en perfectas condiciones durante un par de años, aunque todo dependerá del volumen de la construcción.

El despliegue de estas construcciones debe realizarse cuando el sol está oculto, la razón es evitar que el cemento se reseque excesivamente no pudiendo proporcionar entonces la solidez adecuada. Por unos 1.780 euros se puede disponer de un refugio.

Monografias.com
Conclusión

Al haber concluido este informe, estaremos en la capacidad de conocer que es el cemento y cuáles son sus propiedades de acuerdo a sus tipos, ya sean cementos Pórtland o especiales. También tendremos el conocimiento de la historia del cemento en el mundo y en el Perú, así como también las principales fábricas de cemento del mundo, y las fabricas de cemento en el Perú. Así también se ha conocido acerca de las últimas tecnologías acerca del cemento como es el caso de las carpas de concreto.
Bibliografía

http://es.wikipedia.org/wiki/Cemento

http://apuntesingenierocivil.blogspot.com/2010/10/tipos-de-cementoportland.html

http://www.arquicity.com/tipos-de-cemento.html

http://blogs.elcomercio.pe/publicidadymkt/2008/10/no-vendemoscemento.html

http://www.cementoandino.com.pe/

http://www.cementoinca.com.pe/

http://www.cementoslima.com.pe/

http://www.cemexmexico.com/

http://www.construmatica.com/construpedia/Cemento

http://html.rincondelvago.com/cemento_proceso-de-fabricacion.html

http://www.ingenierocivilinfo.com/search/label/CEMENTO

http://www.monografias.com/trabajos52/cemento-peru/cemento-peru.shtml

http://www.pacasmayo.com.pe/

http://www.grupogloria.com/yuraCEMENTOSquienes.html

http://commodities-eleman65.com/cemento.html

http://www.fayerwayer.com/2011/05/esta-carpa-se-convierte-en-un-refugio-deconcreto-para-desastres-en-24-horas/

http://www.asocem.org.pe/SCMRoot/bva/f_doc/cemento/industria/industria_peru_MGC12.PDF

http://cdiserver.mbasil.edu.pe/mbapage/BoletinesElectronicos/BWiese/Reporte-sectorial/20050217_sec_es_cemento.pdf

DEDICATORIA

En primer lugar agradezco a dios por darme la fuerza para poder llevar a cabo este trabajo, a mis padres y hermanos que siempre han estado ahí para apoyarme en todo momento los cuales siempre han sido mi bastón y nunca me han dejado caer, a si mismo agradezco a mis compañeros de investigación que a pesar de las dificultades siempre hemos sabido salir adelante.

A Dios por permitirme estar aquí, a mis padres por su sacrificio y amor, a todos mis amigos y amigas que me ayudaron ya sea con un gesto, palabras, consejos y muchas cosas más.

Autor:

David Apaza

Monografía presentada en cumplimiento parcial de

La asignatura de Estadística General

Profesor:

Ing. Efraín Velásquez Mamani

UNIVERSIDAD PERUANA UNIÓN

FACULTAD DE INGENIERÍA

E.A.P. Ingeniería Civil

Juliaca, 12 de Noviembre de 2012

*****************************************************
Pasado, presente y futuro del uso de los asfaltos en Mexico

Antecedentes
El asfalto natural
El asfalto artificial o procesado.
Emulsiones asfálticas
El asfalto en la actualidad
El asfalto, un vistazo al futuro
Trabajos citados

Antecedentes

Por necesidad, los primeros caminos fueron vías de tipo peatonal (veredas) que las tribus nómadas formaban al deambular por las regiones en busca de alimentos; posteriormente, cuando esos grupos se volvieron sedentarios, los caminos peatonales tuvieron finalidades religiosas, comerciales y de conquista. En América, y en México en particular, hubo este tipo de caminos durante el florecimiento de las civilizaciones maya y azteca. (Olivera, 1996)

Al momento de la conquista, los españoles llegaron con caballos y carretas, y comenzaron a construir caminos más amplios, ya que las veredas del imperio azteca les resultaban insuficientes para sus necesidades. En 1522 Hernán Cortés ordenó que Álvaro López construyera un camino ancho entre Veracruz y Tenochtitlan, para poder aprovechar el uso de carretas, bestias de carga y soldados a caballo. El camino se volvió carretera en 1531, cuando Sebastián de Aparicio construyó las primeras carretas de bueyes para mover mercaderías entre el puerto y la capital. (Breve historia de los caminos de México, 2011)

LOS ASFALTOS

El asfalto es un producto derivado del petróleo, se obtiene de la destilación al vacio del crudo pesado.

El asfalto es uno de los materiales constructivos más antiguos que el hombre ha utilizado. Estudios arqueológicos han determinado que el asfalto ha sido usado como material aglutinante, como impermeabilizantes, además de otros usos en antiguas civilizaciones. En este apartado se describirán las aplicaciones que diferentes civilizaciones le dieron al asfalto.

A lo largo de muchos años se la ha dado diversos usos, en la actualidad su principal aplicación está en la construcción de pavimentos.

Los asfaltos se conocen desde el paleolítico, hace aproximadamente 40000 años, los primeros vestigios del asfalto están adheridos a las herramientas de los Neandertales. Cuando apareció el Homo Sapiens, lo utilizó como material de construcción para edificar los zigurats y como material de calafateo en la construcción de los barcos en Sumeria (6000 AC). Los egipcios en el 2600 AC lo utilizaron como material momificante. (Cremades, 2010)

En nuestro país, la existencia de la piedra aceitosa, petróleo de base asfáltica, ya era conocida por los pobladores del México prehispánico; diversas culturas usaban el asfalto como pegamento, como medicina y como sacrificio religioso, ya que lo quemaban delante de sus ídolos. (Amor, paz y… asfalto, datos históricos., 2012)

La palabra ASFALTO, se cree que proviene del término Akadio, asfáltico, los griegos de los tiempos de Homero adoptaron el término en la forma ASFALTOS, que significa “hacer firme o estable” este término evolucionó a “asfaltum” de los romanos, “asphalte” del francés y “asphalt” del inglés. (Cremades, 2010)

La utilización del asfalto como material de construcción se remonta en la historia de la humanidad a tiempos muy anteriores a la era cristiana. En la época de los reyes de babilónicos encontramos ya testimonios históricos de la utilización del asfalto como elemento para la construcción de carreteras. (Xarxa Telemática Educativa de Catalunya: XTEC)

El primer pavimento construido con rocas asfálticas en la forma de asfalto fundido fue dado al tránsito en Paris en 1854. Pocos años después se generalizo su empleo en la forma poco más o menos en que se utiliza en la actualidad. La construcción de los pavimentos de asfalto se desarrollo pronto en América. (XTEC, op.cit.)

El enorme incremento adquirido en el primer decenio del siglo actual por las industrias petroleras y las enormes cantidades de asfalto obtenidas como subproducto de la destilación del petróleo bruto dio gran impulso a los estudios para buscarles aplicación, y pronto lo encontraron en la construcción de carreteras. (XTEC, op.cit.)
El asfalto natural

Se encuentra en forma de yacimientos que pueden ser explotados, prácticamente sin proceso alguno, se ha formado a partir del petróleo por evaporación natural de los elementos volátiles. Este tipo de asfalto generalmente es conocido como “asfalto de lago”. (Arizpe)

Este tipo de asfaltos puede usarse para la carpeta de los caminos, después que el material extraído o minado ha sido procesado adecuadamente. Este proceso incluye la adición de agregados minerales adecuados, cementante asfáltico y aceite, lo que facilita el flujo del material. El asfalto mineral no se usa ampliamente debido a su elevado costo de transporte. (Nicholas & A., 2005)
El asfalto artificial o procesado.

Se obtiene por medio de la refinación del petróleo, que consta de la separación de los diferentes materiales en el petróleo crudo sin cambios significativos en la composición química de cada material. (op.cit).

En la siguiente figura se encuentra un diagrama de flujo que muestra las diferentes interrelaciones de los diferentes materiales que pueden obtenerse de la destilación fraccionada del petróleo crudo. (op.cit).

Monografias.com

FUENTE: Introducción al asfalto, Manual seriado No. 5, 8ª. Edición, Instituto del Asfalto, Lexington, Ky., 1993.
Emulsiones asfálticas

En nuestra vida diaria, utilizamos muchos productos que son emulsiones. El café, la mayonesa, las pinturas, los refrescos son algunas de las emulsiones más comunes. Una emulsión es una dispersión fina o más o menos estabilizada de un liquido en otro los cuales son no miscibles entre si y están unidos por un emulsificante, emulgente o emulsionante. en cada caso, se requieren ciertos procesos mecánico y químicos para combinar dos o más materiales que no se mezclan en condiciones normales. Hay todo un campo científico dedicado al estudio de las emulsiones. Del mismo modo que no es necesario comprender como funciona un motor para conducir un automóvil, tampoco es necesario entender la compleja química de las emulsiones para construir un buen pavimento con una emulsión asfáltica. La clave es escoger la emulsión correcta para el agregado y el sistema constructivo a utilizar.

CLASIFICACIÓN DE LAS EMULSIONES ASFÁLTICAS

Las Emulsiones Asfálticas se dividen en tres categorías:

Aniónicas

Catiónicas

No Iónicas

Las dos primeras se utilizan en la construcción y mantenimiento de carreteras. Las del tipo aniónico fueron las primeras emulsiones creadas por 1920. Las catiónicas son las emulsiones “modernas” que se utilizan actualmente con excelentes resultados en todo el mundo. En este trabajo nos referiremos únicamente a las emulsiones del tipo catiónico, las cuales se utilizan con prácticamente cualquier tipo de agregado. (Chávez, Información Técnica, 2012)

Las Emulsiones asfálticas se empezaron a usar desde el año 1,920. Primero fueron las de tipo aniónico, que permitían un resultado satisfactorio con áridos calizos, y desde hace más de medio siglo, las de tipo catiónico, que amplían el campo de aplicación a todo tipo de áridos. Actualmente las emulsiones se diseñan, es decir, se produce una emulsión adecuada para un árido determinado, unas condiciones climatológicas y un sistema de puesta en obra. (Chávez, Las Emulsiones Asfálticas, 2012)

Las emulsiones asfálticas se clasifican de acuerdo a la rapidez en que el asfalto se separe del agua (coalescencia o rotura; cambio de color de marrón a negro) (op.cit):

Catiónica de Rotura Rápida CRS

Catiónica de Rotura Media CMS

Catiónica de Rotura Lenta CSS

Catiónica de Rotura Lenta del tipo Superestable CS

Monografias.com

Fuente: (Chávez, Información Técnica, 2012)

USO DE LAS EMULSIONES ASFÁLTICAS

Cada grado de emulsión está diseñado para usos específicos, algunos de los cuales se describen a continuación.

Monografias.com

FUENTE: (Chávez, Información Técnica, 2012)
El asfalto en la actualidad

Actualmente en el mundo se producen alrededor de 115 millones de toneladas de asfalto de los cuales más del 85% se emplean en la pavimentación de caminos y el 15% restante se emplea en aplicaciones industriales e impermeabilizantes domésticos (Cremades, 2010).

Europa y Estados Unidos tienen por mucho las más extensas redes viales, en Europa alrededor de 5,2 millones de km de los cuales más del 90% están pavimentadas con asfalto y de los 4,0 millones de km estimados en Estados Unidos más del 92% están pavimentadas con asfalto. Canadá tiene alrededor de 415,000 km pavimentados con 90% de asfalto y México tiene 371,936 km con el 96% pavimentado con asfalto. (Cremades, 2010) (Breve historia de los caminos de México, 2011)

Monografias.com

FUENTE: (Breve historia de los caminos de México, 2011)

La durabilidad del pavimento asfáltico evidentemente está ligada a una serie de factores económicos y sociales del propio camino, también hay que tomar en cuenta el efecto del clima y del tránsito, de manera que la vida del pavimento no puede definirse con exactitud. Los pavimentos pueden estar expuestos durante su vida útil a circunstancias de orden extraordinario, tales como lluvias ciclónicas, nundaciones, terremotos, etcétera. (Rico & Del Castillo, 2006)

El asfalto ha entrado en el mundo desarrollado en un dinamismo acelerado, desde el punto de vista técnico, que tiene como objetivo incrementar la certidumbre en cuanto al desempeño de los pavimentos asfálticos y aumentar la durabilidad de los mismos. Una vida promedio de un pavimento asfáltico de 9 años sin tratamientos mayores, de 20 años con tratamientos superficiales y de 40 años con reposición de capas de rodadura es el objetivo perseguido y logrado en otros países. (Cremades, 2010)
El asfalto, un vistazo al futuro

Un nuevo reporte del Grupo Freedonia, publicado en la revista World Highways de junio, estima que la demanda mundial del asfalto crecerá a partir de la baja del 2008, 2,1% anual hasta 108 millones de toneladas en 2013. En los mercados desarrollados del asfalto en Norteamérica, Europa Occidental y Japón, la demanda de asfalto fue golpeada duramente por la recesión en 2008, pero parecen estar listos a las ganancias moderadas en 2013. (El asfalto demanda crecer, 2010)

En cuanto al futuro, lo único que se tendrá que hacer es utilizar una terminología algo diferente, pues los pavimentos flexibles sustituirán el ligante asfáltico por uno de origen vegetal o animal, como ya se está haciendo en la actualidad en algunos tramos de prueba en Europa, que sea más ecológico, más sustentable y más acorde a las exigencias del momento, pero la tecnología de diseño, fabricación y aplicación de estos productos será similar a lo que se está haciendo en la actualidad. (Cremades, 2010)
Trabajos citados

Amor, paz y… asfalto, datos históricos. (Octubre de 2012). Asfáltica Revista Técnica.

Arizpe, G. (s.f.). Blog de Ingeniería Civil. Recuperado el 24 de Octubre de 2012, de http://www.rentauningeniero.com/que-son-y-en-que-se-aplican-los-asfaltos.html

Breve historia de los caminos de México. (26 de Septiembre de 2011). Los caminos de México en el XXIV congreso mundial de carreteras, 2.

Chávez, I. (2012). Información Técnica. Recuperado el 2 de Noviembre de 2012, de http://www.camohesa.com/informaciontecnica.html

Chávez, I. (2012). Las Emulsiones Asfálticas. Recuperado el 2 de Octubre de 2012, de http://www.camohesa.com/las_emulsiones_asfalticas.html

Cremades, I. (Octubre de 2010). Los asfaltos, pasado, presente y futuro. Asfáltica Revista Técnica, 23.

El asfalto demanda crecer. (Octubre de 2010). Asfáltica Revista técnica, 31.

Nicholas, J., & A., L. (2005). Ingeniería de Tránsito y Carreteras (Tercera ed.). México: Thomson.

Olivera, F. (1996). Estructuración De Vías Terrestres (Segunda ed.). México: CECSA.

Rico, A., & Del Castillo, H. (2006). La Ingeniería De Suelos En Las Vias Terrestres (Vol. II). México, D.F., México: Editorial Limusa S.A. de C.V.

Xarxa Telemática Educativa de Catalunya: XTEC. (s.f.). Recuperado el 7 de Octubre de 2012, de XTEC: http://www.xtec.cat/~cgarci38/ceta/historia/asfalto.htm

Autor:

Ing. Luis Eduardo Rembis León

Maestría en Ingeniería

Primer Semestre

Grupo Único

Metodología de la Investigación

Prof. Dr. Guadalupe Cú Balán

UNIVERSIDAD AUTONOMA DE CAMPECHE

Facultad de Ingeniería

San Francisco de Campeche, Campeche; Noviembre de 2012

*****************************************************
Seguridad Fisica de Instalaciones

Sistemas de protección
Sistemas de alumbrado
Protección e iluminación
Otros sistemas de seguridad
Identificación y control
Sistema de pases
Identificación de los portadores de pases
Fuente de información

Sistemas de protección

CERRADURAS LLAVES Y COMBINACIONES

Una cerradura de llave o combinación y candado se deben considerar como dispositivos de retardo y no de barreras a la entrada.

Así como se han diseñado cerraduras ingeniosas, también se han desarrollado medios ingeniosos para abrirlas subrepticiamente. Aunque algunas cerraduras requieren de tiempo considerable y de experta manipulación para abrirlas secretamente, siempre sucumbirán ante la fuerza y el uso de herramientas apropiadas.

Los candados de llaves deben alternarse periódicamente para evitar el uso de llaves duplicadas. Igualmente, los candados de combinación deben ser de tipo variable y las combinaciones deben cambiarse cada doce meses o inmediatamente después de despedir o trasladar de destino a una persona que conozca la combinación.

Es importante que únicamente aquellas personas cuyos deberes oficiales así lo requieran, tengan acceso a la combinación de llave.

Es conveniente mantener un depósito de llaves en instalaciones, donde las llaves estén seguras durante las horas que no son de trabajo. A los Supervisores se les debe exigir que firmen un registro por las llaves al comienzo de cada día de trabajo y que devuelvan las llaves al final de cada día de trabajo. Los guardias deben revisar el tablero de las llaves y el registro para asegurarse que se ha rendido cuenta de todas las llaves.

SISTEMAS DE ALARMA Y DE COMUNICACIONES

Los sistemas de alarma y de comunicación están estrechamente relacionados en cualquier sistema de protección. Las comunicaciones telefónicas y por radio son tan comunes en el uso diario que su adaptación a sistemas protectores plantea pocos problemas nuevos. El sistema de alarma es sencillamente un medio manual o automático de comunicar una advertencia de peligro potencial o actual.

SISTEMAS PARA DAR ALARMA

Sistema de Estación Central: Una agencia comercial puede comprometerse por contrato a proporcionarle servicios protectores eléctricos a sus clientes mediante el uso de un sistema de “Estación Central”.

La Agencia diseña, instala, mantiene y opera sistemas aprobados por la Asociación de Fabricantes Autorizados, para protección contra incendios, robos e intrusos.

Las alarmas se transmiten a una estación central afuera de la instalación, desde donde se toma la acción apropiada, tal como notificarle a los Cuerpos de Seguridad o a los Cuarteles de Bomberos. La mayoría de las agencias tienen su propio cuerpo de seguridad privado quienes son enviados al lugar de los acontecimientos al recibir una alarma.

Sistemas de Propiedad Privada: Es similar al sistema de Estación Central con la excepción que este sistema le pertenece a la instalación y está ubicado en la misma. El equipo de control y de recibo está ubicado en la Central de Guardia, en el Cuartel de Bomberos o del Cuerpo de Policía.

Sistema de Alarma Local: Es aquel en el cual el circuito o dispositivos protectores activan una señal visual o audible ubicada en las cercanías inmediatas del objeto que se protege. Las guardias u otro personal que se encuentre a una distancia desde donde pueden ver y oír la alarma son los que responden.

Este sistema también se puede conectar con la Jefatura de Policía Civil y con el Cuerpo de Bomberos.
Sistemas de alumbrado

Alumbrado Protector: La función de un sistema de alumbrado protector es continuar ininterrumpidamente durante las horas de oscuridad, la protección que normalmente brinda la luz del día. La luz tiene en si cierto color como un medio disuasivo, pero su objeto principal es proporcionar iluminación. Esta permite observación e inspección desde lejos, reduciendo así el número de guardias que se requieran. Es una ayuda, para evitar intromisión secreta, pero de protección en situaciones abiertas cuando se necesitan condiciones de oscurecimiento total.

Tipos de Alumbrado:

Alumbrado continuo: Consiste en una serie de unidades fijas de iluminación colocadas de modo que alumbren intensiva y continuamente un área determinada con conos de luz que se trasladan durante las horas de oscuridad.

Dos métodos principales de emplear iluminación continua son:

Proyección de resplandor. El alumbrado mediante proyección de resplandor es útil donde el resplandor de las luces es dirigido a través del territorio circundante o estorba las operaciones adyacentes. Esto permite al centinela ver el área exterior, mientras lo protege dela vista de un posible intruso.

Iluminación controlada, el ancho de la faja iluminada puede ser controlado y ajustada para que se adapte a la necesidad particular, tal como una faja angosta dentro de una cerca y una faja ancha afuera, o la iluminación proyectada de un muro o techo.

Alumbrado de Apresto: Es similar al alumbrado continuo, pero se prende manualmente o por dispositivos para descubrir intrusos.

Alumbrado Móvil: Consiste en proyectores estacionados o portátiles manualmente operados. Estos pueden permanecer prendidos continuamente durante las horas de oscuridad o se prenden cuando sea necesario. Generalmente constituyen un suplemento para cualquiera de los dos tipos de alumbrado descritos anteriormente.

Alumbrado de Emergencia: Este sistema es de vital importancia en cualquier instalación. Su uso es limitado y se requiere cuando falla la energía eléctrica o para otras emergencias que impiden el uso de energía normal.
Protección e iluminación

Hasta donde sea posible, el cono de iluminación debe estar enfocado hacia abajo y en dirección contraria de la estructura o área protegida y en dirección contraria al personal de guardia asignado a tal protección. El alumbrado debe estar dispuesto de tal manera que se forme un mínimo de sombras o un mínimo de resplandor en los ojos de los centinelas.

Las unidades de alumbrado para las cercas perimétricas del área restringida, deben estar ubicadas a suficiente distancia dentro del área protegida y por encima de la cerca de modo que la luz que refleja sobre el terreno incluya un área tanto en la parte de adentro como en la parte de afuera de la cerca.

Generalmente, la faja de luz debe iluminar la barrera del área restringida y extenderé tan adentro como sea posible, carreteras, vías férreas y residencias pueden limitar la profundidad de la faja de luz.
Otros sistemas de seguridad

Sistemas de Supervisores de Guardia: Consiste en cajas eléctricas para llamadas, operadas por llaves u ubicadas estratégicamente a través de toda la instalación.

El sistema puede ser operado por el sistema de propiedad privada o de estación central. Al insertar la llave en la caja para llamadas, un centinela puede hacer un informe de recorrido rutinario o convocar ayuda de emergencia. Al tocar indebidamente la llave transmisora, la caja para llamada automáticamente se traba, causando una falla de la seña y una alerta que requiere investigación inmediata.

Dispositivos para Detección de Intrusos: Hay una gran variedad de dispositivos electrónicos, electromagnéticos y ultrasónicos, comercialmente fabricados, diseñados para descubrir aproximación, intrusos o ruido.

Los dispositivos dan alarma eléctricamente por medio de una luz o zumbador a un tablero de control atendido, el cual generalmente está ubicado en la estación de guardia o estación central. Donde un dispositivo acústico es parte del sistema y así el monitor puede detectar la ubicación de donde se recibe la alarma y determinar la causa.

Donde hay una televisión de circuito cerrado incluida en el sistema, el centinela también puede detectar la ubicación de donde proviene la alarma. Aunque el gasto inicial de instalación es considerable, estos sistemas ahorran potencialidad humana y son más seguros cuando se ajustan y mantienen adecuadamente.

Estos dispositivos se han diseñado para descubrir y no impedir intrusión. La misma ingeniosidad y habilidad técnica que originó su creación, se puede aplicar para evadir el propósito de estos. Sin embargo, será el factor humano el que establecerá la diferencia entre la protección adecuada o inadecuada.

Alerta contra Ladrones: Las alarmas corrientes contra ladrones, generalmente consisten en un arreglo de laminilla metálica, mamparas de tela metálica o alambres los cuales cuando se dañan o son penetrados, transmiten una alarma por medios eléctricos.

Estas alarmas constituyen una protección cuando se instalan en puertas, ventanas y orificios de salida de servicio público en la parte exterior del perímetro y en otras ubicaciones donde no es práctico tener guardias u otro tipo de sistema de alarma, debido a la disposición del edificio, seguridad del personal o costo.
Identificación y control

GENERALIDADES: El propósito de la identificación y control es asegurarse que solamente se le permita el acceso a un área protegida a las personas y los vehículos que sean autorizados.

El grado de control debe estar con relación a la importancia del área a proteger, es decir, a mayor importancia del área, mayor debe ser el grado de control.

El sistema a emplear debe ser aceptable, adecuado y ejecutable, así como fácil de entender y sencillo como sea posible mientras logre su propósito de manera eficaz.

Medios de Identificación: El diseño de un pase o placa debe permitir la mayor dificultad ante cualquier intento de alterarlo o reproducirlo.

Los pases o placas laminadas o estampadas en relieve se pueden considerar a prueba de alteración siempre y cuando estos:

Tengan por fondo un diseño intrincado el cual es difícil de reproducir mediante fotocopia.

Tengan parte del material que está impreso en el mismo Pase, con una tinta que notablemente se vea afectada por cualquier color, solvente o borrón, que sería necesaria para alterarlo.

Usen Pase de un tamaño apropiado que permita unir los bordes plásticos durante la laminación (si el Pase debe usarse en una cadena, el agujero debe ser abierto a través de la cubierta y del Pase mismo antes de laminarlo.

Contenga una fotografía reciente y clara del portador. Donde se usa un sistema de Pase o Placa por duplicado o triplicado todas las fotografías deben ser del mismo negativo.

Contengan el nombre del portador y otros datos que se crean necesarios tales como firma, fecha de nacimiento, altura, peso, color de ojos, del cabello, sexo y las huellas digitales, pulgar derecho o izquierdo.

Contengan la identidad de la instalación y un número individual de identificación para el Pase.

Contengan el nombre, grado, título y firma o facsímil del funcionario legalizador.

Indiquen la fecha cuando el Pase entró en vigencia. Es conveniente determinar el tiempo de validez para efectos de renovación.

Hay otras características que ayudan a determinar las alteraciones y falsificaciones tales como: tintas o tinturas fluorescentes, filigranas, hilos cruzados o alambres cruzados, sobrepuestos, etc.

Existe un Pase de metal magnetizado comercialmente disponible que además de mostrar todos los datos de identificación que se requieran del portador, puede ponérsele una clave o claves para la admisión en áreas de seguridad variable.

La clave se lee insertando en un dispositivo de lectura que da una señal visual o audible cuando se intenta entrar con un Pase que no tiene la clave apropiada.

Debido a que cualquier Pase o Placa puede ser alterado o reproducido por una persona que tenga suficiente tiempo y pericia en imprimir, grabar o fotocopiar la hechura, emisión y contabilidad, los Pases deben controlarse completamente. Este control comienza por el fabricante o abastecedor de los Pases.

Cuando los Pases se obtienen comercialmente, se deben hacer investigaciones, en cuanto al control que ejerce el abastecedor. Esto es especialmente importante cuando se refiere al grabado de un papel especial.

La emisión, contabilidad y control de los Pases o Placas debe llevarse a cabo en la oficina del Jefe de Seguridad. Haciéndose así, transcurre el mínimo tiempo entre el cambio de un Pase o Placa y la notificación a los guardias. Se debe mantener un duplicado de cada Pase o Placa omitida y un archivo para cada portador e incluir además los datos entregados en el Pase o Placa, la dirección residencial y número de teléfono del portador.

Se debe ejercer un estricto control para asegurar la devolución y destrucción de los Pases o Placas al terminarse la asignación o empleo de personal y para invalidar Pases perdidos o mutilados. Aunque los Pases y Placas en si no son clasificados, estos deben clasificarse estrictamente como se controlan los documentos clasificados.
Sistema de pases

Los siguientes sistemas de identificación se pueden usar ya sea para Pases que lleva la persona consigo o para Pases o Placas que se usen en la ropa exterior.

Sistema de Pase Simple: Mediante este sistema, el permiso para entrar en las diferentes áreas se muestra en el Pase mediante letras, números o colores. Ejemplo: azul, puede ser el color de fondo del Pase para el actual periodo para admisión general a una instalación.

El permiso para entrar en áreas específicas de mayor restricción dentro de la misma instalación puede designarse por símbolos o colores específicos sobre impresos en el Pase general. En este sistema de control es comparativamente poco estricto y no se recomienda para áreas confidenciales.

El hecho de que los Pases frecuentemente permanecen en posesión del portador durante horas libres o cuando los trabajadores se encuentran fuera de la instalación, da la oportunidad para alteración o duplicación subrepticia.

Sistema de Intercambio de Pases: Es un sistema de dos Pases que contienen fotografías idénticas, pero que tienen diferentes colores de fondo o un sobre impreso en uno de los Pases. Uno de estos Pases se presenta o se recibe en la entrada y se cambia dentro del área restringida. Este segundo Pase puede contener símbolos o colores adicionales que conceden admisión adicional como se explicó en el párrafo anterior.

Sistemas de Pases Múltiples: Este es un desarrollo adicional del sistema de canje de Pases que se explicó en el párrafo anterior, excepto que en lugar de tener marcaciones específicas en el Pase de la instalación, los cuales denotan permiso para entrar en diferentes áreas restringidas, se hace un canje en la entrada de cada área restringida dentro de la instalación.

Los Pases de Canje se mantienen en cada área únicamente para aquellos individuos que tienen necesidad de entrar. Este es el sistema de Pases más seguro y eficaz.

LISTA DE ACCESO

Se puede lograr mayor seguridad contra la entrada desautorizada a un área restringida mediante el uso de una lista impresa o escrita a computadora de todas las personas que tienen autorización para entrar. Cualquiera que sea el tipo de Pase que lleve, cada portador debe ser objeto de chequeo o comprobación en la lista. Se le debe negar la entrada a cualquier persona que no aparezca en la lista, así como también de tenerla para efectos de averiguación, notificando la novedad a la Oficina de Seguridad.

Cada vez que se haga una adición o reducción de las personas autorizadas a entrar se debe preparar una nueva lista de accesos y destruir la antigua.
Identificación de los portadores de pases

El eslabón más vulnerable en cualquier sistema de Pases es su manejo y control.

El cumplimiento descuidado del deber por parte del guardia o centinela de seguridad al comparar al portador con el Pase o la falta de supervisión y estricto cumplimiento de las normas establecidas en el mismo, puede invalidar el sistema mejor elaborado.

Los siguientes son algunos pasos que deben tomarse en cuenta para garantizar la operación eficiente de cualquier sistema de Pases:

a. El personal de guardia a ser seleccionado para prestar servicio en las entradas o puertas de acceso, debe escogerse por su astucia, viveza, rápida percepción, tacto y buen criterio.

b. Se debe prescribir un método uniforme de manejar o llevar puestos los Pases o Placas. Si la persona lo lleva consigo, el Pase debe sacarse de la cartera u otra cubierta donde se guarde y dárselo al centinela, si se lleva puesto en la ropa o gargantilla, este debe estar en un lugar visible para que la comparación puede llevarse a cabo más rápidamente.

c. Cuando se necesita luz artificial, esta debe estar colocada de tal manera que ilumine el portador del Pase.

d. Las entradas deben estar dispuesta de tal manera que el personal que llega y sale se vea obligado a pasar por una sola fila frente al centinela. En algunos casos es aconsejable que hayan torniquetes.

IDENTIFICACIÓN PARA VISITANTES

Un visitante es cualquier persona no regularmente asignada o empleada en una instalación. Los Pases o Placas para visitantes no contienen fotografía del portador. Una placa de diseño fácilmente reconocible y distintivo usado en un sitio visible, es generalmente adecuada. Sin embargo, algunas instalaciones debido a su importancia les expiden a los visitantes autorizados, Pases o Placas que llevan fotografías. Tales fotografías pueden tomarse por el procedimiento POLAROID cuando el visitante llega a la instalación. Cada visitante debe llevar también un Pase escrito que tenga el nombre del portador, las áreas a las cuales se le autoriza el acceso, el requerimiento de la escolta, el límite de tiempo del Pase, el propósito de la visita, la persona o personas que se han de ver y la firma del oficial legalizador. La oficina que pide Pase, debe mantener un registro u otro documento que muestre la hora de entrada y de salida, el nombre y dirección de la firma u organización responsable.

Todos los Pases y Placas de visitantes deben devolverse al salir de la instalación.
Fuente de información

Guía de Estudio “Seguridad Física de Instalaciones”, dictadas por el Lic. Haroldo Zamora, Experto en Seguridad Física de Instalaciones, Venezuela.

Autor:

Edgar Tovar

*****************************************************
Erupciones solares y la era de las telecomunicaciones

Resumen
Introducción
Erupciones Solares
Eyecciones de masa coronaria
Tormenta solar de 1859
Erupciones solares y la era de las telecomunicaciones
Conclusión

Resumen

El siguiente trabajo tiene la finalidad de divulgar que son las erupciones solares, cómo se producen, cuáles son sus etapas y cuáles son los efectos que tendría una inyección de masa coronaria de grado X para la población, teniendo en cuenta la tormenta solar de 1859 y las investigaciones posteriores que se han realizado de los posibles efectos devastadores para nuestras sociedades al hacer que fallaran los satélites y por ende se estropeen las telecomunicaciones, posteriormente colapsaran los transformadores dejando aislados a comunidades enteras sin muchos recursos como agua, comida, electricidad, transportes y sin manera alguna de comunicarse.

Objetivos

Conocer que son las erupciones solares y como se producen.

Determinar de qué forma afectaría al planeta tierra si ocurriera una erupción solar de gran magnitud.

Introducción

Una erupción solar es una violenta explosión en la fotósfera del Sol, calentando plasma a decenas de millones de grados kelvin y acelerando los electrones, protones e iones más pesados resultantes a velocidades cercanas a la de la luz. Sus niveles de energía son A,B,C, M y X, La explosión de radiación proviene de la liberación de la energía magnética asociada a las manchas solares y son el evento más explosivo del sistema solar.

Las erupciones solares se dan en tres etapas y estas tienen diferentes consecuencias en la Tierra. Lo primero en llegar es la luz, que incluye rayos X y ultravioleta. Esto provoca la ionización de la atmósfera superior de la Tierra, interfiriendo en las comunicaciones de radio. Detrás llega la tormenta de radiaciones y se multiplicación de las auroras boreales y australes.

Lo primero que sucedería con una erupción solar de clase X sería que la ionosfera terrestre se calentaría, cambiando su densidad y composición, lo que afectaría a las comunicaciones por radio y a la señal del GPS. Peor aún, puede crear intensas corrientes eléctricas en la ionosfera llamadas electrojets.

La troposfera se cargaría de electricidad de tal manera que hasta el agua de los océanos echaría chispas. Tal cantidad de energía buscaría un camino por donde moverse: de los cables eléctricos a los transformadores, recalentándolos hasta quemarlos.

La sociedad moderna depende de sistemas de alta tecnología, y todas son vulnerables y el gran problema es que no se sabe cuándo será la siguiente tormenta ni su intensidad. Se conoce bien el ciclo solar, se sabe que está a punto de alcanzar su clímax, pero no es posible saber cuándo una erupción solar expulse una eyección de masa coronaria de grado X que pueda cambiar nuestras vidas.

Desarrollo
Erupciones Solares

Una erupción solar es una violenta explosión en la fotósfera del Sol con una energía equivalente a decenas de millones de bombas de hidrógeno, de hasta 6 × 1025 Joule. Las erupciones solares tienen lugar en la corona solar y la cromosfera, calentando plasma a decenas de millones de grados kelvin y acelerando los electrones, protones e iones más pesados resultantes a velocidades cercanas a la de la luz. Producen radiación electromagnética en todas las longitudes de onda del espectro electromagnético, desde largas ondas de radio a los más cortos rayos gamma. La mayoría de las erupciones suceden alrededor de manchas solares, donde emergen intensos campos magnéticos de la superficie del Sol hacia la corona.

Las erupciones solares se observaron por primera vez en el Sol en 1859 y a parir de ahí también se han observado erupciones estelares en otras estrellas.

La frecuencia de estos sucesos varía, de varios al día cuando el Sol está particularmente “activo” a menos de una semanal cuando está “tranquilo”. La actividad solar varía en un ciclo de 11 años (el ciclo solar). En la cúspide del ciclo suele haber más manchas en el Sol, y por tanto más erupciones solares.

Las erupciones solares están asociadas a eyecciones de masa coronal, las cuales influyen mucho nuestra meteorología solar local. Producen flujos de partículas muy energéticas en el viento solar y la magnetosfera terrestre que pueden presentar peligros por radiación para naves espaciales y astronautas. El flujo de rayos X de la clase X de erupciones incrementa la ionización de la atmósfera superior, y esto puede interferir con las comunicaciones de radio en onda corta, y aumentar el rozamiento con los satélites en órbita baja, que lleva a decaimiento orbital. La presencia de estas partículas energéticas en la magnetosfera contribuye a la aurora boreal y a la aurora austral.

Las erupciones solares liberan una cascada de partículas de alta energía conocida como tormenta de protones. Los protones pueden atravesar el cuerpo humano, provocando daño bioquímico.

Estas erupciones o ondas que expulsan llegan a la Tierra entre 24 y 36 horas después del suceso, claro esto solamente ocurre si la onda de choque viaja hacia la Tierra. Pero también depende de la presión del viento solar sobre la magnetosfera, el cual aumentará o disminuirá en función de la actividad solar. La presión del viento solar modifica las corrientes eléctricas en la ionosfera.
Eyecciones de masa coronaria

Se denomina eyección de masa coronal o CME (por sus siglas en inglés: Coronal Mass Ejection) a una onda hecha de radiación y viento solar que se desprende del Sol en el periodo llamado Actividad Máxima Solar, que ocurre cada 11 años. Esta onda es muy peligrosa ya que, si llega a la Tierra y su campo magnético está orientado al sur, puede dañar los circuitos eléctricos, los transformadores y los sistemas de comunicación, además de reducir el campo magnético de la Tierra por un período. Cuando esto ocurre, se dice que hay una tormenta solar.

Las eyecciones de masa coronaria lanzan ingentes cantidades de materia y radiación electromagnética hacia el espacio más allá de la superficie solar. En algunos casos estas eyecciones se quedan en la corona (llamándose entonces prominencias solares) o pueden adentrarse en el sistema Solar o incluso más allá, en el espacio interestelar. El material eyectado es un plasma consistente principalmente de electrones y protones, pero puede contener pequeñas cantidades de partículas más pesadas como helio, oxígeno e incluso hierro. Esto se debe a los enormes cambios y turbulencias producidos en el campo magnético de la corona solar.

Etapas

1ª etapa Erupción solar: tarda solamente 8 minutos en llegar a la tierra. La radiación electromagnética es capaz de interrumpir las comunicaciones. La erupción solar expande la atmósfera hasta alcanzar las órbitas de los satélites, alterando sus órbitas y provocando su caída a la superficie de la Tierra.

2ª etapa Tormenta de Radiación: un bombardeo de radiación que puede quemar los circuitos eléctricos y dañar a las personas expuestas; aún cuando la atmósfera y la magnetósfera actúan a modo de escudo para evitar este tipo de efectos.

3ª etapa Eyección de Masa Coronal: Esta es la onda más peligrosa ya que, en el caso de estar orientada hacia el sur, daña los satélites, todos los transformadores eléctricos por los que pase electricidad y las comunicaciones en todo el planeta. Si está orientada al norte, rebotará en la magnetosfera.

Tormenta solar de 1859

En el año 1859 se produjo una gran fulguración solar. La tormenta solar de 1859 fue la más potente registrada en la historia. A partir del 28 de agosto, se observaron auroras que llegaban desde el sur hasta el Caribe. El pico de intensidad fue el 1 y 2 de septiembre, y provocó el fallo de los sistemas de telégrafo en toda Europa y América del Norte. Parece que este tipo de situaciones sólo se produce cada 500 años aproximadamente, según los estudios de muestras de hielo. Parece que los primeros indicios de este incidente se detectaron a partir del 28 de agosto de 1859 cuando por toda Norte América se vio auroras boreales.

Fue la interacción más violenta que nunca se ha registrado entre la actividad solar y la Tierra. La acción del viento solar sobre la Tierra el año 1859 fue, con diferencia, la más intensa de la que se tiene constancia. El día 28 de agosto aparecieron numerosas manchas solares, y entre los días 28 de agosto y 2 de septiembre se declararon numerosas áreas con fulguraciones.

El 1 de septiembre el Sol emitió una inmensa llamarada, con un área de fulguración asociada que durante un minuto emitió el doble de energía de la que es habitual. Sólo diecisiete horas y cuarenta minutos después, la eyección llegó a la Tierra con partículas de carga magnética muy intensa. El campo magnético terrestre se deformó completamente y esto permitió la entrada de partículas solares hasta la alta atmósfera, dónde provocaron extensas auroras boreales e interrupciones en las redes de telégrafo, que entonces estaba todavía muy poco desarrollado.

La gran tormenta de 1859 fue precedida de la aparición, en el Sol, de un grupo numeroso de manchas solares cercanas al ecuador solar, casi en el momento de máxima actividad del ciclo solar, de una magnitud tan grande que se podían ver a simple vista, con una protección adecuada. En el momento de la eyección de masa coronal el grupo de manchas estaba frente a la Tierra, aunque no parece que sea necesaria tanta puntería, cuando la materia coronal llega a la órbita terrestre abarca una extensión de 50 millones de kilómetros, miles de veces la dimensión de la Tierra.

La intensa fulguración de 1859 liberó dos eyecciones de materia coronal: la primera tardó entre 40 y 60 horas para llegar a la Tierra (tiempo habitual) mientras la segunda, liberada por el Sol antes de que se llenase el vacío dejado por la primera, solamente tardó unas 17 horas para llegar a la Tierra. La primera eyección iba acompañada de un intenso campo magnético helicoidal, según los datos de los magnetómetros de la época. Esta primera etapa quedó registrada en los magnetómetros de superficie como un inicio brusco de actividad, pero no tuvo otros efectos. Al principio apuntaba al norte, pero después de 15 h en lugar de reforzar el campo terrestre se oponía al campo mencionado. Esta oposición liberó gran cantidad de energía, que comenzó a interrumpir las comunicaciones telegráficas y formar auroras boreales, hasta pasados uno o dos días, en que, una vez que el plasma pasó más allá de la Tierra, dejó que el campo magnético de la Tierra volviese a la normalidad.
Erupciones solares y la era de las telecomunicaciones

El Sol no sólo es luz; también es un gigantesco campo magnético, con líneas magnéticas recorriendo de polo a polo. Su fuerza rotatoria va torciendo estas líneas imaginarias en un ciclo que dura unos 11 años. En el clímax de su torcimiento se crean las manchas solares en la zona ecuatorial de la estrella. En ocasiones, enormes burbujas de gas y magnetismo se liberan y consiguen superar la barrera magnética (corona) que rodea el Sol, provocando una eyección de masa coronal que sale disparada hacia el espacio. Si la Tierra se encuentra en su trayectoria puede pasar lo peor.

La triple oleada tiene diferentes consecuencias en la Tierra. Lo primero en llegar es la luz, que incluye rayos X y ultravioleta. Esto provoca la ionización de la atmósfera superior de la Tierra, interfiriendo en las comunicaciones de radio. Detrás llega la tormenta de radiaciones. Los astronautas están obligados a protegerse tras un aviso de su llegada. La tercera en venir es la nube de partículas de alta energía. Sus partículas cargadas eléctricamente interactúan con la magnetosfera terrestre provocando fluctuaciones hasta desencadenar una tormenta magnética.

Si se llegase a producir más llamaradas, algunas de gran intensidad. Toda la que alcance la categoría X podría dejar fuera de combate las comunicaciones por radio, alteraría la fiabilidad del GPS, provocaría apagones eléctricos generalizados y hasta radiación en los pasajeros de los vuelos de gran altitud.

Según un estudio de la National Academies de EEUU de 2008, una erupción solar como la de 1859 desencadenaría hoy una tormenta geomagnética que afectaría críticamente a las infraestructuras modernas. Entonces, la llamarada provocó tal nube de partículas que aplastó la magnetosfera. Este círculo invisible de magnetismo protege a la Tierra de los vientos solares y la mayor parte de la radiación cósmica. Su alcance es de unos 60.000 kilómetros pero en 1859 se contrajo hasta los 7.000 kilómetros por la presión invisible que procedía del Sol.

Lo primero que sucedería con una erupción solar de clase X sería que la ionosfera terrestre se calentaría, cambiando su densidad y composición, lo que afectaría a las comunicaciones por radio y a la señal del GPS. Peor aún, puede crear intensas corrientes eléctricas en la ionosfera llamadas electrojets. Estas corrientes provocan un fenómeno eléctrico denominado “centelleo” que cambia la amplitud, fase, polarización y el ángulo de llegada de las señales. Según un informe del Departamento de Seguridad Interior de EEUU, la señal del GPS no sólo llegaría degradada sino que la tormenta geomagnética podría impedir que la Tierra recibiera la señal emitida por los 30 satélites de la constelación GPS.

En tierra, las cosas no serían mejores. La troposfera se cargaría de electricidad de tal manera que hasta el agua de los océanos echaría chispas. Tal cantidad de energía buscaría un camino por donde moverse: de los cables eléctricos a los transformadores, recalentándolos hasta quemarlos. Durante la tormenta de marzo de 1989, la zona occidental de Canadá se quedó a oscuras.

“Una tormenta similar en la actualidad nos podría dejar asombrados” Lika Guhathakurta.

El gran problema es que no se sabe cuándo será la siguiente tormenta ni su intensidad. Se conoce bien el ciclo solar, se sabe que está a punto de alcanzar su clímax, pero nada más. La NASA y la agencia espacial europea han sembrado los alrededores del Sol de una red de sensores. La mayoría están diseñados para labores de investigación, pero los más recientes, como el Solar Dynamics Observatory, tienen entre sus misiones vigilar la aparición de nuevas erupciones. Son ellos los que pueden avisar con entre 15 o 30 minutos de antelación. Con la información recibida, el Centro de Predicción del Tiempo Espacial de la NOAA (agencia de EEUU) elabora partes diarios para un millar de empresas e instituciones de todo el mundo.

Aunque se está trabajando en modelos informáticos para anticiparse al Sol, lo más realista hoy es prepararse para minimizar su impacto. A finales de 2010, EEUU puso en marcha el programa Escudo Solar. Su primer objetivo es modelar en tres dimensiones la eyección de masa coronal camino de la Tierra. Esta tercera oleada tarda varias horas y hasta un día en llegar. Con el modelo se puede anticipar dónde y con qué intensidad golpeará. En ese tiempo, los responsables de las infraestructuras deberán suspender los elementos clave para evitar que, como en 1859, los telégrafos ardan.

Una tormenta solar de esta magnitud tendría graves consecuencias para la civilización actual. Los rayos cósmicos erosionan los paneles solares de los satélites artificiales y reducen su capacidad para generar electricidad. Muchos satélites de comunicaciones, por ejemplo la ANIK E1 y la E2 en 1994 y Telstar 401 de 1997 han resultado dañados por este motivo. Un caso un poco diferente se debe a la expansión de la atmósfera por los rayos X que produjo daños al Asko japonés el 14 de julio de 2000.

Los satélites artificiales han sido diseñados específicamente para evitar las calamidades del clima espacial, pero las redes eléctricas son incluso más frágiles. Los grandes transformadores están conectados a tierra y, por tanto, pueden ser susceptibles de ser dañados por las corrientes continuas inducidas por las perturbaciones geomagnéticas y aunque los transformadores evitasen la destrucción de los núcleos magnéticos se podrían cargar durante la mitad del ciclo de corriente alterna, lo que distorsionaría la forma de las ondas de 50 o 60 Hertz.

En el año 1859, el invento del telégrafo se había producido 15 años atrás y la infraestructura eléctrica estaba realmente en su infancia. La tormenta solar de 1994 causó errores en dos satélites de comunicaciones, afectando a los periódicos, las redes de televisión y el servicio de radio en Canadá. Otras tormentas han afectado sistemas desde servicios móviles y señales de TV hasta sistemas GPS y redes de electricidad. En marzo de 1989, una tormenta solar mucho menos intensa que la perfecta tormenta espacial de 1859, provocó que la planta hidroeléctrica de Quebec (Canadá) se detuviera durante más de nueve horas; los daños y la pérdida de ingresos resultante se estiman en cientos de millones de dólares.

Si la tormenta de Carrington no tuvo consecuencias brutales fue debido a que nuestra civilización tecnológica todavía estaba en sus inicios: si se diese hoy los satélites artificiales dejarían de funcionar, las comunicaciones de radio se interrumpirían y los apagones eléctricos tendrían proporciones continentales y los servicios quedarían interrumpidos durante semanas. Según los registros obtenidos de las muestras de hielo una fulguración solar de esta magnitud no se ha producido en los últimos 500 años, aunque se producen tormentas solares relativamente fuertes cada cincuenta años.
Conclusión

El mundo en el cuál vivimos actualmente, esta dependiente de tanta tecnología que todo es controlado de forma satelital, y no se han tomado las previsiones necesarias para poder enfrentar una catástrofe de tal magnitud si ocurriera en nuestra época una eyección de masa coronaria de grado X, el caos reinaría en todo el planeta, pero aun así estamos a tiempo de poder evitar estas consecuencias si es divulgada la información sobre las erupciones solares y mejorando los satélites geoestacionarios que se encargan de enviarnos toda la información necesaria para prevenir y evitar grandes secuelas.

Autor:

Carmen Gabriela Sánchez

*****************************************************
La energia nuclear beneficia o destruye?

Introducción
Justificación
Temática de Interés
Bases Teóricas
Contenidos
Plan de Acción
Conclusión
Bibliografía

Introducción

La energía nuclear no se trata de una energía producida por procesos tan simples como fisión o fusión, los cuales pueden revelar una serie de acontecimientos de impacto mundial. Pero lo que pocos saben es que esta energía tiene una gamma interminable de aplicaciones, de las cuales podemos rescatar muchas y tachar otras como aplicaciones indebidas.

Debido a su capacidad para producir grandes cantidades de energía eléctrica en Venezuela, en los últimos años se ha hablado sobre la posibilidad de construir reactores nucleares con la finalidad de solventar el problema eléctrico por el cual está pasando el país, pero la pregunta es ¿Sabemos qué es la energía nuclear y cómo se utiliza? ¿Cuáles son las ventajas y desventajas de su uso? ¿Estamos preparados para central nuclear en Venezuela?

Para dar respuestas a estas preguntas sobre este tema, el cual se encuentra tan presente en nuestra vida cotidiana y se puede abordar en la población de educación básica y diversificada de manera didáctica integrando tanto las ciencias naturales como las ciencias sociales, y en educación superior en el área de medicina a través de un proyecto de aprendizaje.

Objetivos

Objetivo General

Identificar cuáles son los beneficios y riesgos que tiene el uso de la energía nuclear para el hombre.

Objetivos Específicos

Definir qué es la Energía Nuclear y como se produce.

Establecer cuáles son los usos civiles y militares de la Energía Nuclear.

Determinar cuáles son los usos médicos de la Energía Nuclear.

Comparar el costo de producción de la Energía Nuclear con el costo de producción de otras Energías.

Identificar cuáles son los riesgos de producir Energía Nuclear para el ser humano.

Comprender cuáles son los riesgos de producir Energía Nuclear para el medio ambiente.

Considerar cual es el tratamiento que debe darse a los desechos nucleares.

Especificar qué normas de seguridad existen para prevenir accidentes nucleares.

Comprender los principios de la Física y Química en que se basa la Energía Nuclear, y explicar sus consecuencias mediante la biología y educación para la salud.

Determinar cuál es la importancia del uso de la Energía Nuclear para el hombre.

Determinar si en Venezuela está preparada para la construcción y funcionamiento de plantas nucleares.

Justificación

Con la presentación del proyecto se pretende informar acerca de los beneficios y consecuencias de la utilización de la energía nuclear, tratando de que dicha información sea explicada de la forma más sencilla para que el público receptor lo pueda acoplar de la mejor manera, tomando en cuenta las nuevas modalidades del Currículo Bolivariano, donde se plantea una educación de forma integral, incorporando en este tema la unificación de las ciencias naturales desde primero a quinto año de ciencias, usando técnicas y dinámicas que despierten la creatividad del estudiante de manera que lleve a cabo un aprendizaje significativo en el área de estudio, tratando de concienciar a los niños, niñas y adolescentes en edad escolar sobre la energía nuclear y sus derivados, factores, beneficios y consecuencias, para que de esta forma se conviertan en multiplicadores de la información, y el tema pueda legar a sus hogares y así poder garantizar un planeta con suficiente energía para que las generaciones futuras pueda tener pleno disfrute de las mismas, sin esforzar al planeta tierra y tratando de utilizar medios ecológicos para la conservación de la misma, ya que actualmente la alternativa de utilizar la energía nuclear no es muy popular, debido al temor ampliamente extendido a posibles accidentes y a la contaminación a largo plazo provocada por los residuos nucleares.
Temática de Interés

La energía constituye una parte fundamental y esencial en nuestra vida cotidiana, probablemente nos hemos preguntado de donde provienen cierto tipo de cosas pero jamás pensaríamos que el partícipe primordial de estos trabajos que nos facilitan o más bien mejoran nuestra vida sería esta energía. De esta manera, ¿quizás nuestra vida sería más dificultosa si Becquerel no hubiese descubierto que el Uranio emitía radiaciones? Ciertamente, la energía nuclear nos otorga una mano, gracias a ella tenemos electricidad en nuestras casas o poseemos una tecnología médica más confiable y eficaz. Millones de cánceres han podido ser tratados a tiempo gracias a la existencia del radioinmunoanálisis, y no solo eso, en medicina, también podemos estudiar muchas cosas gracias a ella y nos permite detectar muchas lesiones en nuestro organismo que también pueden salvar muchas vidas. Además de contar con su escasez de contaminación, es preciso destacar que la energía además posee muchas desventajas si su uso es indebido. Superficialmente la energía es inocua, hasta hace poco se le consideraba así, pero de forma contraria se descubrió que al ser utilizada de otra manera, podía generarse grandes catástrofes como la ocasionada por las bombas de Hiroshima y Nagasaki ,y que, tal vez no proporciona daños ambientales (por el contrario, ya que inhibe la lluvia ácida y acumulación de residuos tóxicos en el medio ambiente), pero si ocasiona muchos daños a los seres vivos al ser liberada al medio ambiente, daños completamente irreparables, tales como mutaciones genéticas, deformidad en los fetos, esterilidad, entre otros.

Sí, probablemente proporciona más ventajas que desventajas, pero de seguro, el daño irreparable provocado al ecosistema no es justificado por estas ventajas. Afortunadamente existen prevenciones de seguridad ocupada por las centrales nucleares para que esta energía no ocasione una explosión, puesto que es algo que todo gobierno de cuyo país que posee centrales nucleares exige una seguridad libre de catástrofes, por lo tanto dichas catástrofes son poco probables. Sin embargo y lamentablemente, las seguridades con respecto a el ecosistema son escasas, debido a que las centrales nucleares priorizan sus gastos en inversiones mucho más que en el cuidado del planeta, siendo que una vida tiene mucho más valor que el dinero invertido.

De esta temática de interés surge la siguiente red semántica la cual es un resumen de todo el contenido teórico inmerso dentro del concepto de energía nuclear, explicando de forma sencilla surge como se produce, y cuál es la controversia que surge alrededor de la energía nuclear debido a sus ventajas y desventajas.

Red Semántica General

Monografias.com
Bases Teóricas

Energía Nuclear

El término “energía nuclear” se utiliza con dos posibles acepciones: por una parte, alude a la forma de energía que se libera, ya sea de forma artificial o espontánea, en las reacciones nucleares y, por otra, al aprovechamiento de dicha energía liberada para la obtención de energía eléctrica, térmica y/o mecánica. Y su aplicación con fines pacíficos o bélicos. Así, es común referirse a la energía nuclear no solo como el resultado de una reacción sino como un concepto más amplio que incluye los conocimientos y técnicas que permiten la utilización de esta energía por parte del ser humano.

La energía nuclear fue descubierta en febrero de 1896 por el físico francés Antoine Henri Becquerel, a raíz de una investigación realizada por éste sobre cuerpos fluorescentes. Este científico advirtió que ciertos elementos tenían la propiedad de emitir radiaciones semejantes a los rayos X en forma espontánea, comprobando casualmente cómo quedaba impresa una placa fotográfica en la que se habían colocado cristales de uranio y potasio, aún sin la intervención de la luz solar. A consecuencia de esto, halló una nueva propiedad de la materia, la que posteriormente fue denominada radioactividad, debido a las investigaciones realizadas por Marie y Pierre Curie. Este matrimonio de científicos estudió la radiactividad, encontrando fuentes de radiación natural mucho más poderosas que el uranio original, entre las cuales se encontraban el polonio y el radio. La radiactividad del elemento no dependía de la naturaleza física o química de los átomos que lo componían, sino en una propiedad radicada en el interior del mismo átomo. Marie Curie también descubrió que ciertas propiedades de la radioactividad servían para tratar tumores malignos, a raíz de experimentarlas en su propia piel, y allí nace la aplicación de esta energía al ámbito de la Medicina.

Historia

Pero antes, durante y después de estos reconocidos científicos, se hicieron numerosas investigaciones y varios estudiosos aportaron teorías que permitieron poco a poco descubrir los comportamientos y particularidades de la energía nuclear.

En 1895, el científico alemán Wilhelm Conrad Roentgen realizaba una investigación con los rayos catódicos, pero accidentalmente descubrió los rayos X, debido a una luminiscencia que no esperaba de los rayos que originalmente estudiaba.

Un año después, Becquerel (francés), interesado en los rayos X, comenzó a buscar la posible analogía entre esta radiación y la luminiscencia de ciertas sustancias. Su experimento consistió en un conjunto formado por una lámina cubierta con una capa de sales de uranio y una capa fotográfica adherida a su cara inferior, ambas envueltas en papel oscuro: dicho papel tenía que servir para evitar el paso de la luz visible y sólo permitir el de rayos penetrantes que pudiesen estimular la luminiscencia del uranio, así llevó a cabo su plan exponiendo el conjunto a la luz solar, luego de una horas, comprobó que el papel fotográfico quedó impresionado por el uranio. Posteriormente siguió con sus experimentos y con el uranio (expuesto o no expuesto a la luz del sol), y llegó a la conclusión de que éste metal emitía una radiación muy intensa capaz de impresionar una placa fotográfica de igual forma que lo hacían a los rayos X, y así descubrió la radioactividad natural, término usado por Marie Curie por primera vez que también trabajaba en las ciencias químicas con su esposo Pierre Curie, e investigando elementos que emitieran este tipo de radiación, descubrieron que otros elementos como el polonio o el radio eran aún más radioactivos que el uranio.

Tiempo después, Ernest Rutherford, estudió las emisiones radiactivas descubiertas por Becquerel, y entre los años 1898 y 1902, dentro del “Cavendish Laboratory”, logró identificar dos tipos de rayos radiactivos que designó con las letras griegas alfa y beta.

El esquema obedecía, entre otras propiedades, a la capacidad de penetración de la radiación en la materia, siendo la radiación alfa mucho menos penetrante que la beta. A mediados de 1902 añadió un tercer tipo, todavía más penetrante que los anteriores, que denominó gamma. Hoy en día sabemos que la radiación alfa consiste en la emisión de núcleos de helio (formados por dos protones y dos neutrones) por parte de un núcleo atómico inestable, la radiación beta son electrones emitidos en el proceso de desintegración beta y los rayos gamma son fotones de alta energía, que pueden resultar muy dañinos para la salud humana, por ello se usan con considerable precaución.

En 1909, Rutherford comenzó a indagar sobre cómo era realmente la estructura del átomo, e ideó un experimento para comprobar si el modelo que había para ese entonces, encajaba con el modelo de Thomson, conocido como “la torta de pasas”: el experimento consistía en bombardear una lámina muy fina de oro con partículas alfa, que se obtenían de la desintegración de una sustancia radiactiva, en ese caso el polonio. Para obtener un pequeño haz se colocó el polonio en una caja de plomo: el plomo detendría todas las partículas, menos las que saliesen por un pequeño orificio practicado en la caja. Perpendicular a la trayectoria del haz se interponía la fina lámina de metal. Y, para la detección de trayectoria de las partículas, se empleó una pantalla con sulfuro de zinc que produce pequeños destellos cada vez que una partícula alfa choca con él.

La idea de esto era que las partículas alfa (positivas) fueran atraídas por las cargas negativas y repelidas por las cargas positivas. Pero, como en el modelo atómico de Thomson las cargas positivas y negativas estaban distribuidas uniformemente, la esfera debía ser eléctricamente neutra, y las partículas pasarían a través de la lámina sin desviarse.

Y este fue el resultado: la mayor parte de las partículas atravesó la lámina sin desviarse. Pero algunas sufrieron notables desviaciones y, un pequeño número de partículas rebotó hacia atrás: esto hizo pensar a Rutherford que la mayor parte del átomo estaba condensado en el centro (con carga positiva), y los electrones lo rodeaban girando alrededor de él, y que había un espacio entre este centro y los electrones: las partículas que pasaban sin problemas, lo hacían a través de ese espacio, las que sufrían desviaciones, debieron rozar el núcleo, y las que rebotaban hacia atrás, chocaban directamente con él, repeliéndose las cargas de forma muy intensa.

Reacciones nucleares

Las reacciones nucleares se dan en los núcleos de los átomos y se clasifican en dos tipos la fisión y fusión nuclear.

Fisión

La fisión es una reacción nuclear, lo que significa que tiene lugar en el núcleo atómico. La fisión ocurre cuando un núcleo pesado se divide en dos o más núcleos pequeños, además de algunos subproductos como neutrones libres, fotones (generalmente rayos gamma) y otros fragmentos del núcleo como partículas alfa (núcleos de helio) y beta (electrones y positrones de alta energía).

La fisión de elementos pesados es una reacción exotérmica que puede liberar grandes cantidades de energía, tanto en forma de radiación electromagnética como de energía cinética de los fragmentos. Para que la fisión pueda producir energía, la energía total de los elementos resultantes tiene que ser mayor que aquella del primer elemento.

Para romper un átomo, se emplea un neutrón (ya que es neutro eléctricamente, y no es desviado de su trayectoria), que se lanza contra el átomo que se desea fraccionar, por ejemplo, Uranio. Al chocar el neutrón, el átomo de Uranio-235 se convierte en Uranio-236 durante un pequeño espacio de tiempo, pues tiene un neutrón más que es el que ha chocado con él, siendo este último átomo sumamente inestable, dividiéndose en dos átomos diferentes y más ligeros que el Uranio-236 (por ejemplo Kriptón y Bario; o Xenón y Estroncio), desprendiendo 2 o 3 neutrones, obteniendo Xenón y Estroncio, o Bario y Kriptón, respectivamente, mientras se libera energía. Estos 3 neutrones (por ejemplo), vuelven a chocar con otros 3 átomos de Uranio-235, liberando en total 9 neutrones, energía y otros dos átomos más ligeros, y así sucesivamente, generando de esta forma una reacción en cadena.

Monografias.com

La fisión es una forma de transmutación nuclear porque los fragmentos resultantes no siempre son el mismo elemento que el átomo original.

Actualmente el sistema utilizado en las centrales nucleares es la fisión, suele utilizarse frecuentemente el Uranio-235, con 92 protones y 143 neutrones (su núcleo es muy pesado comparado con otros átomos), se divide o rompe en dos átomos más ligeros, la suma de las masas de estos últimos átomos obtenidos, más la de los neutrones desprendidos es menor que la masa del átomo original, en donde se libera una gran cantidad de energía debido a que parte de la masa de las partículas involucradas en el proceso, se transforma directamente en energía.

Fusión

La fusión nuclear ocurre cuando dos núcleos atómicos muy livianos se unen, formando un núcleo atómico más pesado con mayor estabilidad. Estas reacciones liberan energías tan elevadas que en la actualidad se estudian formas adecuadas para mantener la estabilidad y confinamiento de las reacciones.

La energía necesaria para lograr la unión de los núcleos se puede obtener utilizando energía térmica o bien utilizando aceleradores de partículas. Ambos métodos buscan que la velocidad de las partículas aumente para así vencer las fuerzas de repulsión electrostáticas generadas al momento de la colisión necesaria para la fusión.

Para obtener núcleos de átomos aislados, es decir, separados de su envoltura de electrones, se utilizan gases sobrecalentados que constituyen el denominado Plasma Físico. Este proceso es propio del Sol y las estrellas, pues se tratan de gigantescas estructuras de mezclas de gases calientes atrapadas por las fuerzas de gravedad estelar.

Monografias.com

Para efectuar las reacciones de fusión nuclear, se deben cumplir los siguientes requisitos:

Temperatura muy elevada para separar los electrones del núcleo y que éste se aproxime a otro venciendo las fuerzas de repulsión electrostáticas. La masa gaseosa compuesta por electrones libres y átomos altamente ionizados se denomina PLASMA.

Confinamiento necesario para mantener el plasma a elevada temperatura durante un tiempo mínimo.

Densidad del plasma suficiente para que los núcleos estén cerca unos de otros y puedan lugar a reacciones de fusión.

Los confinamientos convencionales, como las paredes de una vasija, no son factibles debido a las altas temperaturas del plasma. Por este motivo, se encuentran en desarrollo dos métodos de confinamiento:

Fusión nuclear por confinamiento inercial (FCI): Consiste en crear un medio tan denso que las partículas no tengan casi ninguna posibilidad de escapar sin chocar entre sí. Una pequeña esfera compuesta por deuterio y tritio es impactada por un haz de láser, provocándose su implosión. Así, se hace cientos de veces más densa y explosiona bajo los efectos de la reacción de fusión nuclear.

Fusión nuclear por confinamiento magnético (FCM): Las partículas eléctricamente cargadas del plasma son atrapadas en un espacio reducido por la acción de un campo magnético. El dispositivo más desarrollado tiene forma toroidal y se denomina TOKAMAK.

Radiación nuclear

La radioactividad es un fenómeno natural o artificial, por el cual algunas sustancias o elementos químicos llamadas radiactivos, son capaces de emitir radiaciones, las cuales tienen la propiedad de impresionar placas fotográficas, ionizar gases, producir fluorescencia, atravesar cuerpos opacos a la luz ordinaria, entre otros. Las radiaciones emitidas por las sustancias radiactivas son principalmente partículas alfa, partículas beta y rayos gamma.

Los tipos de desintegración

Alfa: Esta reacción es una forma de fisión espontánea, en la que un núcleo pesado emite una partícula alfa (a) con una energía típica de unos 5 MeV. Una partícula a es un núcleo de helio, constituido por dos protones y dos neutrones.

Beta: hay dos tipos de desintegración, beta positivo y beta negativo. El beta positivo es una emisión de un positrón acompañado de un neutrino. El beta negativo es la emisión de un electrón acompañado de un antineutrino.

Gamma: es la emisión de fotones de frecuencia muy alta. El átomo radiactivo se conserva igual, pero con un estado de energía menor.

Tecnología nuclear

La vasta mayoría de los fenómenos naturales más comunes de la Tierra ocurren en el contexto de la gravedad y del electromagnetismo y no de las reacciones nucleares. Esto se debe a que los átomos de los núcleos se mantienen separados porque contienen cargas eléctricas positivas, y por lo tanto se repelen entre sí.

A partir de los descubrimientos de los materiales radioactivos, el hombre saco provecho de ellos, y los utilizo al principio para fines militares, creando diferentes tipos de armamentos nucleares con fines bélicos, pero después se observan que estos materiales pueden ser utilizados para obtener energía eléctrica en centrales nucleares para bastecer a los países.

Armas nucleares

Una arma nuclear es un explosivo de alto poder que utiliza la energía nuclear, esto incluye el vector transportador, como los misiles balísticos intercontinentales, los misiles balísticos de lanzamiento submarino y parte de la infraestructura involucrada en su manejo y operación.

Bomba atómica

Una bomba atómica es un dispositivo cuyo funcionamiento se basa en provocar una reacción nuclear en cadena descontrolada. Se encuentra entre las denominadas armas de destrucción masiva y su explosión produce una distintiva nube en forma de hongo.

Su procedimiento se basa en la escisión de un núcleo pesado en elementos más ligeros mediante el bombardeo de neutrones que, al impactar en dicho material, provocan una reacción nuclear en cadena. Para que esto suceda hace falta usar núcleos fisibles o fisionables como el uranio-235 o el plutonio-239. Según el mecanismo y el material usado se conocen dos métodos distintos para generar una explosión nuclear: el de la bomba de uranio y el de la de plutonio.

En este caso, a una masa de uranio llamada subcrítica se le añade una cantidad del mismo elemento químico para conseguir una masa crítica que comienza a fisionar por sí misma. Al mismo tiempo se le añaden otros elementos que potencian (le dan más fuerza) la creación de neutrones libres que aceleran la reacción en cadena, provocando la destrucción de un área determinada por la onda de choque desencadenada por la liberación de neutrones.

El arma de plutonio, es más moderna y tiene un diseño más complicado, se rodea la masa fisionable de explosivos convencionales como el RDX (Ciclotrimetilentrinitramina), especialmente diseñados para comprimir el plutonio, de forma que una bola de plutonio del tamaño de una pelota de tenis se convierte casi al instante en el equivalente a una canica, aumentando increíblemente la densidad del material que entra instantáneamente en una reacción en cadena de fisión nuclear descontrolada, provocando la explosión y la destrucción total dentro de un perímetro limitado además de que el perímetro se vuelva altamente radiactivo, deja secuelas graves en el organismo de cualquier ser vivo.

Buques militares de propulsión nuclear

Durante la segunda guerra mundial se comprobó que el submarino podía ser un arma decisiva, pero poseía un grave problema: su necesidad de emerger tras cortos períodos para obtener aire para la combustión del diésel en que se basaban sus motores, debido a esto se pensó en la posibilidad de utilizar la energía nuclear proporcionada por los reactores de de agua a presión, de agua en ebullición o de sales fundidas. Para conseguir reducir el peso del combustible en estos reactores se usa uranio con altos grados de enriquecimiento.

Se han construido una gran variedad de buques militares que usan motores nucleares que van desde cruceros hasta portaaviones.

Centrales nucleares

Una central nuclear es una instalación industrial empleada para la generación de energía eléctrica a partir de energía nuclear, que se caracteriza por el empleo de materiales fisionables, los que mediante reacciones nucleares, proporcionan calor que a su vez es empleado a través de un ciclo termodinámico convencional para producir el movimiento de alternadores que transforman el trabajo mecánico en energía eléctrica.

Estas centrales constan de uno o varios reactores, que son contenedores (llamados habitualmente vasijas) en cuyo interior se albergan varillas u otras configuraciones geométricas de minerales con algún elemento fisil (es decir, que puede fisionarse) o fértil (que puede convertirse en fisil por reacciones nucleares), usualmente Uranio, y en algunos combustibles también Plutonio, generado a partir de la activación del Uranio. En el proceso de fisión radiactiva, se establece una reacción que es sostenida y moderada mediante el empleo de elementos auxiliares dependientes del tipo de tecnología empleada.

Monografias.com

Las centrales nucleares constan principalmente de cuatro partes:

• El reactor nuclear, donde se produce la reacción nuclear.

• El generador de vapor de agua (sólo en las centrales de tipo PWR).

• La turbina, que mueve un generador eléctrico para producir electricidad con la expansión del vapor.

• El condensador, un intercambiador de calor que enfría el vapor transformándolo nuevamente en líquido.

El reactor nuclear es el encargado de realizar la fisión de los átomos del combustible nuclear, como Uranio o Plutonio, liberando una gran cantidad de energía calórica por unidad de masa de combustible.

El generador de vapor es un intercambiador de calor, que transmite la alta temperatura del circuito primario por el que circula el agua que se calienta en el reactor al circuito secundario, transformando el agua en vapor de agua, que posteriormente se expande en las turbinas, produciendo el movimiento de éstas que a su vez hacen girar los generadores, produciendo la energía eléctrica. Mediante un transformador se aumenta la tensión eléctrica a la de la red de transporte de energía eléctrica.

Después de la expansión en la turbina, el vapor es condensado en el condensador, donde cede calor al agua fría refrigerante, que procede de las torres de refrigeración. Una vez condensado, vuelve al reactor nuclear para empezar el proceso nuevamente.

Las centrales nucleares siempre están cercanas a un suministro de agua fría, como un río, un lago o el mar, para el circuito de refrigeración, ya sea utilizando torres de refrigeración o no.

El proceso de energía se desarrolla a través de un reactor nuclear, que a pesar de ser tecnológicamente bastante avanzado, funciona bajo un sencillo principio: generar grandes cantidades de calor, calentar agua hasta producir vapor a alta presión, y utilizarlo para mover un generador eléctrico, este proceso es altamente exotérmico, es decir, genera calor. un solo evento de fisión (un átomo de U-285 partiéndose) genera aproximadamente 200,000 ,000 de eV (electrón-Volts) de energía. Un proceso de oxidación química normal, tal como quemar carbón o gasolina, apenas genera unos 20 eV de energía por evento.

De esta manera, se ve que las reacciones nucleares son por lo menos diez millones de veces más eficientes que cualquier combustible químico. En un reactor nuclear, esta energía se genera en forma de radiación electromagnética y rayos gamma. Esta radiación genera una reacción en cadena causada por el exceso de neutrones que se desprenden de previos eventos de fisión, y se controla con grandes barras de grafito, que disminuyen la velocidad de los neutrones sueltos, lo que les permite actuar como agentes de control dentro del reactor. Finalmente, y de suma importancia, gran parte de la radiación se convierte en calor al hacerla chocar con los átomos de agua, que se encuentra en los tubos de enfriamiento que rodean al reactor. Como residuos secundarios, en los reactores nucleares van quedando otros elementos pesados, tales como Plutonio, Curio, entre otros, que a su vez son radioactivos, pero ya no son útiles como combustible nuclear.

En el mundo, actualmente existen más de 400 reactores que están en funcionamiento, repartidos en plantas en 30 países. El continente americano es el país que tiene más reactores simplemente en Estados Unidos se tienen 104 y uno más en construcción, mientras seis reactores más están en América Latina: en Argentina, Brasil y México.

Monografias.com

Desastres nucleares

Un accidente nuclear o incidente nuclear, dependiendo de la gravedad, se denomina a la emisión involuntaria y accidental de materiales radiactivos o un nivel de radioactividad susceptible de perjudicar la salud pública.

La ventaja de las centrales nucleares es bien conocida: brindan energía libre de carbono a precios razonables. Pero, en trágicas ocasiones, las plantas atómicas muestran su costado más peligroso. La catástrofe de Chernobyl es el caso más famoso, pero hubo otros menos recordados que también causaron cientos de muertos, entre ellos se encuentran:

1) Chernobyl. Ucrania, 26 de abril de 1986. Rating INES: 7.

Fue el peor accidente atómico de la historia y el único calificado como “grave” por el OIEA. Los técnicos necesitaban bajar la potencia del reactor al 25 por ciento de su capacidad para realizar un test de rutina, pero sin correr el riesgo de que se interrumpiera por completo el flujo. Por eso desactivaron los sistemas de seguridad. Pero apagaron más barras de control de lo permitido, violando las normas de seguridad nuclear vigentes.

Unos segundos después de que comenzaran la prueba, la potencia subió de forma inesperada y extremadamente veloz. El cierre de emergencia del reactor falló. Se produjo una fusión nuclear que formó una nube de hidrógeno. La temperatura subió a 2000ºC y se detonó una explosión suficiente para volar el techo de 100 toneladas del reactor. Allí comenzó una violenta fuga de elementos radiactivos.

Las cifras sobre las víctimas de Chernobyl son materia de debate, ya que la URSS se esforzó por ocultarlas. Según la Organización Mundial de la Salud, unas 9 mil personas murieron por enfermedades derivadas de la radioactividad -cáncer, tiroides, malformaciones- en los años posteriores a la tragedia.

2) Kyshtym. Unión Soviética, 29 de septiembre de 1957. Rating INES: 6.

Luego de la Segunda Guerra Mundial, los soviéticos se lanzaron a una temeraria carrera nuclear con los EEUU. La construcción irresponsable de la planta de Mayak se entiende en ese contexto. Los conocimientos científicos del stalinismo no estaban maduros para el rubro. El sistema de refrigeración -mal diseñado- de un tanque con 70 toneladas de residuos radiactivos falló y la temperatura subió hasta provocar un estallido.

No hubo víctimas inmediatas de la explosión, pero el OIEA detectó una liberación ambiental de material nocivo a varios kilómetros de distancia. El gobierno ocultó la información todo lo que pudo, hasta que tuvo que evacuar a 10 mil personas porque los reportes hablaban de gente a la que literalmente se le caía la piel. Se estima que unas 200 personas murieron de cáncer por la radioactividad.

3) Windscale. Gran Bretaña, 10 de octubre de 1957. Rating INES: 5. La central había sido erigida con fines militares y las actividades allí eran secretas. Los investigadores realizaban un experimento que requería elevar la temperatura del grafito. Pero los indicadores del interior del reactor mostraban que el calor bajaba en lugar de subir. Por eso insistieron y aumentaron la potencia, sin éxito.

Informes posteriores mostraron que, en efecto, la temperatura había bajado. Pero sólo en una parte del reactor: en el resto, había alcanzado un nivel suficiente para causar un gigantesco incendio. Con ese cuadro se encontraron los técnicos cuando abrieron el reactor. Los bomberos tardaron en actuar, ya que el calor era tan alto que al principio temían que el contacto con el hidrógeno del agua causara una explosión. La central quedó en ruinas.

El gobierno británico escondió el accidente, temeroso de que restara apoyo a su programa nuclear. Con excusas legales, adoptó como única medida la prohibición de venta de leche en un área de 500 kilómetros a la redonda. Se calcula que unas 200 personas padecieron cáncer por la radioactividad, y que la mitad de ellas murieron.

4) Three Mile Island. Estados Unidos, 28 de marzo de 1979. Rating INES: 5.

Fue el mayor accidente nuclear en la historia estadounidense. Todo comenzó con una simple avería en una tubería. Se abrió una pequeña válvula para aliviar la presión que la ruptura provocó en el reactor. Debía cerrarse cuando la tarea hubiera concluido, pero funcionó mal y no lo hizo. Los sistemas de alerta también fallaron y los operadores no se enteraron de lo que ocurría.

El núcleo comenzó a calentarse y alcanzó los 2400ºC. El sistema de emergencia, dispuesto para enviar agua refrigerante al reactor, no se activó automáticamente. Unos minutos más hubieran alcanzado para que la central estallara en pedazos. Por fortuna, los ingenieros detectaron a tiempo el problema y alcanzaron a enfriar el núcleo y estabilizarlo.

El accidente de Three Mile Island tuvo un profundo impacto en la opinión pública acerca de la energía nuclear. Desde entonces, ningún proyecto de planta recibió aprobación para su desarrollo.

5) Tokaimura. Japón, 30 de septiembre de 1999. Rating INES: 4.

Ocurrió en las afueras de Tokio. Una barra de uranio enriquecido llegó a un reactor nuclear que había estado inactivo por más de tres años. Sus operarios no tenían experiencia en el manejo de ese elemento; pusieron mucho más uranio en la solución para un tanque de precipitación de lo que estaba permitido. La planta no estaba preparada para eso.

Sólo cuando se drenó el tanque por completo se detuvo la radiación crítica, pero ya era tarde: dos de los tres técnicos que trabajaban allí murieron. Un centenar de vecinos fueron hospitalizados por la exposición a elementos nocivos.

5) Fukusima. Japón, 11 de marzo de 2011. Rating INES: 7.

El accidente fue provocado por un sismo de magnitud 9, el mayor registrado en Japón, y por el tsunami que generó, El sistema de emergencia se puso en marcha, pero pronto fue dañado por el maremoto y se detuvo. Los reactores 1, 2 y 3, fueron detenidos automáticamente, pero siguieron calentándose, hasta una fusión parcial. La acumulación de hidrógenoprovocó explosiones, una de las cuales podría haber dañado el recinto de confinamiento del reactor número 2. Un incendio se produjo en el reactor número 4 afectando la piscina de almacenamiento de combustible usado, con riesgo de expulsión directa hacia la atmósfera de material radioactivo. En Fukushima, un técnico murió y once resultaron heridos luego de la explosión. El nivel de radiactividad detectado en torno al lugar, evacuado en un radio de 20 km, presenta graves riesgos para la salud.

Organismo Internacional de Energía Atómica (OIEA)

Este organismo empezó a funcionar en Viena el 29 de julio de 1957 y en noviembre del mismo año la Asamblea General aprobó un acuerdo sobre la relación de la OIEA con la ONU, a fin de tratar de acelerar y aumentar la contribución de la energía atómica para fines de paz, la salud y la prosperidad en todo el mundo.

Teniendo como objetivo el asegurar que la asistencia prestada no se utilice con fines militares, el OIEA establece normas de seguridad nuclear y protección ambiental, ayuda a los países miembros mediante actividades de cooperación técnica y alienta el intercambio de información científica y técnica sobre la energía nuclear.

Cuenta con asesores, equipo y capacitación para suministrar asistencia a los gobiernos en desarrollo y promueve la transmisión de conocimientos teóricos y prácticos para que los países receptores puedan ejecutar eficaz y seguramente sus programas de energía atómica.

Escala Internacional de Accidentes Nucleares INES

Fue introducida por la OIEA para permitir la comunicación sin falta de información importante de seguridad en caso de accidentes nucleares y facilitar el conocimiento de los medios de comunicación y la población de su importancia en materia de seguridad. Se ha definido un número de criterios e indicadores para asegurar la información coherente de acontecimientos nucleares por autoridades oficiales diferentes. Hay 7 niveles en la escala:

Monografias.com

Nivel 7: Accidente mayor

Impacto en las personas y el medio ambiente. Se produce una mayor liberación de material radiactivo que pone en riesgo la salud general y el medio ambiente y requiere la aplicación de medidas de contraposición. Ejemplos: accidente de Chernóbil, accidente nuclear de Fukushima I.

Nivel 6: Accidente serio

Impacto sobre las personas y el medio ambiente. Se produce la liberación de material radiactivo que requiera una probable aplicación de medidas de contraposición. Ejemplo: desastre de Kyshtym.

Nivel 5: Accidente con consecuencias amplias

Impacto sobre las personas o el medioambiente. Liberación limitada de material radiactivo que pueda requerir la aplicación de medidas de contraposición. Varias muertes por radiación. Daños en los obstáculos radiológicos y el control. Se producen graves daños al núcleo del reactor y se produce la liberación de material radiactivo en una instalación que genera riesgos de exposición pública que podría derivarse de un accidente crítico o el fuego. Ejemplo: accidente de Three Mile Island, incendio de Windscale, accidente radiológico de Goiânia.

Nivel 4: Accidente con consecuencias locales

Impacto sobre las personas o el medio ambiente. Liberación menor de material radiactivo que pueda requerir, aunque de forma poco probable, la aplicación de medidas de contraposición. Al menos una muerte por radiación. Daños en los obstáculos radiológicos y el control. Combustible fundido o dañado y liberación de cantidades significativas deradiación con probabilidad de exposición pública. Ejemplo: accidentes de Tokaimura, accidente nuclear del reactor RA-2, Argentina.

Nivel 3: incidente grave

*****************************************************
Coeficiente de conversion para aserrio del Dipterix odorata en Puerto Maldonado

Resumen
Introducción
Marco teórico
Materiales y métodos
Resultados y discusiones
Conclusiones
Recomendaciones
Bibliografía

Resumen

El estudio se ha desarrollado en el Aserradero “Forestal Río Piedras S.A.C”. de Puerto Maldonado, distrito y provincia de Tambopata y departamento de Madre de Dios, siendo los objetivos principales determinar el coeficiente de conversión para aserrío y confeccionar una tabla de rendimiento de madera aserrada; para ello se empleo una metodología con modelos matemáticos de tipo cuantitativo y descriptivo. El coeficiente de conversión promedio obtenido es 0.45 valor superior al encontrado por Bazan, Benitez e inferior al utilizado por INRENA (IGFF), e inferior a los parámetros para sierra cinta e igual para sierra circular indicada por Schrewe. La ecuación estimada para elaborar la tabla de rendimiento de madera aserrada para cada diámetro de troza es Y = 0.1418 + 0.0038 X.
Introducción

El Perú carece de normas prácticas y realistas relacionados a los rendimientos de madera aserrada para cada espacie forestal, donde hasta el momento se han estado utilizando fórmulas o métodos provenientes de regiones muy distintos a nuestra realidad, basados en estudios de especies no existentes en nuestro medio, así como procedimientos y técnicas de aserrío muy diferentes a los nuestros.

En la industria del aserrío es importante tener información sobre factores de conversión de madera rolliza a madera aserrada con máximas aproximaciones para las condiciones locales y regionales del país. Conociendo esto, se podrían efectuar comercios justos y equitativos entre el vendedor y comprador de madera. Así mismo se podrá calcular el rendimiento promedio de trozas a madera aserrada según su diámetro y largo, expresándose en volumen o pies tablares de madera aserrada.

Finalmente con estos resultados se confeccionará una tabla de rendimiento de madera rolliza a madera aserrada para la especie, la cual podrá ser utilizada para transacciones comerciales, control y programación de la producción, así como otros fines relacionados con la investigación.

OBJETIVOS:

- Determinar el Coeficiente de Conversión para aserrío del shihuahuaco.

- Confeccionar una tabla de rendimiento de madera aserrada del shihuahuaco
Marco teórico

2.1 REGLA INTERNACIONAL

Fue desarrollada por Judson Clark en el año 1900, basándose en una fórmula matemática exacta. Considera una compensación por errores en la medición lineal. Esta tabla tiene en cuenta pérdidas por corte de sierra, contracción, canteado, despuntado y aguzamiento. A esta regla internacional se le considera como la más exacta y usada a nivel mundial y se aconseja su uso en trabajos científicos. Bruce y Schumacher (9.4).

2.2 CONSTRUCCIÓN DE TABLAS DE CUBICACIÓN

Mavrex (9.6) describe un método “abreviado” para la construcción de tablas de cubicación para árboles en pie, utilizando directamente datos de una muestra representativa de la población a estudiar permitiendo una gran simplificación en los cálculos ya que se obtiene una ecuación que relaciona los datos con una exactitud considerable y utilizando sólo métodos estadísticos simples.

En cuando al tamaño de muestra para la confección de tabla de volúmenes, Bonilla (9.3) señala que existen tablas que fueron confeccionadas con diversos tamaños de muestras: 100, 800, 1000 y hasta 70,000 árboles ( tablas de Grudner y Schwappach en 1928).

Chapman y Demeritt (9.5) menciona la existencia de diversas reglas de troncos que se emplean en determinadas localidades que influyen en el coeficiente de conversión se deben al desperdicio por aserrín.

Según Schrewe (9.7), el factor de aprovechamiento depende, aparte de las características de la sierra, de los defectos, la forma y diámetro de la troza. El autor compara el aprovechamiento de la madera en aserrío con sierras de cintas y circulares con dientes postizos, las primeras con un ancho de corte de 1/8″ y las segundas con 11/32″; señalando que al utilizar sierras de cinta en vez de circulares se reduciría en 54% y se obtendría una tabla adicional con un grosor de una pulgada por cada cinco cortes.

2.3 FACTORES DE CONVERSIÓN ESTIMADOS

Bazán (9.1) estima un coeficiente de conversión de 0.42 para trozas dedicadas al aserrío, parquet y tableros comprensados; mientras que para postes y pilotes el valor es de 0.6 y para carbón y leña le asignan un coeficiente de conversión de 0.125.

Actualmente, el INRENA (IGFF) usa un factor de 52% (220 PT. por cada metro cúbico de madera rolliza) que representa el valor promedio a nivel mundial para cualquier tipo de sierra y que suele emplearse especialmente para fines estadísticos Schrewe ( 9.7). Este autor señala así mismo, la necesidad de establecer un factor de aprovechamiento más realista en base a las características específicas de los medios de conversión de 45% para el promedio de las sierras circulares en uso y un 55% para las sierras de cinta.

Cabe indicar que un estudio práctico en Ecuadro, bajo condiciones comparable con aquellas que actualmente imperan en la industria de aserrío del Perú, determinó un factor de conversión de solo 35%. Benítez (9.2).
Materiales y métodos

El estudio se ha desarrollado en el Aserradero Forestal Río piedras S.A.C. , en la ubicado Carretera la Cachuela Km. 1.8, margen derecha.

3.1 EQUIPOS, HERRAMIENTAS Y MATERIALES

- Computadora mas accesorios

- Wincha de 50m. y flexometro de 5m.

- Aserradero sierra cinta electrónico (tableadora – Shiffer)

- Canteadora o tablillera múltiple y despuntadora (Shiffer)

- Motosierra (Sthil 070)

- Cámara fotográfica

- Libretas de apunte y lápiz

- 99 Trozas o bolillos.

METODOLOGÍA

Por la forma del estudio el método aplicado es una investigación descriptiva y cualicuantitativa. Utilizando para ello un modelo matemático con medidas de tendencia central, dispersión, regresión y correlación. Siendo el procedimiento como sigue:

3.2.1 TRABAJO DE CAMPO

Las 99 trozas provenientes del bosque al entrar a la sierra cinta principal, tuvieron las anotaciones siguientes:

- Número de clave de la troza.

- Dimensión del diámetro menor de la troza en pulgadas y convertidos en metros.

- Longitud de la troza en pies y convertidos en metros.

La madera aserrada (larga) fue cubicándose a medida que las tablas salían de la despuntadora haciéndose las siguientes anotaciones.

- Número de clave de la troza de la cual provienen las tablas.

- Dimensión de las tabla, midiéndose el espesor, ancho y largo en metros.

Las mediciones correspondientes a la madera corta se efectuaron al lado de la recortadora a medida que se iban escuadrando las piezas. Se hicieron las siguientes anotaciones:

- Número de clave de la troza de la cual proviene las tablillas.

- Dimensión de cada pieza, midiéndose el espesor en pulgadas, ancho en pulgadas y el largo en pies.

3.2.2 TRABAJO DE GABINETE

El trabajo de gabinete consistió en la realización de una serie de cálculos estadísticos para la determinación final de los coeficientes de conversión. Con estos resultados se llega a la construcción de una tabla de rendimiento para madera aserrada.

CALCULOS BÁSICOS.

Cubicación de cada troza en metros cúbicos, utilizando para ello la fórmula de Huber:

V = AB x L

Donde:

V = volumen de la troza en M3

AB = Área basal del diámetro de la troza en M2

L = Largo de la troza en metros.

Cubicación de cada tablilla en metros cúbicos, utilizando para ello la fórmula siguiente:

V = e x a x L.

Donde:

V = Volumen de tablilla M3.

L = Longitud de tablilla en metros.

a = Ancho de tablilla en metros.

e = Espesor de tablilla en metros.

CALCULO DE COEFICIENTE DE CORRELACIÓN SIMPLE Y COEFICIENTE DE CONVERSION

El coeficiente de correlación simple mide el grado de asociación lineal entre dos variables y no está sujeto al efecto de la escala de medición. Sus valores varían entre -1 a 1.

Se midieron dos pares de posibles asociaciones:

- Diámetro promedio de troza vs. Coeficiente de conversión.

- Longitud de troza vs. Coeficiente de conversión.

Determinación del coeficiente de conversión para cada una de las trozas, mediante la siguiente relación:

Monografias.com
Resultados y discusiones

CUADRO N° 1: MEDIA ARITMÉTICA PROMEDIO DEL DIAMETRO, LONGITUD DE TROZA Y COEFICIENTE DE CONVERSIÓN PARA EL SHIHUAHUACO.

Monografias.com

En el cuadro N°1 se observa las medidas de tendencia central como es el promedio (media) total para los 99 bolillos en longitud, diámetro y coeficiente de variación. Esto debido a que se han aserrado trozas desde 2.44 a 6.09 m. ó de 8 a 20 pies de longitud y de 50.8 a 137.16 cm. ó de 20 a 54 pulgadas de diámetro y un coeficiente de conversión desde 0.16 a 0.74.

El coeficiente de conversión determinado (0.45) es superior al encontrado por Bazán de 0.42 para bolillos dedicados al aserrío, parquet y tableros esto, debido talvez a que la madera aserrada son tablillas para pre-parqued y a los cuidados de corte con sierra cinta.

El factor encontrado para esta especie es del 45% disminuido en diez puntos al señalado por Schrewe (18) de 55% para todas las especies aserrados con sierras de cinta pero, superior al 35% encontrado por Benitez e inferior al 52% establecido por IGFF con fines estadísticos, indicando que el coeficiente encontrado para el shihuahuaco se encuentra dentro de los parámetros al valor realista propuesto por Schrewe, Benitez e INRENA (IGFF).

CUADRO N° 2: MEDIDAS DE DISPERSIÓN DEL DIÁMETRO PROMEDIO, LONGITUD DE TROZA Y COEFICIENTE DE CONVERSIÓN PARA EL SHIHUAHUACO.

Monografias.com

En el cuadro N° 2 se observa una desviación estándar mayor en el diámetro de troza, en comparación a la longitud de troza y coeficiente de conversión, indicando que las medidas de los diámetros de los bolillos tienen mayor variación que la longitud y coeficiente de conversión que son regularmente homogéneos respecto a sus medias, esto se debe a que se han utilizado para el aserrío bolillos con diámetros distintos (20 a 54 pulg.) y longitudes regularmente semejantes y trozados de acuerdo al requerimiento del mercado y producto final.

En cuanto al coeficiente de conversión se observa que la desviación estándar de 0.12 indica el grado de dispersión en cuanto a su promedio y un coeficiente de variación de 26.67 % esto, indica que son variables respecto a su media, esto debido al variado coeficiente en volumen de madera rolliza y aserrada.

CUADRO N° 3: ANÁLISIS DE VARIANZA DE REGRESIÓN LINEAL ENTRE DIAMETRO DE TROZA Y COEFICIENTE DE CONVERSION

Monografias.com

En el cuadro N° 3 se observa que FC es mayor que FT esto, indica que hay significancia estadística entre el diámetro y coeficiente de conversión. Se deduce de ello que es necesario hacer la prueba T para corroborar su inferencia estadística.

CUADRO N° 4: PRUEBA DE SIGNIFICACIÓN DEL COEFICIENTE DE REGRESIÓN LINEAL ENTRE DIAMETRO DE TROZA Y COEFICIENTE DE CONVERSION

Monografias.com

En el cuadro N° 4 se observa que TC es mayor que T. Tabulado (Student) al 95% esto, indica que hay significancia estadística corroborándose por tanto el ANVA entre el diámetro y coeficiente de conversión.

CUADRO N° 5 COEFICIENTE DE CORRELACION SIMPLE PARA LAS RELACIONES DIÁMETRO Y LONGITUD DE TROZA PROMEDIO vs. COEFICIENTE DE CONVERSIÓN.

RELACIÓN

SHIHUAHUACO

Diámetro de troza Vs.

Coeficiente de conversión

0.598

Longitud de troza Vs.

Coeficiente de conversión

0.04

En el cuadro N° 5 se observa que existe una correlación menor en la relación longitud troza vs. coeficiente de conversión respecto al diámetro de troza vs. coeficiente de conversión. El primer caso indica una asociación muy baja o no considerable debido a un insignificante grado de ahusamiento, no influyendo así la longitud en el rendimiento. En el segundo caso existe una correlación moderada, esto debido a que el diámetro tiene moderado grado de ahusamiento y pocos defectos naturales o de estructura del árbol.

Monografias.com

En el grafico N° 1 se observa una línea de tendencia positiva, expresando una relación directamente proporcional, con un grado de asociación moderado, de esto se deduce que a medida que aumente el diámetro aumenta ligeramente el coeficiente de conversión. Debido tal vez a lo cilíndrico del fuste y con bajos defectos de huecos rajaduras y condicionado por la densidad básica de la madera. El que hace que aumente el rendimiento ligeramente.

En el cuadro N° 6 se observa el rendimiento de madera rolliza a madera aserrada expresadas en pies tablares debido a que es la mas utilizada en todo el mundo, facilidad de manejar cifras enteras y forma de comercializar. Se ha estructurado en base a los coeficientes de conversión calculados según la ecuación de regresión para diámetros determinados para cada troza.

La tabla tiene dos entradas diámetro de troza expresadas en pulgadas y centímetros y longitud de troza expresados en pie y metros.

En esta tabla no se hicieron descuentos de corteza ni por defectos en el diámetro indicando que no es necesario hacer descuentos para la utilización de la tabla.
Conclusiones

5.1 El coeficiente de conversión promedio encontrado para la especie shihuahuaco es 0.45 y siendo menor el que usa el INRENA (IGFF) de 0.52.

5.2 El coeficiente de conversión promedio encontrado en el presente estudio es mayor que el encontrado por Bazán para aserrío, parquet y madera comprensada de 0.42 y menor estimado para sierras de cinta 0.55 e igual para sierras circulares 0.45.

5.3 El diámetro de troza tiene una relación directamente proporcional con el coeficiente de conversión debido a que las trozas mas gruesas presentan moderados defectos lo cual determina un rendimiento ligeramente superior que las trozas mas delgadas.

5.4 El largo de troza no influye en forma significativa en el coeficiente de conversión.

5.5 La relación diámetro de troza y coeficiente de conversión, puede explicarse mediante una función de regresión lineal con pendiente positiva.

5.6 La variabilidad de los coeficientes de conversión con respecto a la línea de regresión es moderadamente alta, debido a que los bolillos tropicales presentan gran heterogeneidad respecto a su rendimiento, expresadas en una sola línea de regresión.

5.7 La tabla de rendimiento confeccionada en base al coeficiente de conversión , tiene bastante exactitud, comparándola con el rendimiento encontrado de una muestra representativa para la especie.
Recomendaciones

6.1 Continuar realizando trabajos similares en otras especies de interés comercial.

6.2 Realizar investigaciones de coeficientes de conversión de madera rolliza a todos los productos de primera transformación en que se utilizan sierras circulares y castillo en vista a que en la región su uso es generalizado por los pequeños madereros.

Monografias.com
Bibliografía

BAZAN, F. 1951. Proyecto de Explotación Forestal en la Zona de

Topa Tulumayo. Tesis para Ingeniero Agrónomo. Universidad

Nacional Agraria La Molina. Lima.104 p.

BENITEZ. 1981. La Industria del Aserrío d el Perú. Proyecto

PNUD/FAO/PER/78/03. Documento de Trabajo N°8. Lima -Perú. 60 p.

7.3. BONILLA, J. 1969. Comparación de Ecuaciones para la Construcción de

Tablas de Volúmenes Estándar de Pino Marítimo (pinus pinaster). Editorial Rosgal S.A. – Montivideo. 1ra. Edición. 29 p.

BRUCE, D. y SCHUMACHER, F. 1965. Medicion Forestal. Ed. Herrera

S.A. – Mexico. 2da. edición. 474 p.

CHAPMAN, H. y DEMERITT, D. 1936. Elements of Forest

Mensuration. Lion Company Publishers. New York. 2da. Edicion 451 p.

MAVREX, V. 1969. Metodología para la Construcción de Tablas de

Cubicación, Escuela Superior de Bosques. Argentina. 42p.

7.7. MICHE M. 2002. Evaluación del Rendimiento en Trozas de Dipterix odorata (Aublet) Willd para la Obtención de Tablillas (Pre Parquet). Practicas pre-profesionales ( FCFMA – UNSAAC ). Puerto Maldonado. 31 p.

SCHREWE, H. 1980. Aspectos Fundamentales del Proceso de Aserrío

para Lograr Mayor Productividad, Calidad y Benéfico Económico. Resumen de la Conferencia en el Seminario sobre Extracción y Transformación Forestal. Proyecto PNUD/FAO/PER/78/003. Documento de trabajo N° 7. Lima -Perú. 67-71 p.

Autor:

Ing. For. Emer Ronald Rosales Solórzano

Universidad Nacional de San Antonio Abad del Cuzco

Facultad de Ciencias Forestales y Medio Ambiente

Puerto Maldonado – Madre de Dios. 2003.

*****************************************************
La salinera

Definición
El Mar Muerto
Roca comestible
Experimento
Propiedades de la sal
Fases de la sal
Sistemas de producción de sal en México
Tipos de Sal
Denominaciones de la sal
Referencias

Definición

Una salinera es un lugar en donde se extrae la sal del agua salada para su consumo humano y la salinidad es el contenido de sal disuelta en un cuerpo de agua. Dicho de otra manera, es válida la expresión salinidad para referirse al contenido salino en suelos o en agua.Aunque la sal es un producto que ayuda en mucha cosas y en la fabricación de muchos productos tiene un lado negativo en el medio ambiente. Los desechos de las salineras conocidos como ¨amargos¨ constituyen una sustitución de toxicidad comprobada para el ambiente de los ecosistemas al entrar en contacto con estos ciertas especies sufren daños por la toxicidad de esta sustancia. Esta toxicidad afecta a varias especies, pero esto no se ve a simple vista pero afecta su organismo y a otras especies afecta sus tasas de crecimiento, sus rasgos físicos y otras funciones vitales. Un ejemplo seria: El uso de sal en el deshielo de carreteras y calles de ciudades cuando hay nevadas se emplea debido a que reduce el punto de congelación hasta –15 °C, lo que hace que se evite la formación de hielo con el consiguiente riesgo de accidentes. Esta práctica se va eliminando poco a poco ya que causa problemas ambientales serios cambiando las propiedades químicas de los suelos de cultivo.

¿Por qué la sal es blanca?La sal es blanca cuando es muy pura y ha sufrido un proceso de cristalización perfecto, se presenta en forma de minúsculos cristales completamente transparentes. En estado puro, la sal es un compuesto formado solamente por cloruro sódico, de fórmula química NaCl. Ahora bien, la sal que se comercializa contiene diversas impurezas atrapadas en el interior de los cristales salinos, desde moléculas de agua hasta arcillas, arenas, sulfato de magnesio y yoduro de potasio. Estos compuestos son los responsables de la coloración blanca de la sal, debido a la dispersión, reflexión y refracción que experimenta la luz cuando atraviesa los cristales impuros.

¿Porqué la sal es salada?El sabor salado del agua se debe a que contiene cloruro de sodio. El porcentaje medio que existe en los océanos es de 10,9 % (35 gramos por cada litro de agua). Además esta salinidad varía según la intensidad de la evaporación o el aporte de agua dulce de los ríos aumenten en relación a la cantidad de agua. La acción y efecto de variar la salinidad se denomina saladura.
El Mar Muerto

El Mar Muerto es un lugar de gran interés turístico por la naturaleza de sus aguas y su lodo negro. En realidad no es un mar, sino un lago salado, ubicado por debajo del nivel del mar, que está situado entre Israel, Cisjordania y Jordania y presenta el mayor índice de salinidad en el mundo.

La concentración de sal en sus aguas, diez veces superior a la de un océano, le confiere unas características muy peculiares. Por ejemplo, por su alta concentración de sales no es posible la vida en su interior, salvo para algunas algas concretas o bacterias halófilas que se han adaptado a vivir en estas condiciones extremas.

El mar Muerto tiene 21 minerales diversos, 12 de los cuales no existen en otro lugar del planeta. Además, aunque en él no hay vida, en las zonas que lo rodean existen ecosistemas únicos en el mundo, posee un clima benigno, presenta un diez por ciento más de oxígeno en el aire que a nivel del mar y, su continua evaporación crea una capa protectora que filtra los rayos solares más dañinos (UVB).
Roca comestible

La sal es la única roca comestible por el hombre y es posiblemente el condimento más antiguo empleado por el ser humano, su importancia para la vida es tal que ha marcado el desarrollo de la historia en muchas ocasiones, moviendo las economías, siendo objeto de impuestos, monopolios, guerras, etc., pudiendo llegar a ser un tipo de moneda. El valor que tuvo en la antigüedad ha dejado de ser tal en la actualidad debido a la disminución de su demanda mundial para el consumo humano, en parte debido a la mejora en su producción además de la conciencia mundial que ha generado la posible relación que posee con la aparición de la hipertensión. En el siglo XXI, las dietas procuran incluir menos sal en sus composiciones, y los nuevos sistemas de conservación (pasteurizados, refrigerados y congelados, alimentos envasados al vacío, etcétera.) permiten evitar por completo el empleo de la salazón sobre los alimentos.
Experimento

Material:1. Dos vasos2. Cubitos de hielo3. Bandeja de “corcho blanco” (las de la fruta, verdura, etc.)4. SalMontaje: 1. Ponemos en la bandeja un poco de agua, de manera que se formen dos chanchitos separados, y sobre el agua los dos vasos.2. Ponemos en los vasos la misma cantidad de cubitos de hielo3. En uno de los vasos añadimos un par de cucharadas de sal común.4. En pocos minutos se observa que en el vaso con la sal los cubitos se funden con mayor rapidez.5. Si se espera una media hora, podemos tocar los dos vasos y apreciar que la temperatura es inferior en el vaso con sal.6. Por último, si levantamos los dos vasos, veremos que el agua bajo el vaso con agua y sal se congeló, y la bandeja se queda adherida al vaso.Explicación:En la superficie de los cubitos hay una capa de agua líquida en equilibrio con el hielo. Al añadir sal, parte de ésta se disuelve en el líquido que rodea los cubitos formando una disolución saturada que rompe el equilibrio con el hielo. Para recuperar el equilibrio la disolución tiende a diluirse y el hielo a enfriarse, lo que se logra fundiendo parte del hielo, que extrae el calor necesario para fundirse de la disolución, que se enfría por debajo de los 0 ºC. La temperatura de la disolución puede llegar a los 9 ºC bajo cero. El agua que estaba debajo del vaso se congela y la bandeja queda adherida al vaso y puede levantarse tirando de éste.
Propiedades de la sal

La sal está compuesta de redes de iones de Cl– y Na+ encristales que poseen una estructura en forma de sistema cúbico. El cloruro sódico (NaCl) posee el mismo número de átomos de Cloro que de Sodio y el enlace químico que los une está clasificado como iónico existente entre los iones: un catión de sodio (Na+) y un anión de cloro (Cl–) de tal forma que la molécula NaCl se compone de la siguiente forma:

Monografias.com

Consecuencias de la salLa ausencia total de sal en la dieta es perjudicial para la salud, es necesaria una pequeña dosis de sal para mantener ciertas actividades del organismo como la respiración y la digestión. La deficiencia de sal genera en el organismo una deficiencia de sodio denominada: hiponatremia. La deficiencia de sodio hace que el paciente tenga síntomas de apatía, debilidad, desvanecimiento, anorexia, baja presión arterial, colapso circulatorio, shock y finalmente la muerte.
Fases de la sal

La dinámica del proceso exige coordinar a lo largo de cada campaña las coordenadas de espacio y tiempo y puede dividirse en cinco períodos o fases temporales que se corresponden con otros tantos charcones o evaporadores. Según Castro, en su estudio sobre las salinas de Cabo de Gata, este proceso puede sintetizarse en cinco fases “tempo-espaciales”:

A) El primer período consiste en la entrada dentro del circuito del agua del mar. En estas latitudes la concentración salina del Mediterráneo es de 3,6 grados Baumé. Durante esta fase el gradiente de salinidad se eleva hasta los 7o Bé., al tiempo que se decantan los materiales en suspensión y se evapora casi el 50% del agua.

B) Durante el segundo período el agua se mantiene en depósitos evaporadores que le permiten alcanzar los 121 Bé. Mientras se evapora un 18% más de agua. Se produce la precipitación de todos los óxidos de hierro y el 55% de los carbonatos cálcicos.

C) En los depósitos del tercer período se evapora otro 15% del agua inicial cuya concentración no debe superar los 20 oBé. Hasta los 16 oBé precipitan el resto de los carbonatos y entre los 15 y los 20 oBé tienen lugar la precipitación del 60% de los yesos (sulfato cálcico).

D) Los estanques en los que transcurre el cuarto período se denominan calentadores y, en ellos, la evaporación de un 5% más de agua implica la precipitación de otro 25% de yesos y unos niveles de concentración en torno a los 25 oBé.

E) El quinto período es el más importante ya que constituye la última fase del proceso salinero y en él tiene lugar la precipitación del cloruro sódico. Durante el “trayecto” entre los 25o y los 28,5 oBé en que se produce el depósito de las sales de sodio, precipitan también el 15% del yeso restante y se evapora otro 5,4% del agua.

Proceso de evaporaciónEste proceso de evaporación es más intenso en las zonas tropicales, y menor en las zonas polares. Las aguas superficiales son más saladas porque la evaporación hace que la concentración de sal aumente. El contenido salino de muchos lagos, ríos, o arroyos es tan pequeño, que a esas aguas se las denomina agua dulce. El contenido de sal en agua potable es, por definición, menor a 0,05%. Si no, el agua es señalada como salobre, o definida como salina si contiene de 3 a 5% de sal en volumen. Por encima de 5% se la considera salmuera. El océano es naturalmente salino con aproximadamente 3,5% de sal (ver agua de mar). Algunos lagos o mares son más salinos. El Mar Muerto, por ejemplo, tiene un contenido superficial de alrededor del 15%.
Sistemas de producción de sal en México

Existen diferentes métodos de producción de sal en México, los más utilizados son:a) Sal solar o sal marina Este método de producción abarca alrededor del 90% de la sal producida en México. En términos generales consiste en obtener agua de mar y proceder a evaporarla a través de la acción combinada de energía solar y viento. Cuando la salmuera alcanza su punto de saturación da inicio a la cristalización del cloruro de sodio. b) Sal refinada al alto vacíoEste proceso se lleva a cabo en una planta específicamente diseñada para este fin. Consta esencialmente de evaporadores e intercambiadores de calor, también se le conoce como refinería. Una de las ventajas del proceso de producción de sal por medio de refinación es que se puede obtener sal muy cristalina, blanca y de alta pureza (99.5%).c) Salineras en México.La mayor parte de la producción de México proviene del estado de Baja California Sur, el resto de la producción se distribuye en 14 estados de la República, entre los que destacan: Veracruz, Yucatán, Sonora y Nuevo León. La producción salinera dentro de México se concentra principalmente en dos regiones: Guerrero Negro, Baja California Sur y Mérida, Yucatán. El primero se destaca por ocupar el puesto de la salina más grande del mundo y por sus enormes salitres. De ésta, se exporta sal a los principales centros de consumo de la cuenca del Pacífico, destacando Japón, Corea, Estados Unidos, Canadá, Taiwán y Nueva Zelanda. México ocupa el 7° lugar en producción salina en todo el mundo y 1° en América Latina.México produce alrededor de 8, 500,000 toneladas de sal al año.
Tipos de Sal

Existen diversos tipos de sal en función de diferentes parámetros como puede ser: la procedencia geográfica, el origen (sal de marina o de mina de sal), el tratamiento proporcionado antes de ser ofrecida al consumidor y los aditivos que posea (artificiales o naturales). Los tipos pueden ser descritos en función de su elaboración (evaporada, marina, minera), de su contenido en oligoelementos (magnesio, calcio, etc), de los aditivos empleados (especias, sabores, etc.), de su textura (gruesa, suave como un copo de nieve, etc.), etc.

Sal refinadaEl proceso de refinamiento proporciona unos granos de sal de color blanco que suele atraer más al consumidor medio, se puede decir que consta de casi de una proporción pura de NaCl (99,9%), este proceso se hace a expensas de la calidad final del alimento. Para obtener este efecto se suele añadir agentes antiaglomerantes o yodo así como ciertos compuestos de flúor. La sal refinada se emplea fundamentalmente en la alimentación humana. A la sal refinada se le añaden antiaglomerantes para evitar la formación de “grumos” durante su almacenado, los antiaglomerantes más habituales son los fosfatos, así como los carbonatos de calcio o de magnesio. La sal refinada se suele embalar en paquetes de 1000 g o 500 g listos para ser distribuidos en supermercados (es un producto típico en las tiendas de ultramarinos). Las sales “no refinadas” se denominan sel gris (sal gris) debido al color grisáceo que presentan, se caracterizan por ofrecer sabores más ocres al paladar.

Sal de mesaLa sal de mesa posee un grado de refinamiento menor pudiendo llegar a una concentración de 95% de peso en cloruro sódico. Este tipo de sal es empleado fundamentalmente en alimentación y se suele encontrar generalmente en los saleros que hay en las mesas de comidas (de ahí su denominación: sal de mesa), suele acompañarse con dispensadores en forma de salero que llevan pimienta negra. Una de las compañías que empezaron a ofrecer sal de mesa a mediados del siglo XX fue Morton en Estados Unidos en un formato muy habitual hoy en día, esta compañía puso un eslogan misterioso en sus paquetes que perdura hoy en día: una niña bajo un paraguas porta un saco de sal que se abre por un costado y deja caer como un reguero la sal, un cartel reza: “When it rains it pours” (cuando llueve se vierte). Dicho eslogan ofrecía al público la posibilidad de emplear por primera vez una sal cristalina homogénea que no se agrupaba (hacer grumos) en ambientes húmedos. La sal de mesa desde siempre ha sido una sal que ha poseído antiaglutinantes (al igual que la sal refinada), para que pueda fluir mejor en los saleros y poder ser vertida desde los orificios del mismo. Algunos remedios caseros permiten poner granos de arroz dentro del salero para que pueda vertirse mejor.La sal de mesa tiene una densidad de partícula de 2.165 g/cm³, y una densidad aparente de 1.154 g/cm³.
Denominaciones de la sal

Existen diferentes denominaciones de sal a lo largo de todo el mundo, y las diferencias de sabores que proporcionan estas sales se puede deber a la presencia local de ciertos oligoelementos que le proporcionan un sabor característico. En otras ocasiones la forma de recolección permite modificar la textura de las sales y hacerlas más atractivas al consumidor. Sea como sea, existen diversas variedades como son:

Sal de mar: es la sal extraída del agua marina “integral” en salinas mediante evaporación. la sal marina tiene un 86% de cloruro sódico (NaCl) y trazas de oligoelementos como calcio, cloruro de magnesio, potasio, yodo y manganeso.

Flor de sal: se origina en las salinas en los primeros momentos de concentración de la sal, siendo cristales finos que flotan en placas sobre la superficie del agua. No es refinada y tiene por lo tanto más proporción de yodo natural y oligoelementos. Su producción es muy escasa y apreciada. Suele ser de mayor valor que otras sales debido a que se recoge de manera artesanal.

Sal maldon: producida en Inglaterra, se produce mediante coción del agua de mar. Es de gran pureza y aparece como placas finas en su estado natural.

Sal guerande: sal marina de la Bretaña francesa. Es una sal artesanal y sin refinar, de color gris y tamaño medio. Muy rica en oligoelementos.

Sal negra: sal poco refinada producida en la India (existe igualmente la sal gris).

Sal ahumada: es una sal empleada como condimento debido a que tiene un fuerte olor a ahumado. Esta sal se emplea fundamentalmente en la cocina para dar al mismo tiempo sabor salado y un olor a humado, es por esta razón que se emplea también como una especia. Es un ingrediente muy habitual en los platos de la cocina de Wales, Dinamarca y Corea.

Sal glutamato monosódica: se extraía de algas y trigo. Realza el sabor de los alimentos.

Sal kosher: es una sal pura (sin añadidos químicos) que es empleada tradicionalmente por los judíos para la salazón de algunos alimentos kosher (es decir permitidos por la tradición judía). Suele emplearse en cocina por la facilidad de ser dispensada a mano.

Sal de apio: es una sal empleada como condimento de alimentos y platos. Se elabora con una mezcla de sal y semillas de apio trituradas (en ciertas ocasiones se le añade también ajo seco molido).

Gomashio: una mezcla de sal y semillas de sésamo muy típica de la cocina japonesa.

Halen Môn: sal marina 100% natural de las costas de Gales.

Halita: sal gema o sal de roca.

Himalayen: sal de tonos rosados que se presenta en grandes rocas (generalmente para ser pulverizadas con un molino), sal mineral originaria de las montañas del Himalaya.

Des Trenc: sal originaria de las salinas del sur de Mallorca.

Camarga: de las salinas de las Bouches Du Rhône.

Herbamare: mezcla de varios tipos de sal con hierbas aromáticas y especias que quelan la sal y la desactivan mejorando su asimilación.

Sal Mortón: sal baja en sodio, es una mezcla de sal común (NaCl) con cloruro de potasio (KCl). Morton es una marca comercial pionera en convertir la sal en un alimento funcional mediante la adición de yodo.

Sal yodada: es una mezcla de sal común (NaCl) con yoduro sódico (NaI).

Sal inglesa: Nombre de fantasía para sulfato de magnesio.

Referencias

http://es.wikipedia.org/wiki/Sal#Salinashttp://fq-experimentos.blogspot.mx/2008/02/hielo-y-sal.html http://laindustriadelassalineras.blogspot.mx/ http://www.buenastareas.com/ensayos/Como-Funciona-Una-Salinera-y-Cual/3267102.html http://www.buenastareas.com/ensayos/Industria-Salinera/5469305.html http://www.buenastareas.com/ensayos/Salinera/5500893.html http://www.buenastareas.com/ensayos/Salinera/5500080.html http://www.clubdelamar.org/salinas.htmhttp://www.muyinteresante.es/ipor-que-la-sal-es-de-color-blanco http://www.pulevasalud.com/ps/contenido.jsp?ID=13168&TIPO_CONTENIDO=Articulo&ID_CATEGORIA=104642&ABRIR_SECCION=2&RUTA=1-2-45-104642

Autor:

Roberto Sauceda

*****************************************************
Corrosion en la zona de alta temperatura tubos de los generadores de vapor en centrales termoelect

Introducción
Descripción de los Generadores de Vapor utilizados en la UNE
Combustible quemado en las Calderas
La combustión
La Corrosión de Alta Temperatura
Conclusiones
Referencias Bibliográficas

Introducción

En Cuba las termoeléctricas se ha visto obligadas a la utilización de combustibles poco refinados y composiciones químicas bastante complejas con altos contenidos de azufre, sales, asfaltenos, vanadio etc. y esta composición no es constante en el tiempo. Al quemar estos combustibles aparecen los inevitables problemas de corrosión por el lado de fuego los que son muy destructivos y complejos.

Estos problemas de corrosión no se limitan a los crudos sino también aparecen cuando se quema fuel oil proveniente de las refinerías que traen incorporado mezclas indeseadas de sustancias inorgánicas que en ocasiones crean más problemas que el propio crudo.

En este trabajo nos hemos limitado a un pequeño bosquejo acerca de la corrosión de alta temperatura y no abordaremos la denominada corrosión por baja temperatura que ocurre también por la parte de fuego.

Sobre la corrosión de alta temperatura tiene una alta incidencia un grupo de factores enorme, sólo veremos los elementos de la corrosión de alta temperatura y por un problema de espacio no abordaremos la influencia de factores como son:

El régimen de operación de la caldera.

Las variaciones de carga.

La frecuencia de las variaciones de carga.

La operación a bajas cargas.

Las infiltraciones.

La humedad de los gases.

La caída de presión en los distintos puntos del ciclo. Entre otros.

Los contaminantes del combustible son principalmente: El Azufre, el Vanadio, el Sodio, asfaltenos, etc. Aunque el nivel de estos contaminantes varían continuamente de acuerdo al tipo de combustible que se quema, aún la presencia de cantidades relativamente bajas pueden causar serios problemas en la combustión y la generación de vapor.

Nuestro trabajo persigue hacer una descripción de los problemas de corrosión en los Generadores de Vapor de la UNE en la zona de alta temperatura.
Descripción de los Generadores de Vapor utilizados en la UNE

La mayor parte de los Generadores de Vapor que se emplean en la UNE son de tecnología Soviética de 100 MW, los que han sido modernizado. En la figura 1 se muestra un esquema de la parte de gases de nuestro generador de vapor con el rango de temperatura en que trabaja cada parte del mismo:

Estos Generadores de Vapor son de un solo domo, con tubos verticales de agua, de circulación natural, sobrecalentamiento y recalentamiento del vapor. Con un sistema de aprovechamiento de los gases para el calentamiento del agua (Economizador de 4 etapas) y el calentamiento del aire (CAR). Esta caldera está diseñada para trabajar en bloque con una turbina del tipo K-100-130-/3600-2. La disposición de esta caldera es en forma de P rusa y está proyectada para trabajar para las siguientes condiciones descritas figura 1.

En el horno de la caldera E-340-140/29M, se libera el calor producido por la combustión del petróleo que se introduce por 8 quemadores de atomización mecánica ó mixtos situados en la pared frontal.

Estos quemadores están situados en dos pisos tienen una capacidad nominal de 3250 Kg/h. La presión nominal del combustible antes de los quemadores es de 35 Kg/cm2, varía continuamente en función de las necesidades de la generación vapor. La presión del vapor para sopleteo y atomización es de 12 Kg/cm2

Monografias.com

Figura 1. Partes de la Caldera y perfil térmico de los Generadores de Vapor de 100 MW.

Tabla 1. Características Técnicas del Generador de Vapor: TIPO: bKZ-340-140/29 M

1

Capacidad de producción

340 T/h

2

Presión de vapor en el Domo

160 Kgf/cm2

3

Presión en el cabezal de salida de vapor sobrecalentado

140 Kgf/cm2

4

Temperatura del vapor sobrecalentado

545 oC

5

Temperatura de agua de alimentación

230 oC

6

Presión de vapor a la entrada del recalentador

29 Kgf/cm2

7

Temperatura del vapor a la entrada del recalentador

340 oC

8

Presión del vapor a la salida del recalentador

27 Kgf/cm2

9

Temperatura del vapor a la salida del recalentador

545 oC

10

Eficiencia bruta a carga nominal(teórica)

89.8-92.7 0C

11

Espacio de agua de la caldera

96.6 m3

Los tubos de las paredes de agua del horno forman 14 paneles o circuitos independientes, los que están dispuestos de la siguiente forma: 3 paneles en cada una de las paredes laterales, 4 en la pared frontal y 4 en la pared posterior. El diámetro de estos tubos es de 60 x 6 mm.

Para formar el piso del horno, los tubos de la pared posterior avanzan hacia la pared frontal con una inclinación de 15º con respecto al plano horizontal. En el piso del horno, existen 4 grandes orificios, previstos para la recirculación de los gases de la combustión. En la cámara de calor que está situada bajo el piso del horno, se encuentran los cabezales inferiores de las paredes de agua. Los paneles que constituyen las paredes de agua del horno, están suspendidos del techo por medio de los tubos de retorno de la mezcla de agua y vapor

El domo del Generador de Vapor tiene las dimensiones siguientes: diámetro interior: 1 600 mm; diámetro exterior: 1 830 mm, longitud: 15 440 mm; espesor de pared: 115 mm.
Combustible quemado en las Calderas

La combustión comienza con la evaporación e ignición de los hidrocarburos más ligeros, a continuación se descomponen los más pesados, y por último el residuo carbonoso. Los componentes inorgánicos están en el residuo carbonoso y de esta forma se convierten en los óxidos correspondientes.

La mayoría de las calderas en las Centrales Termoeléctricas que queman Fuel Oíl Pesado, Crudo o mezclas de éstos, han sido víctima de problemas de corrosión y ensuciamiento tanto en las secciones de altas temperaturas como en las zonas de baja temperatura.

Los contaminantes responsables de estos problemas son: el Azufre, el Vanadio, el Sodio, los asfaltenos etc. El nivel de estos contaminantes varían continuamente y de acuerdo al tipo de combustible que se quema. En las figuras 2, 3, 4 y 5 se muestran las gráficas del comportamiento del combustible entre los años 2000 y 2002 en la CTE Habana.

Como se puede ver de la figura 2 el contenido de azufre que viene con el combustible oscila entre un 5 y un 7,8%, muy superior a lo que se quema en otras partes del mundo y a lo que aparece en la literatura técnica, en ocasiones ha sido superior.

Decenas

Figura 2. Comportamiento del contenido de azufre entre el 2000-2002 en la CTE Habana.

Al quemar el combustible provocará que en los gases de escape el contenido de SO2 se eleve entre el 3 y el 4,5%. Si consideramos los 8 quemadores trabajando a la potencia nominal (3250 kg/h) de combustible, es decir 26 T/h de combustible por Generador de Vapor, por lo que cada hora se estarán quemando entre 1.4 y 2 T/h de azufre, lo que provocan emisiones entre 2,8 y 4 T/h de SO2, las que al año, trabajando al 50% de su capacidad nominal resultarían entre 4400 Ton/año y 8700 Ton/año de SO2.

Además el azufre genera SO3 en función de las condiciones de operación y de las concentraciones de contaminantes presente, en menor proporción que SO2. El SO3 es el responsable de la formación de ácido sulfúrico de la corrosión de baja temperatura de las calderas y la formación de múltiples sales que tienen efecto importante en el ensuciamiento de las calderas así como de la formación de elementos corrosivos que condensan a temperaturas entre 200-600ºC.

Figura 3. Comportamiento del contenido de Vanadio entre el 2000-2002 en la CTE Habana.

En la Figura 3 puede verse el comportamiento que el contenido de vanadio que viene con el combustible oscila entre 25 y 195 mg/l con una tendencia decreciente. Este combustible puede ser considerado como combustible de bajo vanadio.

El Vanadio al reaccionar con el oxígeno forma diferentes óxidos de punto de fusión entre 400 y 1000ºC que al condensar ensucian la caldera y pueden desplazar al hierro metálico provocando un tipo de corrosión por Pitting característico de la zona de alta temperatura objeto de este estudio.

En la Figura 4 puede verse el comportamiento del contenido de asfaltenos que viene con el combustible, oscilando entre 11 y 21% con una tendencia creciente. Este combustible puede ser considerado como de contenido de asfaltenos medio.

Decenas

Figura 4. Comportamiento del contenido de Asfaltenos entre el 2000-2002 en la CTE Habana.

Los asfaltenos crean una red de hidrocarburos que dificultan la atomización del combustible al entrar en el horno, mientras más asfaltenos aparezcan más probable es que aparezcan los inquemados y con ellos aumentan las pérdidas por incombustión química y mecánica.

Estos inquemados son un aglutinante que fijan las cenizas, sales, óxidos a la caldera y mientras más inquemados aparecen en el Generador de Vapor, mayor es la posibilidad de ensuciamiento de la misma..

En la Figura 5 puede verse el comportamiento del contenido de sales que vienen con el combustible, oscilando entre 175 y 500 mg/l sin tendencia. Este combustible puede ser considerado como combustible de alto contenido de sales. Estas sales tienen una gran influencia en la corrosión y ensuciamiento de las calderas.

Figura 5 Comportamiento del contenido de las Sales entre el 2000-2002 en la CTE Habana.

En resumen estamos en presencia de un combustible que posee altos valores de Azufre y sales, sin embargo el comportamiento que se ha presentado en el vanadio su tendencia ha sido ir disminuyendo.
La combustión

Antes de pasar a explicar, el proceso de la corrosión por alta temperatura en los Generadores de Vapor debe tenerse un idea previa de cómo transcurre la combustión. Las gotas de combustible líquido al llegar al horno se calientan, se evaporan los compuestos volátiles y se mezclan con el aire. En presencia del medio oxidante (oxígeno) y con el nivel térmico adecuado (temperatura del horno por encima de la temperatura de auto ignición) se logra la inflamación espontánea del combustible, por tanto la combustión ocurre en fase gaseosa, a baja presión, en el caso que nos ocupa de vacío y alta temperatura como podrán ver en la figura 1. Por tanto son aplicables las leyes de los gases ideales.

Cuando la combustión se realiza con el aire teóricamente necesario para combustión completa se llama combustión estequiométrica. Los productos que se forman cuando han alcanzado el máximo grado de oxidación son:

Dado que a la temperatura prevaleciente en la zona de la combustión concurre el oxígeno monoatómico, se oxidara entonces una cantidad de dióxido de azufre a trióxido de azufre:

Naturalmente, al disminuir la cantidad de exceso de oxigeno y el azufre en la zona de la combustión, disminuye también la oxidación del Dióxido de Azufre a Trióxido de azufre.

Los compuestos órgano – metálicos de Vanadio y otros constituyentes (porfirinas) en el combustible se queman resultando en la formación de varios Óxidos de Vanadio y Níquel.

El vanadio primeramente es oxidado a V2O3 y V2O4, posteriormente, cuando se han consumido las partículas de carbón y existe oxígeno en exceso, los óxidos de vanadios anteriores se oxidan a la forma V2O5.

El V2O5 puede salir con los gases de escape ó permanece en los depósitos al formar, con otros constituyentes metálicos de las cenizas, una serie de vanadatos bajas temperaturas de fusión y algunos de ellos con alta agresividad al hierro. En la figura 6 se puede ver la relación que existe entre el exceso de aire en los gases de escape y la formación de V2O5.

Figura 6 Relación entre la formación del V2O5 en la combustión y el exceso de aire.

El Sodio se presenta en el Crudo, predominantemente como microcristales dispersos de cloruro de sodio, así como también en la fase de suspensión acuosa, en cambio en el Fuel Oíl Pesado se presenta en la fase acuosa por lo cual el contenido de este elemento es menor en este último combustible.

Durante la combustión el Cloruro de Sodio se vaporiza totalmente y reacciona con el vapor de agua formando Hidróxido de sodio y Acido Clorhídrico

Los Vanadatos, Vanadil-vanadatos y Sulfato de Sodio formados de los procesos anteriores resultan la mezclas eutécticas que funde en algunos casos a menos de 540°C. Esta masa semifluida constituida por esta mezcla se deposita sobre los sobre – calentadores y recalentadores de las calderas. Cuando el Na2O.6V2O5 se encuentra el generador de vapor fuera de servicio puede pasar a Na2O.V2O4.5V2O5 (beta vanadil vanadato). En la figura 7 mostramos la relación entre la temperatura de fusión vs relación sodio/vanadio.

Debemos puntualizar que la Corrosión por alta temperatura, ocurre en las zonas donde la temperatura de los gases se encuentran entre 500 –700 ºC, allí los metales tendrán entre 500 –550ºC.

La corrosión ocurre cuando el metal se destruye por acción de los gases sobre el material de los tubos. Hay dos teorías, que la misma se manifiesta por acción de sulfuros y por acción de sulfatos V2O5

La experiencia muestra que en ausencia de cloruros, los sulfatos y carbonatos no funden hasta los 850oC, pero presente éste, funden a los 650oC. Los elementos S, V y Na son determinantes en el proceso de corrosión. Siendo el más nocivo el Na2O.V2O4.5V2O5 porque su punto de fusión es de 625oC. Se conocen también mezclas de vanadatos y sulfatos con temperaturas de fusión inferiores a 550oC. Podemos situar algunos ejemplos

Figura 7 Relación entre la temperatura de fusión y la relación V/Na.

La Corrosión de Alta Temperatura

Cuando nos enfrentamos al fenómeno de corrosión por alta temperatura, nos enfrentamos a un tipo de corrosión químicamente pura, la misma se lleva a cabo en medios carentes de humedad, por consiguiente no hay presencia de un medio electrolítico, ya que lo que tenemos es un medio con gases a altas temperaturas con sustancias orgánicas e inorgánicas.

En este proceso químico los átomos cargados del metal y los del medio oxidante se trasladan de la superficie metálica a la ceniza y viceversa. Claro está, que debemos partir del hecho que las capas más próximas al tubo son las de óxidos de hierro (Fe2O3 y Fe3O4) que constituye la capa protectora del tubo, pero la misma se debilita por efecto de múltiples factores entre los que más influyen están las condiciones de operación, las características del combustible, las características del aire, la efectividad del quemador, los sistemas de limpieza de las calderas, las infiltraciones, los gradientes térmicos, etc.

Entre los factores que más influyen en la corrosión están:

- Formación de capas porosas

- Disolución de los óxidos por eutécticos de bajo punto de fusión o su reacción con otras sustancias para formar mezclas fácilmente fusibles.

De éstos, el más dañino es el referente a la formación de compuestos o mezclas de bajos puntos de fusión. Este proceso corrosivo se lleva a cabo por la oxidación del metal o aleación y la reducción de la ceniza en las interfaces interna y externa de la capa que recubre la superficie de los tubos. Entonces, para que la reacción de corrosión tenga lugar es preciso un proceso de difusión en fase líquida de los productos que puedan oxidar al hierro. Debemos tener presente, que el paso controlador es la difusión y que para manifestarse tiene que existir un gradiente de concentración apropiado.

En nuestro caso los productos de corrosión sean óxidos o sulfuros, por situar algún ejemplo, su relación estequiométrica no es exacta, trayendo como consecuencia que su red cristalina no sea uniforme, siendo la relación metal-no metal mayor en la interface metal/capa que en la interface capa/atmósfera (gases de combustión).

Este gradiente es la fuerza impulsora para que los iones metálicos se difundan hacia afuera y los aniones agresivos hacia el tubo. Esto es favorecido por los defectos reticulares que tiene la red cristalina.

De esta manera se desencadena una serie de fenómenos simultáneos

-La fase fundida facilita la transportación del oxígeno, estando favorecida esta transportación, por los fenómenos de difusión y convección en las mezclas fundidas

-Exposición de la superficie metálica a la acción directa del medio por la fusión de la barrera protectora de óxido.

-Cambiando la estructura de la red de los depósitos permitiendo que las sustancias indeseadas lleguen con facilidad a la superficie metálica y de esta forma permite la presencia de otros agentes que se encuentran en el medio y que de hecho ayudan a favorecer la corrosión aún más.

Los sulfatos pueden presentar serios problemas de corrosión aún sin la presencia de los vanadatos. Esto puede ocurrir cuando los mismos puedan ser reducidos a sulfuros, en una atmósfera no oxidante y así aparecer depósitos de mezclas de óxidos-sulfuros de bajo punto de fusión. En este tipo de fenómeno influye notablemente el control de la combustión.

Es bueno destacar que ocurre en los depósitos de cenizas de los generadores de vapor; su proceso de fusión transcurre por diferente etapas, las cuales se nombran: Sinterización, Ablandamiento, Fusión Hemisférica, Fusión.

La sinterización describe el proceso en el cual las partículas de cenizas (Figura 8) se adhieren unas a otras, para formar una fase sólida continua.

Figura 8. Etapa de Sinterización.

Cuando se alcanza la temperatura de ablandamiento la muestra exhibe los primeros síntomas de deformación (Figura 9), es decir, cambios superficiales, se completa la redondez de los bordes y comienzan a llenarse los espacios entre partículas.

Figura 9. Etapa de Ablandamiento.

El punto de fusión hemisférico es la temperatura en que la muestra toma la forma aproximada de un hemisferio (Figura 10). La altura fundida es aproximadamente la mitad de la muestra original

Figura 10. Temperatura hemisférica.

Y por último el punto fluencia (Ver figura 11). , es la temperatura para la cual la muestra se contrae hasta un tercio de la altura original. Esta temperatura corresponde con el punto que conocemos como punto de fusión de la ceniza.

Figura 11. Fluencia de la ceniza.

La interface entre el tubo y el depósito es una fusión. Los electrones son liberados por el material a la interface donde la corrosión es acelerada por las impurezas en el depósito. La capa de óxido de cromo-hierro es destruida por impurezas, como el óxido de vanadio. Las impurezas disminuyen el punto de fusión de la capa Cr-Fe y causan corrosión acelerada por pitting. Esta es una corrosión peligrosa que debilita el material y puede conducir a la explosión del tubo.

Figura 12. Muestra de tubos, observe como se pega la ceniza y crea pitting.

El problema de la corrosión en los generadores de vapor se ha complicado aún más, ya que las temperaturas requeridas en las zonas antes mencionadas son mayores, lo que obliga a la utilización de aleaciones austeníticas. Las aleaciones ferríticas de alto contenido de cromo, aunque presentan alta resistencia a la corrosión, sus propiedades mecánicas a altas temperaturas son menores que las necesarias.

La presencia de cloruro junto a los sulfatos también favorece enormemente la acción corrosiva. A continuación mostraremos un tubo con las manifestaciones de la corrosión por alta temperatura

Figura 13. Muestra de ceniza semifluida, observe como se pega a la superficie a 600 ºC.

No obstante se ha apreciado que cualquiera sea la aleación metálica el ataque se acelera considerablemente cuando desciende por debajo del punto de fusión de algún constituyente de las cenizas. Los vanadatos solos o mezclados con el sulfato de sodio presente en las cenizas son los agentes que más favorecen la corrosión de alta temperatura.

A temperaturas del medio inferior a las de fusión de las sustancias presentes en las cenizas la velocidad de corrosión es pequeña y se mantiene en los valores normales para las condiciones de temperatura elevada sin presencia de fase fundida también el grado de corrosión es baja.

La interface entre el tubo y el depósito es una fusión. Los electrones son liberados por el material a la interface donde la corrosión es acelerada por las impurezas en el depósito. La capa de óxido de cromo-hierro es destruida por impurezas, como el óxido de vanadio. Las impurezas disminuyen el punto de fusión de la capa Cr-Fe y causan corrosión acelerada por pitting. Esta es una corrosión peligrosa que debilita el material y puede conducir a la explosión del tubo.

A modo de ilustrar esquemáticamente veamos:

Figura 14. Interface líquida entre el tubo y el depósito.
Conclusiones

La corrosión por alta temperatura es aún un problema sin solución totalmente satisfactoria. Sin embargo la mejor forma de luchar contra ella es adoptando soluciones mixtas, que podemos resumirlas:

Los combustibles que utilicemos tratar que el V, Na y S sean lo menor posible

Exceso de Aire Mínimo posible

Inyección de sustancias que eleven el punto de fusión de las cenizas y al mismo tiempo ayuden a mejorar el proceso de combustión

Utilización de aleaciones cada vez más resistentes.

Preparación cada vez mayor del capital humano (personal directamente vinculado al proceso productivo).

Con este trabajo hemos pretendido, dar una idea general de los sucesos más significativos que ocurren en el generador de vapor por la parte de fuego, en cuanto a la denominada corrosión por alta temperatura. En posteriores trabajos profundizaremos y hablaremos de resultados obtenidos con la utilización de los denominados aditivos al combustible para minimizar estos fenómenos tan catastróficos.
Referencias Bibliográficas

1. Bienvenido Hernández. Formación de depósitos Tercer encuentro de aditivos Santiago de Cuba.

2. J. A González; E. Otero; M. López. Diversos aspectos de la corrosión en Calderas. Corrosión lado de fuego

3. Journal of the Institute of Fuel; February 1969. The chemistry of deposits in oil-fired boilers: the Na2SO4-V2O5-SO3 system

4. Roberto Roche. Corrosión y ensuciamiento por altas temperaturas .CTE Máximo Gómez. Tercer encuentro de aditivos Santiago de Cuba.

5. V. A. Proskuriakov. Química del petróleo y el gas.

Autor

Ing: Braulio Antonio Sánchez Martín

Centro: Universidad Agraria de La Habana

Ing. Isidro José Sánchez Weinstein.

AMPELOS.

*****************************************************
Lubricacion y lubricantes

Fricción
Lubricación
El mecanismo de la lubricación
Funciones de los lubricantes
Tipos de lubricantes
Composición de un lubricante
Un lubricante adecuado para cada aplicación
Almacenamiento, manejo y uso de lubricantes

SECCION UNO
Fricción

Qué es fricción?

Cuando una superficie se desliza sobre otra, siempre hay resistencia al movimiento. Esta fuerza de resistencia, o fricción, depende de la naturaleza de las dos superficies en contacto. Cuando la fricción es pequeña, por ejemplo cuando un esquiador se desliza hacia abajo sobre la nieve, el movimiento es suave y fácil. Cuando la fricción es grande, deslizarse se vuelve difícil, las superficies se calientan y sufren desgaste. Esto pasa, por ejemplo, cuando las pastillas de freno son aplicadas para disminuir la velocidad de un vehículo.

Qué causa la fricción?

La fricción es el resultado de la rugosidad de las superficies. Bajo microscopio electrónico, aún las superficies aparentemente más lisas (menos rugosas), muestran muchas rugosidades o asperezas.

Dos superficies que aparentan estar en contacto total, realmente se están tocando una con la otra en los picos de sus asperezas. Toda carga es por lo tanto soportada solamente en unos pequeños puntos y la presión sobre estos es enorme.

Cuando las superficies se mueven, las asperezas pueden quedar trancadas una con las otra y se pueden soldar. Cuanto más presione una superficie con la otra, mayor será la fricción.

Consecuencias de la fricción

En la mayoría de las máquinas es importante minimizar la fricción entre las partes móviles. Cuando la fricción es excesiva, tiene que hacerse trabajo adicional para continuar él movimiento. Esto genera calor y gasto de energía. La fricción también incrementa el desgaste y por tanto reduce la vida de la máquina.

Monografias.com

Más acerca de LA FRICCION

En física clásica hay dos leyes que describen la fricción entre dos superficies:

La primera ley de la fricción, establece que la fricción entre dos sólidos es independiente del área de contacto. Por lo tanto de acuerdo con esta ley, cuando un ladrillo es movido a lo largo de una lámina de metal la fuerza opuesta a su movimiento será la misma por cualquiera de sus caras.

Monografias.com

La segunda ley de la fricción, establece que la fricción es proporcional a la carga ejercida por una superficie sobre otra. Esto significa que, sí un segundo ladrillo es colocado encima del ladrillo del primer ejemplo, la fricción será duplicada. Tres ladrillos triplicarán la fricción y así sucesivamente.

Como la fuerza friccional entre dos superficies es, proporcional a la carga es posible definir un valor conocido como coeficiente de fricción, el cual es igual a la fricción dividida por la carga. El coeficiente de fricción depende de la naturaleza de las dos superficies en contacto. Para sólidos ordinarios oscila en el rango de 0.3 y 3. Cuando aplicamos un lubricante entre las dos superficies, el coeficiente de fricción y por lo tanto, la fuerza necesaria para producir el movimiento relativo, se reduce. De acuerdo a las leyes de fricción, el coeficiente de fricción de dos cuerpos debe ser una constante. En la práctica, éste varía ligeramente con cambios en la carga y con cambios en la velocidad de deslizamiento. La fuerza necesaria para que una superficie comience a deslizarse sobre otra, es decir, la fricción estática, es siempre mayor que la fricción dinámica, que se define como la fuerza necesaria para que ambas superficies se mantengan en movimiento una vez éste haya comenzado.
Lubricación

Qué es la lubricación?

Cualquier procedimiento que reduzca la fricción entre dos superficies móviles es denominado lubricación. Cualquier material utilizado para este propósito es conocido como lubricante.

Cómo reduce la fricción el lubricante?

La principal función de un lubricante es proveer una película para separar las superficies y hacer el movimiento más fácil. En un modelo donde un líquido actúa como lubricante, el líquido se comporta formando una película en las dos superficies externas, superior e inferior, adheridas firmemente. A medida que una de las superficies se mueva sobre la otra, las capas externas del lubricante permanecen adheridas a las superficies mientras que las capas internas son forzadas a deslizarse una sobre otra. La resistencia al movimiento no está gobernada por la fuerza requerida para separar las rugosidades de las dos superficies y poder moverse. En su lugar, esta resistencia está determinada por la fuerza necesaria para deslizar las capas de lubricante una sobre otra. Esta es normalmente mucho menor que la fuerza necesaria para superar la fricción entre dos superficies sin lubricar.

Las consecuencias de la lubricación

Debido a que la lubricación disminuye la fricción, ésta ahorra energía y reduce el desgaste. Sin embargo ni el mejor lubricante podría eliminar completamente la fricción. En el motor de un vehículo eficientemente lubricado, por ejemplo, casi el 20% de la energía generada es usada para superar la fricción.

Monografias.com

La lubricación siempre mejora la suavidad del movimiento de una superficie sobre otra. Esto se puede lograr de distintas maneras. Los distintos tipos de lubricación normalmente son denominados Regímenes de Lubricación. Durante el ciclo de trabajo de la máquina puede haber cambios entre los diferentes regímenes de lubricación.

Las mejores condiciones de lubricación existen cuando las dos superficies móviles están completamente separadas por una película de lubricante suficiente, como el modelo descrito anteriormente. Esta forma de lubricación es conocida como Hidrodinámica o lubricación de película gruesa. El espesor de la película de aceite depende principalmente de la viscosidad del lubricante, una medida de su espesor o la resistencia a fluir.

Por otro lado, la lubricación es menos eficiente cuando la película es tan delgada que el contacto entre las superficies tiene lugar sobre una área similar a cuando no existe lubricación. Estas condiciones definen la lubricación límite. La carga total es soportada por capas muy pequeñas de lubricante adyacentes a las superficies. La fricción es menor que en superficies completamente sin lubricar y está principalmente determinada por la naturaleza química del lubricante.

Varios regímenes de lubricación han sido identificados entre los dos extremos de lubricación hidrodinámica y límite.

Las siguientes son las dos más importantes:

Lubricación mixta o de película delgada, existe cuando las superficies móviles están separadas por una película de lubricante continua con espesor comparable a la rugosidad de las superficies. Esta carga entonces está soportada por una mezcla de presión de aceite y los contactos entre superficies de tal forma que las propiedades de este régimen de lubricación son una combinación tanto de lubricación hidrodinámica como límite.

La lubricación elastohidrodinámica, es un tipo especial de lubricación hidrodinámica la cual se puede desarrollar en ciertos contactos con altas cargas, tales como cojinetes y algunos tipos de engranajes. En estos mecanismos él lubricante es arrastrado hacia el área de contacto y luego sujeto a muy altas presiones a medida que es comprimido bajo carga pesada. El incremento de la presión tiene dos efectos. En primer lugar causa él incremento en la viscosidad del lubricante y por lo tanto un aumento en su capacidad de soportar cargas. En segundo lugar, la presión deforma las superficies cargadas y distribuye la carga sobre un área mayor.

Monografias.com
El mecanismo de la lubricación

La mayoría de las máquinas son lubricadas mediante líquidos. Cómo puede un líquido separar superficies y reducir la fricción entre ellas? Con el objeto de entender de que forma los líquidos lubrican en la práctica, es útil observar el caso del cojinete. En este dispositivo sencillo ampliamente utilizado, un eje soporta las cargas y rota dentro de una cavidad de aceite. Un ejemplo es una biela del motor de un vehículo. A medida que el eje rota, una cuña de aceite se forma entre las superficies, la cual genera suficiente presión para mantenerlas separadas y soportar la carga del eje. Las cuñas de aceite, se pueden formar en otro tipo de cojinetes, tales como cojinetes con elementos deslizantes y rodantes, por un mecanismo similar.

Monografias.com

La lubricación más eficiente, es la lubricación hidrodinámica y se obtiene cuando la película de aceite que se genera en un cojinete tiene un espesor varias veces mayor que la rugosidad de las superficies sólidas opuestas.

Si la película de aceite es demasiado delgada, las superficies entran en contacto directo, la fricción se incrementa, se genera calor y las superficies sufren desgaste.

Varios factores influyen en la formación de la película de aceite y por lo tanto en la eficiencia de la lubricación:

Viscosidad del lubricante. Este es el factor más importante. Sí la viscosidad del lubricante es demasiado baja, esto significa que la capa lubricante es demasiado delgada, y por tanto no será capaz de formar una cuña de aceite adecuada. Si, por otro lado, la viscosidad es demasiado alta, el espesor del lubricante puede restringir el movimiento relativo entre dos superficies. La viscosidad de un líquido disminuye al incrementarse la temperatura, por lo tanto un cojinete que esté lubricado eficientemente en frío puede que no trabaje bien a altas temperaturas. Estudiaremos la viscosidad y su variación con la temperatura con más detalle en la siguiente sección.

Diseño del cojinete. La forma de las superficies lubricadas debe favorecer la formación de una cuña de aceite. Por lo tanto debe haber un espacio adecuado entre las superficies móviles.

Alimentación del lubricante. Evidentemente la lubricación hidrodinámica no se puede desarrollar sí no hay suficiente lubricante para cubrir todas las superficies en contacto.

El movimiento relativo de las superficies. Cuanto mayor sea la velocidad de deslizamiento mayor será el grosor de la película de aceite, asumiendo que la temperatura permanezca constante. Una consecuencia importante de esto es que las superficies en movimiento, tenderán a entrar en contacto cuando el equipo arranque o pare.

Carga. A cualquier temperatura dada, un incremento de la carga tenderá a disminuir la película de aceite. Una carga excesiva tenderá a incrementar la fricción y el desgaste.

Funciones de los lubricantes

Los lubricantes no solamente deben lubricar. En la mayoría de las aplicaciones deben refrigerar, proteger, mantener la limpieza y algunas veces llevar a cabo otras funciones.

Lubricación. La principal función de un lubricante es simplemente hacer más fácil que una superficie se deslice sobre otra. Esto reduce la fricción, el desgaste y ahorra energía.

Refrigeración. Cualquier material que reduzca la fricción actuará como un refrigerante, simplemente, porque reduce la cantidad de calor generada cuando dos superficies rozan una contra otra. Muchas máquinas generan cantidades considerables de calor aún siendo correctamente lubricadas, este calor debe ser eliminado para que la máquina funcione eficientemente. Los lubricantes son frecuentemente usados para prevenir él sobrecalentamiento, transfiriendo calor de las áreas más calientes a las áreas más frías. Quizás el ejemplo más familiar de un lubricante empleado como refrigerante es él aceite utilizado en los motores de nuestros vehículos, pero esta función es vital en muchas otras aplicaciones. Los aceites para compresores, los aceites para turbinas, aceites para engranajes, aceites de corte y muchos otros lubricantes deben ser buenos refrigerantes.

Protección contra la corrosión. Obviamente, un lubricante no debe causar corrosión. Idealmente, debe proteger activamente las superficies que lubrica, inhibiendo cualquier daño que pueda ser causado por el agua, ácidos u otros agentes dañinos que contaminen el sistema. Los lubricantes deben proteger contra la corrosión en dos formas diferentes: Deben cubrir la superficie y proveer una barrera física contra el ataque químico, y además, deben neutralizar los químicos corrosivos que se generen durante la operación del equipo.

Mantenimiento de la limpieza. La eficiencia con la cual una máquina opera es reducida sí su mecanismo sé contamina con polvo y arena, o los productos del desgaste y la corrosión. Estas partículas sólidas pueden incrementar el desgaste, promover más corrosión y pueden bloquear las tuberías de alimentación de lubricante y los filtros. Los lubricantes ayudan a mantener las máquinas limpias y operando eficientemente, limpiando los contaminantes de los mecanismos. Algunos lubricantes, contienen además aditivos que suspenden las partículas y dispersan los contaminantes solubles en el aceite. Esto detiene la acumulación y depósito sobre las superficies de trabajo lubricadas.

Los lubricantes utilizados para aplicaciones particulares pueden requerir otras funciones además de las descritas anteriormente. Por ejemplo:

Sellado. El aceite utilizado en motores de combustión interna debe proveer un sellado efectivo entre los anillos del pistón y las paredes del cilindro. El sellado es también importante en la lubricación de bombas y compresores.

Transmisión de Potencia. Los aceites hidráulicos son usados para la transmisión y control de la potencia, al igual que lubrican el sistema hidráulico.

Aislamiento. Los aceites de aislamiento son utilizados en los transformadores eléctricos e interruptores de potencia.

SECCION DOS
Tipos de lubricantes

Hay básicamente cuatro tipos de materiales que pueden ser usados como lubricante:

Líquidos. Distintos líquidos pueden ser utilizados como lubricantes, pero los más ampliamente utilizados son los basados en aceites minerales derivados del petróleo. Su fabricación y composición será vista con más detalle en la próxima sección de este tutorial. Otros aceites utilizados como lubricantes son los aceites naturales (aceites animales o vegetales) y los aceites sintéticos. Los aceites naturales pueden ser excelentes lubricantes, pero tienden a degradarse más rápido en uso que los aceites minerales. En el pasado fueron poco utilizados para aplicaciones de ingeniería por sí solos, aunque algunas veces se usaron mezclados con los aceites minerales. Recientemente, ha habido un interés creciente sobre las posibles aplicaciones de los aceites vegetales como lubricantes. Estos aceites son biodegradables y menos nocivos al medio ambiente que los aceites minerales. Los aceites sintéticos son fabricados mediante procesos químicos y tienden a ser costosos. Son especialmente usados cuando alguna propiedad en particular es esencial, tal como la resistencia a temperaturas extremas, como es el caso de los lubricantes para motores aeronáuticos. A temperaturas normales de operación, los aceites fluyen libremente, de tal forma que pueden ser fácilmente alimentados hacia o desde las partes móviles de la máquina para proveer una lubricación efectiva, extraer el calor, y las partículas contaminantes. Por otro lado, debido a que son líquidos, pueden existir fugas en el circuito lubricante y provocar graves averías al no lubricar suficientemente las partes móviles del equipo.

Grasas. Una grasa es un lubricante semifluido generalmente elaborado a partir de aceites minerales y agentes espesantes (tradicionalmente jabón o arcilla), que permite retener el lubricante en los sitios donde se aplica. Las grasas protegen efectivamente las superficies de la contaminación externa, sin embargo, debido a que no fluyen como los aceites, son menos refrigerantes que éstos y más difíciles de aplicar a una máquina cuando está en operación.

Sólidos. Los materiales utilizados como lubricantes sólidos son grafito, bisulfuro de molibdeno y politetrafluoroetileno (PTFE o Teflón). Estos compuestos son utilizados en menor escala que los aceites y grasas, pero son perfectos para aplicaciones especiales en condiciones donde los aceites y las grasas no pueden ser empleados. Pueden ser usados en condiciones extremas de temperatura y ambientes químicos muy agresivos. Por ejemplo, las patas telescópicas del Módulo Lunar del Apolo fueron lubricadas con bisulfuro de molibdeno.

Gases. El aire y otros gases pueden ser empleados como lubricantes en aplicaciones especiales. Los cojinetes lubricados con aire pueden operar a altas velocidades, pero deben tener bajas cargas. Un ejemplo de lubricación por aire son las fresas de los dentistas.

En la siguiente tabla podremos encontrar las características de los distintos materiales lubricantes:

CARÁCTERÍSTICA

ACEITES

GRASAS

SÓLIDOS

GASES

Lubricación Hidrodinámica

****

*

x

***

Lubricación Límite

**

**

***

x

Refrigeración

****

*

x

**

Facilidad de alimentación

***

*

x

***

Permanencia en el sistema

*

***

****

*

Protección contra contaminación

*

***

**

*

Protección contra corrosión

***

**

**

x

Rango de temperatura de operación

**

**

****

***

Leyenda :

Excelente ****

Muy Bueno ***

Bueno **

Regular *

No aplicable x

PROPIEDADES IMPORTANTES DE LOS LUBRICANTES

Monografias.com

Muchos factores deben ser tenidos en cuenta cuando se escoge un aceite. El principal es la viscosidad.

Viscosidad

La definición más simple de viscosidad es la resistencia a fluir. Bajo las mismas condiciones de temperatura y presión un líquido con una viscosidad baja, como el agua, fluirá más rápidamente que líquido con alta viscosidad como la miel. La viscosidad de los aceites para motores de combustión interna, están clasificadas de acuerdo al sistema SAE diseñado por la Sociedad Americana de Ingenieros Automotrices. Para los aceites de motor se han especificado diez grados, cada uno correspondiente a un rango de viscosidad. Cuatro de los grados están basados en las medidas de viscosidad a 100°C. Estas son en su orden de incremento de la viscosidad, SAE 20, SAE 30,

SAE 40 y SAE 50. Los otros grados están basados en la medida de la máxima viscosidad a bajas temperaturas. Estos grados son: SAE 0W (medida a -30°C), SAE 5W (medida a -25°C), SAE 10W (medida a -20°C).

El sufijo “W” indica que un aceite es adecuado para uso en invierno. Los aceites que pueden ser clasificados en solo uno de los anteriores grados, son conocidos como aceites monogrado. Un aceite que cumpla con los requerimientos de dos grados simultáneamente, es conocido como un aceite multigrado. Por ejemplo, un aceite SAE 20W20 tiene una viscosidad a 100ºC que lo califica para el rango 20W.

Los grados SAE al igual que definen los grados de viscosidad, también definen la temperatura límite de bombeabilidad (BPT) para los grados “W” del aceite. La temperatura límite de bombeabilidad está definida como la temperatura más baja a la cual un aceite para motor puede ser continua y adecuadamente suministrado a la bomba de aceite del motor.

Un sistema similar al usado para los aceites de motor es utilizado para clasificar los aceites de engranajes automotrices. En este sistema, los grados

SAE 90, SAE 140 y SAE 250 están basados en las medidas de viscosidad a 100°C y los grados SAE 75W, 80W y 85W son medidas a -49°C, -26°C y -12°C respectivamente. El sistema de clasificación de estos aceites para engranajes es independiente del usado para aceites de motor, lo cual hace difícil comparar sus viscosidades. Por ejemplo, un aceite para motor SAE 50 puede realmente ser un poco más viscoso que un aceite para engranajes SAE 80W.

Se utilizan sistemas alternativos para clasificar los lubricantes industriales de acuerdo con sus viscosidades.

En el sistema ISO se definen 18 grados, cada uno cubre un pequeño rango de viscosidad y está especificado por el término ISO VG seguido por un número, el cual es una medida de su viscosidad a 40°C. Esta viscosidad, a cualquier grado, es mayor que su grado inmediatamente anterior. Es importante anotar que, cualquiera que sea el sistema de grados usado SAE, BSI o ISO, el número se relaciona solamente con la viscosidad del aceite. Esto no revela nada respecto al resto de sus propiedades.

Monografias.com

Más acerca de la viscosidad

La viscosidad puede ser definida en términos de un modelo simple, en el cual una película fina de líquido es colocada entre dos superficies planas paralelas. Las moléculas del líquido son consideradas como esferas que pueden rodar en capas entre las superficies a lo largo de ellas. La viscosidad del líquido es esencialmente una medida de la fricción entre dos moléculas mientras se mueven unas sobre las otras. Depende de las fuerzas entre las moléculas y por lo tanto están influenciadas por su estructura molecular.

Monografias.com

Suponga que la superficie inferior se mantiene estacionaria, y la superior es movida a lo largo a una velocidad constante. Las moléculas cerca de la superficie en movimiento tenderán a adherirse y a moverse con ella, las capas interiores se moverán igualmente pero más despacio, y las del fondo no se moverán. Este movimiento ordenado de las moléculas es definido como flujo viscoso y la diferencia en la velocidad de cada capa es conocida como velocidad de cizallamiento. La viscosidad es definida como límite elástico (que es la fuerza causante del movimiento de las capas) dividida por la velocidad de cizallamiento. Esta definición de viscosidad es la viscosidad absoluta o dinámica, y es usada por los ingenieros en cálculos de diseño de cojinetes. Es medida con una unidad conocida como centipoise (cP). Los fabricantes de lubricantes y los ingenieros normalmente encuentran más conveniente utilizar la definición alternativa, la viscosidad cinemática. Esta es la viscosidad dinámica dividida por la densidad del lubricante y su unidad son los centistokes (cSt). El agua a temperatura ambiente tiene una viscosidad cinemática cercana a 1 cSt y la viscosidad de la mayoría de los aceites lubricantes a su temperatura de operación oscila en el rango de 10 – 1000cSt.

Índice de Viscosidad

La selección de un lubricante adecuado requiere no solo conocer su viscosidad, sino también, entender la forma en la que cambia con la temperatura. La viscosidad de cualquier líquido disminuye a medida que la temperatura aumenta, por lo tanto, un aceite con una viscosidad apropiada a temperatura ambiente, puede ser muy delgado a la temperatura de operación, un aceite con viscosidad adecuada a la temperatura de operación puede llegar a ser tan viscoso a bajas temperaturas que impide el arranque en frío del mecanismo lubricado.

El índice de viscosidad de un lubricante describe el efecto de la temperatura en su viscosidad. Los aceites con una viscosidad muy sensible a los cambios de la temperatura se dice que tienen un bajo índice de viscosidad, los aceites de alto índice de viscosidad son menos sensibles a los cambios de temperatura. El índice de viscosidad de un aceite está determinado por su viscosidad a 40°C y 100°C. El rango normal de índice de viscosidad para aceites minerales es de 0 a 100. Aceites con índice de viscosidad mayor de 85, son llamados aceites de alto índice de viscosidad (HVI). Aquellos con índices menores a 30 son conocidos como aceites de bajo índice de viscosidad (LVI), los situados en el rango intermedio son conocidos como aceites de mediano índice de viscosidad (MVI). Como veremos en la siguiente sección, es posible incrementar el índice de viscosidad de un aceite mineral adicionando un mejorador del índice de viscosidad. Esto permite la producción de aceites de motor multigrados con índices de viscosidad superiores a 130.

A medida que un líquido se calienta las fuerzas entre sus moléculas se debilitan y éstas son capaces de moverse más libremente. La fricción entre ellas y la viscosidad del líquido disminuyen a medida que la temperatura se incrementa. Generalmente, para la mayoría de los líquidos comunes, entre más grandes sean las moléculas, m será afectada su viscosidad por los cambios de temperatura. Cuando se compara gráficamente viscosidad contra temperatura, se obtiene una curva suave, pero la forma precisa de la curva depende del líquido en particular. Debido a esto, muchas medidas de viscosidad y temperatura son necesarias antes de ser posible predecir exactamente la viscosidad a una temperatura dada. Sin embargo, se ha demostrado que para una escala diferente en los ejes de la gráfica, es posible producir una línea recta relacionando los datos de viscosidad y temperatura para la mayoría de los líquidos (las escalas escogidas son la logarítmica de la temperatura y el logaritmo de la viscosidad). Utilizando tales gráficas, es posible predecir la viscosidad de un líquido a cualquier temperatura, si se conocen las viscosidades a dos temperaturas. El sistema del índice de viscosidad depende de esta relación. El índice de viscosidad de un aceite desconocido es asignado comparando sus características de viscosidad/temperatura con aceites estándar de referencia. Los estándares usados fueron escogidos hace años y en ese tiempo fueron aceites que mostraron los mayores y menores cambios en la viscosidad con la temperatura. Sus índices de viscosidad fueron valores arbitrariamente asignados de 0 a 100 respectivamente, y se asumió que cualquier otro aceite tendría un índice de viscosidad entre estos límites.

Monografias.com

En la práctica, el sistema del índice de viscosidad tiene varias limitaciones particularmente para aceites con alto índice de viscosidad. Su uso principal, simplemente es dar una indicación de la forma como la viscosidad cambia con la temperatura.

Viscosidad y Presión

La viscosidad de un líquido depende de la presión al igual que de la temperatura. Un incremento en la presión comprime las moléculas de un líquido, incrementando la fricción entre ellas, por lo tanto aumenta la viscosidad. Para muchas aplicaciones, este efecto no es significativo, pero cuando los lubricantes están sujetos a presiones muy altas (200 bar o más) como por ejemplo en los dientes de un engranaje o en los rodamientos de un cojinete, la viscosidad del lubricante puede cambiar. Adicional a la viscosidad, otras propiedades deben ser consideradas para asegurar que un lubricante continúa lubricando, refrigerando, protegiendo contra la corrosión, manteniendo la limpieza y llevando acabo cualquier otra función requerida con seguridad y por el máximo período de tiempo para una aplicación dada.

Fluidez a baja temperatura

Cuando las máquinas están operando en condiciones frías es importante que los aceites usados para lubricarlas retengan la habilidad para fluir a bajas temperaturas. La temperatura más baja a la cual un aceite fluirá, es conocida como su punto de fluidez. En la práctica, los lubricantes deben tener un punto de fluidez de menos 10°C por debajo de la temperatura a la cual se espera trabajar.

Estabilidad térmica

Si un aceite se calienta en su uso, es importante que no se descomponga hasta el extremo de no poder lubricar adecuadamente, o que se liberen productos inflamables o peligrosos.

Estabilidad química

Los lubricantes pueden entrar en contacto con una variedad de sustancias, por lo tanto deben ser capaces de soportar el ataque químico de éstas, o de lo contrario serán inadecuados para su uso. La oxidación, reacción con el oxígeno del aire, es la causa más importante del deterioro de los aceites minerales. Esto acidifica el aceite, pudiendo corroer las superficies y formar depósitos de gomas sobre piezas que operan a altas temperaturas. La oxidación también produce lodos que alteran la fluidez del aceite.

Monografias.com

Propiedades de transferencia de calor

Los lubricantes que son buenos conductores de calor deben ser usados donde sea necesario extraer calor de un cojinete. La habilidad de un material para conducir calor es su conductividad térmica. Usualmente, los aceites con baja viscosidad son mejores conductores de calor que los aceites de mayor viscosidad. Un sistema donde la refrigeración depende de la circulación del aceite, el calor específico del aceite es una propiedad importante. Esta determina la cantidad de calor que el aceite puede extraer.

Corrosividad

Un lubricante no debe corroer la superficie metálica con el que entra en contacto. Muchos aceites minerales tienen pequeñas cantidades de ácidos débiles, los cuales no suelen ser nocivos. Sin embargo, como se mencionó anteriormente, los aceites minerales que están en contacto con el aire a altas temperaturas son oxidados, produciendo compuestos ácidos. El aceite entonces puede volverse corrosivo a los metales. La acidez o basicidad de un lubricante puede ser expresada en términos de la cantidad del compuesto alcalino o ácido necesario para neutralizarlo. La evaluación de este número de neutralización da una indicación del deterioro de un aceite en servicio.

Demulsificación (separabilidad del agua)

Cuando se añade agua al aceite, normalmente se forman dos capas claramente visibles debido a que es insoluble. En algunos casos, sin embargo, es posible dispersar agua en aceite o aceite en agua, en forma de pequeñas gotas. Estas mezclas son conocidas como emulsiones. En la mayoría de las aplicaciones industriales la formación de emulsiones debe ser evitada. Las emulsiones tienen un efecto dañino sobre la habilidad del aceite a lubricar y pueden promover la corrosión de las superficies lubricadas.

En turbinas, compresores, sistemas hidráulicos y otras aplicaciones donde los lubricantes pueden contaminarse con agua, es importante que éstos tengan buenas propiedades demulsificantes. Cualquier agua contaminante debe separarse rápidamente del lubricante para que pueda ser drenada y el aceite continúe funcionando eficientemente.

Aunque la emulsificación es usualmente indeseable, algunos lubricantes son formulados deliberadamente como emulsiones. Por ejemplo, en el corte de metales, emulsiones de aceite en agua son usadas debido a que proporcionan enfriamiento efectivo y buena lubricación a la herramienta de corte. Las emulsiones de agua en aceite son utilizadas como tipo de fluidos hidráulicos resistentes al fuego.

Inflamabilidad

No debe haber ningún riesgo de que el aceite se incendie en las condiciones normales de trabajo. Una indicación a la resistencia al fuego de un aceite puede ser obtenida determinando su punto de inflamación. Este es la temperatura más baja a la cual los vapores que emana el lubricante pueden ser inflamados por una llama abierta. Vale la pena anotar que el riesgo de fuego en el punto de inflamación es muy pequeño. No solo el aceite debe ser calentado a esa temperatura, sino que la llama debe estar muy cerca para que el aceite se inflame. Los aceites minerales de baja viscosidad usualmente tienen puntos de chispa por encima de 120°C.

Compatibilidad con juntas

Un lubricante no puede tener ningún efecto indeseable sobre los demás componentes del sistema. Por ejemplo, debe ser compatible con las juntas, con los manguitos utilizados para transferir el lubricante del depósito y con cualquier pintura, plástico o adhesivo con el cual pueda entrar en contacto.

Toxicidad

Los lubricantes no deben obviamente causar daño alguno a la salud. Los lubricantes más habituales usados están basados en aceites minerales altamente refinados, lo que les hace relativamente poco nocivos, especialmente en exposición limitada. Sin embargo, éstos contienen aditivos que presentan algún tipo de peligro específico a la salud y seguridad. En aceites industriales, los aditivos están presentes solamente en pequeñas cantidades, de tal forma que el peligro es muy reducido. Cualquier riesgo potencial es minimizado con precauciones de sentido común, tales como, no dejar que los lubricantes entren en contacto con la piel, ojos y mucosas, y prevenir la inhalación o la ingestión accidental.

En aquellas aplicaciones donde un lubricante conteniendo aditivos peligrosos, es esencial que los fabricantes proporcionen información clara de los riesgos involucrados y especificar si se requiere de precauciones adicionales de seguridad. Esta información se debe dar a conocer a los usuarios mediante hojas de información sobre seguridad de los productos y advertencias en el etiquetado de los productos.

Sección Tres
Composición de un lubricante

La gran mayoría de los lubricantes son fabricados con aceites minerales, obtenidos del petróleo crudo. Originalmente, los aceites lubricantes minerales eran simplemente aquellas fracciones de viscosidad adecuada obtenidas durante la destilación del petróleo. Hoy en día, la fabricación de lubricantes es un proceso mucho más complicado.

El proceso involucra varías etapas de refinación y mezcla para la producción de aceites base de propiedades adecuadas. Los aceites base por sí mismos no son capaces de llevar a cabo todas las funciones requeridas para un lubricante. Por lo tanto, se le deben agregar aditivos al aceite base para obtener el Lubricante final. Los aditivos deben mejorar las propiedades del aceite base y proporcionarle nuevas características.

Porqué utilizar aceites minerales?

Los aceites minerales son ampliamente usados como lubricantes debido a que poseen tres propiedades crucialmente importantes:

Tienen características de viscosidad adecuadas.

Son refrigerantes efectivos debido a su alta conducción del calor y alto calor específico.

Tienen la capacidad de proteger contra la corrosión.

Además, los aceites minerales:

Son relativamente de bajo coste.

Son estables térmicamente.

Son compatibles con la mayoría de los componentes usados en los sistemas de lubricación.

Son virtualmente poco peligrosos a la salud.

Pueden ser mezclados con otros aceites y una gran variedad de aditivos para extender o modificar sus propiedades y pueden ser fabricados para producir las características físicas requeridas.

ACEITES BASES

El aceite base para la fabricación de lubricantes es producido a partir de la refinación del petróleo crudo y la mezcla con productos refinados. Los aceites crudos son mezclas complejas de compuestos químicos. Su composición varía considerablemente dependiendo de sus orígenes, y por tanto sus propiedades. Combinando aceite base en varias proporciones, es posible producir un gran número de mezclas con una gran variedad de viscosidades y propiedades químicas.

Como las propiedades de un aceite base son consecuencia de su composición química, vale la pena mirar un poco más de cerca los componentes de un aceite mineral. Todos los aceites minerales consisten principalmente de hidrocarburos, estos son compuestos químicos formados por moléculas de carbono e hidrógeno. Hay tres tipos de básicos de hidrocarburos: Alcanos, cicloalcanos y aromáticos.

Alcanos (parafinas)

Estos compuestos, en el pasado llamados parafinas, están conformados por cadenas rectas o ramificadas de átomos de carbono. Son muy estables al calor y a la oxidación. Tienen alto índice de viscosidad, pero fluyen relativamente mal a bajas temperaturas.

Cicloalcanos (nafténicos)

*****************************************************
Definnicion y antecedentes de los Robots

Introducción
Historia
Los robots en la industria: evolución y perspectivas
Mirando hacia el futuro
Eventos, fechas y datos curiosos
Bibliografía

Introducción

Qué es un robot

Un robot es una máquina controlada por ordenador y programada para moverse, manipular objetos y realizar trabajos a la vez que interacciona con su entorno. Su objetivo principal es el de sustituir al ser humano en tareas repetitivas, difíciles, desagradables e incluso peligrosas de una forma más segura, rápida y precisa. Algunas definiciones aceptadas son las siguientes:

“Dispositivo multifuncional reprogramable diseñado para manipular y/o transportar material a través de movimientos programados para la realización de tareas variadas.” (Robot Institute of America, 1979).

“Dispositivo automático que realiza funciones normalmente adscritas a humanos o máquina con forma humana.” (Webster Dictionary).

Esta última definición, sin embargo, no es la más acertada, ya que un robot no tiene porqué tener forma humana. Un lavavajillas es un robot, así como los satélites artificiales, el “tractor” lunar soviético Lunakhod o la sonda exploradora de la NASA Mars Pathfinder. Toda una refinería petrolífera controlada por computador también puede ser considerada un robot.

Los robots exhiben tres elementos claves según la definición adoptada:

Programabilidad, lo que significa disponer de capacidades computacionales y de manipulación de símbolos (el robot es un computador).

Capacidad mecánica, que lo capacita para realizar acciones en su entorno y no ser un mero procesador de datos (el robot es una máquina).

Flexibilidad, puesto que el robot puede operar según un amplio rango de programas y manipular material de formas distintas.

Con todo, se puede considerar un robot como una máquina complementada con un computador o como un computador con dispositivos de entrada y salida sofisticados.

La idea más ampliamente aceptada de robot está asociada a la existencia de un dispositivo de control digital que, mediante la ejecución de un programa almacenado en memoria, va dirigiendo los movimientos de un brazo o sistema mecánico. El cambio de tarea a realizar se verifica ordenando el cambio de programa.

Origen de la palabra robot

El término procede de la palabra checa robota, que significa ‘trabajo obligatorio’; fue empleado por primera vez en la obra teatral R.U.R. (Robots Universales de Rossum), estrenada en Enero de 1921 en Praga por el novelista y dramaturgo checo Karel Capek. La obra fue un éxito inmediato y pronto se estrenó en multitud de teatros por toda Europa y Estados Unidos. En ella, el gerente de una fábrica construía unos seres al absoluto servicio del hombre, que realizaban todas las tareas mientras los humanos se dedicaban al ocio permanente. Cuando el gerente de la fábrica decide construir robots más perfectos que experimentaran felicidad y dolor, todo cambia. Los robots se sublevan contra los hombres y destruyen al género humano.

Áreas de aplicación

El término Robótica se refiere a la ciencia o arte relacionada con la inteligencia artificial (para razonar) y con la ingeniería mecánica (para realizar acciones físicas sugeridas por el razonamiento). Este término fue acuñado en 1942 por el bioquímico, escritor y divulgador científico norteamericano de origen ruso Isaac Asimov en su novela corta Runaround.

Monografias.com

La nueva capacidad de las máquinas para comunicar y controlar procesos, dirigir operaciones y cumplir las órdenes, e incluso aprender, llevó al desarrollo de una nueva ciencia: la Cibernética, palabra que deriva del vocablo griego Kybernetes, que significa “timonel”. Fundada en la década de 1940 por el matemático norteamericano Norbert Wiener, es la ciencia que estudia la comunicación entre el hombre y la máquina, y entre las propias máquinas. De la mano de la Cibernética se desarrolló la Biónica, ciencia que estudia todos los aspectos relativos a la simulación de actividades humanas y animales por medio de máquinas.

El área de conocimiento en la que se enmarca la Robótica es la Automática, definida por la Real Academia de las Ciencias como la disciplina que se ocupa de los métodos y procedimientos cuya finalidad es la sustitución del operador humano por un operador artificial en la ejecución de una tarea física y mental, previamente programada. A partir de esta definición, en la Automática se pueden diferenciar dos componentes claros:

Una Unidad de Control que gobierna las acciones a realizar. Este gobierno debe cumplir ciertos criterios u objetivos del control como la estabilización ante perturbaciones, o la evolución temporal y el comportamiento dinámico óptimo respecto a determinados parámetros de calidad. Los avances en el campo de la inteligencia artificial permiten dotar a estas unidades de aspectos más avanzados como la toma de decisiones o el aprendizaje.

Un Actuador que realiza las acciones programadas bajo la supervisión de la unidad de control. Estos dispositivos pueden ir desde los casos más elementales, como accionadores hidráulicos, neumáticos o electromecánicos hasta máquinas más complejas como manipuladores, máquinas-herramientas y, quizás los autómatas por excelencia, los robots.

La coordinación entre ambos componentes mediante el intercambio de información es lo que permite conseguir la realización correcta de las tareas a realizar. Puesto que es posible definir la Informática como la ciencia que estudia el tratamiento de la información, es evidente que existe una relación clara entre Automática e Informática.
Historia

El concepto de máquinas automatizadas se remonta a la antigüedad, con mitos de seres mecánicos vivientes. Los autómatas, o máquinas semejantes a personas, ya aparecían en los relojes de las iglesias medievales, y los relojeros del siglo XVIII eran famosos por sus ingeniosas criaturas mecánicas.

El control por realimentación, el desarrollo de herramientas especializadas y la división del trabajo en tareas más pequeñas que pudieran realizar obreros o máquinas fueron ingredientes esenciales en la automatización de las fábricas en el siglo XVIII. A medida que mejoraba la tecnología se desarrollaron máquinas especializadas para tareas como poner tapones a las botellas o verter caucho líquido en moldes para neumáticos. Sin embargo, ninguna de estas máquinas tenía la versatilidad del brazo humano, y no podían alcanzar objetos alejados y colocarlos en la posición deseada.

En la década de 1890 el científico Nikola Tesla, inventor, entre muchos otros dispositivos, de los motores de inducción, ya construía vehículos controlados a distancia por radio. Tesla fue un visionario que escribió sobre mecanismos inteligentes tan capaces como los humanos.

Las máquinas más próximas a lo que hoy en día se entiende como robots fueron los “teleoperadores”, utilizados en la industria nuclear para la manipulación de sustancias radiactivas. Básicamente se trataba de servomecanismos que, mediante sistemas mecánicos, repetían las operaciones que simultáneamente estaba realizando un operador.

Inmediatamente después de la Segunda Guerra Mundial comienzan los primeros trabajos que llevan a los robots industriales. A finales de los 40 se inician programas de investigación en los laboratorios de Oak Ridge y Argonne National Laboratories para desarrollar manipuladores mecánicos para elementos radiactivos. Estos manipuladores eran del tipo “maestro-esclavo”, diseñados para que reprodujeran fielmente los movimientos de brazos y manos realizados por un operario.

El inventor estadounidense George C. Devol desarrolló en 1954 un dispositivo de transferencia programada articulada (según su propia definición); un brazo primitivo que se podía programar para realizar tareas específicas.

En 1958, Devol se unió a Joseph F. Engelberger y, en el garaje de este último, construyeron un robot al que llamaron Unimate. Era un dispositivo que utilizaba un computador junto con un manipulador que conformaban una “máquina” que podía ser “enseñada” para la realización de tareas variadas de forma automática. En 1962, el primer Unimate fue instalado a modo de prueba en una planta de la General Motors para funciones de manipulación de piezas y ensamblaje, con lo que pasó a convertirse en el primer robot industrial. Devol y Engelberger fundarían más tarde la primera compañía dedicada expresamente a fabricar robots, Unimation, Inc., abreviación de Universal Automation

Se puede considerar este punto como el inicio de la era de la Robótica tal como la conocemos, mediante la utilización de los robots programados, una nueva y potente herramienta de fabricación.

Durante la década de los 60, un nuevo concepto surge en relación con los anteriores avances. En vistas a una mayor flexibilidad, se hace necesaria la realimentación sensorial. En 1962, H. A. Ernst publica el desarrollo de una mano mecánica controlada por computador con sensores táctiles llamada MH-1. Este modelo evolucionó adaptándole una cámara de televisión dentro del proyecto MAC. También en 1962, Tomovic y Boni desarrollan una mano con un sensor de presión para la detección del objeto que proporcionaba una señal de realimentación al motor.

En 1963 se introduce el robot comercial VERSATRAN por la American Machine and Foundry Company

(AMF). En el mismo año se desarrollan otros brazos manipuladores como el Roehampton y el Edinburgh.

En 1967 y 1968 Unimation recibe sus primeros pedidos para instalar varios robots de la serie Unimate 2000 en las cadenas de montaje de la General Motors. Al año siguiente los robots ensamblaban todos los coches Chevrolet Vega de esta compañía.

En 1968 se publica el desarrollo de un computador con “manos”, “ojos” y “oídos” (manipuladores, cámaras de TV y micrófonos) por parte de McCarthy en el Stanford Artificial Intelligence Laboratory. En el mismo año, Pieper estudia el problema cinemático de un manipulador controlado por un computador. También este año,

la compañía japonesa Kawasaki Heavy Industries negocia con Unimation la licencia de sus robots. Este momento marca el inicio de la investigación y difusión de los robots industriales en Japón.

Monografias.com

El brazo Stanford(1969).

En 1969 se demuestran las propiedades de la visión artificial para vehículos autoguiados en el Stanford Research Institute. Este mismo año se desarrollaron los brazos Boston y Stanford, este último dotado de una cámara y controlado por computador. Sobre el brazo Stanford se desarrolló un experimento en el que el manipulador apilaba bloques según determinados criterios.

Las primeras aplicaciones industriales en Europa, aplicaciones de robots industriales en cadenas de fabricación de automóviles, datan de los años 1970 y 1971. En este último año, Kahn y Roth analizan el comportamiento dinámico y el control de un brazo manipulador.

Durante la década de los 70, la investigación en robótica se centra en gran parte en el uso de sensores externos para su utilización en tareas de manipulación. Es también en estos años cuando se consolida definitivamente la presencia de robots en las cadenas de montaje y plantas industriales en el ámbito mundial.

En 1972 se desarrolló en la universidad de Nottingham, Inglaterra, el SIRCH, un robot capaz de reconocer y orientar objetos en dos dimensiones. Este mismo año, la empresa japonesa Kawasaki instala su primera cadena de montaje automatizada en Nissan, Japón, usando robots suministrados por Unimation, Inc.

En 1973, Bolles y Paul utilizan realimentación visual en el brazo Stanford para el montaje de bombas de agua de automóvil. También este mismo año, la compañía sueca ASEA (futura ABB), lanza al mercado su familia de robots IRB 6 e IRB 60, para funciones de perforación de piezas.

En 1974, Nevins y sus colaboradores, en el Draper Laboratory, investigan técnicas de control basadas en la coordinación de fuerzas y posiciones, y Bejczy, en el Jet Propulsion Laboratory, desarrolla una técnica para el control de par basada en el robot Stanford. El mismo año, Inoue, en el Artificial Intelligence Laboratory del MIT, desarrolla trabajos de investigación en los que aplica la inteligencia artificial en la realimentación de fuerzas.

Monografias.com

Shakey, el primer vehículo autoguiado controlado por inteligencia artificial (1970).

También este mismo año, la empresa Cincinatti Milacron introduce el T3 (The Tomorrow Tool), su primer robot industrial controlado por computador. Este manipulador podía levantar más de 100 libras y seguir objetos móviles en una línea de montaje.

En 1975, Will y Grossman, en IBM, desarrollaron un manipulador controlado por computador con sensores de contacto y fuerza para montajes mecánicos. Este mismo año, el ingeniero mecánico estadounidense Victor Scheinman, cuando estudiaba la carrera en la Universidad de Stanford, California, desarrolló un manipulador polivalente realmente flexible conocido como Brazo Manipulador Universal Programable (PUMA, siglas en inglés). El PUMA era capaz de mover un objeto y colocarlo en cualquier orientación en un lugar deseado que estuviera a su alcance. El concepto básico multiarticulado del PUMA es la base de la mayoría de los robots actuales.

En 1976, estudios sobre el control dinámico llevados a cabo en los laboratorios Draper, Cambridge, permiten a los robots alinear piezas con movimientos laterales y rotacionales a la vez.

En 1979 Japón introduce el robot SCARA (Selective Compliance Assembly Robot Arm), y la compañía italiana

DEA (Digital Electric Automation), desarrolla el robot PRAGMA para la General Motors.

Monografias.com

El robot PUMA.

En la década de los 80 se avanza en las técnicas de reconocimiento de voz, detección de objetos móviles y factores de seguridad. También se desarrollan los primeros robots en el campo de la rehabilitación, la seguridad, con fines militares y para la realización de tareas peligrosas. Así por ejemplo, en 1982, el robot Pedesco, se usa para limpiar un derrame de combustible en una central nuclear. También se pone un gran énfasis en los campos de visión artificial, sensorización táctil y lenguajes de programación. Gracias a los primeros pasos dados por compañías como IBM o Intelledex Corporation, que introdujo en 1984 el modelo ligero de ensamblaje 695, basado en el microprocesador Intel 8087 y con software Robot Basic, una modificación del Microsoft Basic, actualmente se tiende al uso de una interfaz (el ordenador) y diversos lenguajes de programación especialmente diseñados, que evitan el “cuello de botella” que se producía con la programación “clásica”. Esta puede ser ahora on-line u off-line, con interfaces gráficas (user-friendly interfaces) que facilitan la programación, y un soporte SW+HW que tiende a ser cada vez más versátil.
Los robots en la industria: evolución y perspectivas

En 1995 funcionaban unos 700.000 robots en el mundo industrializado. Más de 500.000 se empleaban en Japón, unos 120.000 en Europa Occidental y unos 60.000 en Estados Unidos. Muchas aplicaciones de los robots corresponden a tareas peligrosas o desagradables para los humanos. En los laboratorios médicos, los robots manejan materiales que conlleven posibles riesgos, como muestras de sangre u orina. En otros casos, los robots se emplean en tareas repetitivas y monótonas en las que el rendimiento de una persona podría disminuir con el tiempo. Los robots pueden realizar estas operaciones repetitivas de alta precisión durante 24 horas al día sin cansarse. Uno de los principales usuarios de robots es la industria del automóvil. La empresa General Motors utiliza aproximadamente 16.000 robots para trabajos como soldadura por puntos, pintura, carga de máquinas, transferencia de piezas y montaje. El montaje es una de las aplicaciones industriales de la robótica que más está creciendo. Exige una mayor precisión que la soldadura o la pintura y emplea sistemas de sensores de bajo coste y computadoras potentes y baratas. Los robots se usan por ejemplo en el montaje de aparatos electrónicos, para montar microchips en placas de circuito.

Las actividades que entrañan gran peligro para las personas, como la localización de barcos hundidos, la búsqueda de depósitos minerales submarinos o la exploración de volcanes activos, son especialmente apropiadas para emplear robots. Los robots también pueden explorar planetas distantes. La sonda espacial no tripulada Galileo, de la NASA, viajó a Júpiter en 1996 y realizó tareas como la detección del contenido químico de la atmósfera joviana.

Ya se emplean robots para ayudar a los cirujanos a instalar caderas artificiales, y ciertos robots especializados de altísima precisión pueden ayudar en operaciones quirúrgicas delicadas en los ojos. La investigación en telecirugía emplea robots controlados de forma remota por cirujanos expertos; estos robots podrían algún día efectuar operaciones en campos de batalla distantes.

Todo este avance se ha producido en unos 30 años. Hasta la mitad de los años 70 no comienza a ser la

robótica lo que puede considerarse como el inicio de una industria. Entre 1975 y 1977 se estima que las ventas de Unimation (prácticamente la única empresa existente) se multiplicaron por 2.5. A partir de ahí, seis empresas más, bastante significativas (Cincinatti Milacron, Asea, etc.), deciden entrar en el mercado de la robótica, comenzando también la industria del automóvil a realizar pedidos importantes. Hasta el año 1979 las ventas van pasando desde 15 millones de dólares en 1976 a 25 en 1977, 30 en 1978 y 45 millones de dólares

en 1979, es decir, triplicándose en tres años; otras industrias, diferentes a las del automóvil, comienzan a descubrir la robótica, aunque lentamente, produciéndose una espectacular expansión.

A mediados de los 80, la industria de la robótica experimentó un rápido crecimiento debido principalmente a grandes inversiones de las empresas del automóvil. Esta rápida intención de transición hacia la industria del futuro tuvo fatales consecuencias en la viabilidad económica de muchas empresas, provocando una crisis del sector de la que la industria de la robótica no se ha recuperado hasta hace pocos años.
Mirando hacia el futuro

Las máquinas automatizadas ayudarán cada vez más a los humanos en la fabricación de nuevos productos, el mantenimiento de las infraestructuras y el cuidado de hogares y empresas. Los robots podrán fabricar nuevas autopistas, construir estructuras de acero para edificios, limpiar conducciones subterráneas o cortar el césped. Ya existen prototipos que realizan todas esas tareas.

Una tendencia importante es el desarrollo de sistemas microelectromecánicos, cuyo tamaño va desde centímetros hasta milímetros. Estos robots minúsculos podrían emplearse para avanzar por vasos sanguíneos con el fin de suministrar medicamentos o eliminar bloqueos arteriales. También podrían trabajar en el interior de grandes máquinas para diagnosticar con antelación posibles problemas mecánicos.

Puede que los cambios más espectaculares en los robots del futuro provengan de su capacidad de razonamiento cada vez mayor. El campo de la inteligencia artificial está pasando rápidamente de los laboratorios universitarios a la aplicación práctica en la industria, y se están desarrollando máquinas capaces de realizar tareas cognitivas como la planificación estratégica o el aprendizaje por experiencia. El diagnóstico

de fallos en aviones o satélites, el mando en un campo de batalla o el control de grandes fábricas correrán cada vez más a cargo de ordenadores inteligentes.
Eventos, fechas y datos curiosos

Cuenta la leyenda que, a finales del siglo XVII, un adolescente alemán era objeto de las burlas de sus compañeros de clase y de su profesor, por su dificultad para aprenderse de memoria las tablas de multiplicar. Ya en su casa, decidió inventar alguna forma más sencilla de realizar multiplicaciones y demás operaciones. Y lo hizo: a la mañana siguiente, Gottfried Wilhelm Leibnitz, que así se llamaba el joven, presentó ante sus atónitos compañeros y profesor un nuevo sistema numérico basado en dos dígitos, el cero y el uno. Leibnitz inventó el sistema binario, origen de la tecnología digital y, por lo tanto, componente fundamental en el desarrollo de la Informática y la Automática.

En el siglo XIX, el barón húngaro Wolfgang von Kempelen asombró al mundo con su ajedrecista de Maeltzel. Este autómata consistía en un muñeco vestido a la manera turca frente a un gran tablero de ajedrez sobre una mesa. Fue exhibido de exposición en exposición por las principales ciudades de Europa y derrotó, entre otros, a Napoleón y Federico el Grande, rey de Prusia. Después de un incendio fortuito en una exposición en Filadelfia, Estados Unidos, en donde se exhibía, quedó en evidencia que el notable mecanismo del artefacto era en realidad un enano, experto ajedrecista, que, escondido bajo el tablero, movía desde allí las piezas.

Karel Capek fue un escritor prolífico e influyente. Fue propuesto varias veces como candidato al premio Nobel. Murió en 1938 de muerte natural, poco antes de que la Gestapo diera con él, pues lo querían muerto por sus simpatías anti-nazis. Sus Robots en la obra de teatro R.U.R. no estaban fabricados a base de componentes mecánicos, como se cree, sino que tenían un origen químico. Esta obra trataba, en realidad, de la deshumanización del hombre en una civilización tecnológica. Más tarde escribió en un ensayo sobre la posibilidad de que algún día existieran robots pensantes, negando tal posibilidad “con horror” y llegando a afirmar que la idea de que en unas máquinas pudieran aflorar sentimientos como el amor o la rebelión sería “una grave ofensa contra la vida”.

Existe cierta evidencia de que la palabra robot no proviene de Karel Capek, sino de su hermano Josef, escritor como él. En una carta, cuenta Karel que le preguntó a su hermano cómo podría llamar a esos seres que estaba ideando para su nueva obra de teatro. Él había pensado en llamarlos “Labori”, pero le parecía demasiado culto. “¡Pues llámalos robots!”, le espetó su hermano Josef, y le volvió la espalda para continuar con sus asuntos.

En 1927, el director alemán Fritz Lang creaba el primer robot cinematográfico, un robot con apariencia de mujer que liberaba a los trabajadores de una factoría industrial en su película Metrópolis.

En 1949, sólo dos años después de que se inventara la primera computadora electrónica, se comenzó a debatir si algún día las máquinas podrían llegar a pensar por sí mismas. Muchas personas, como el neurocirujano británico Jefferson, dijeron que la inteligencia de una máquina nunca sería capaz de igualar la de una persona. Las máquinas no tienen sentimientos, luego nunca podrían pensar como un humano. El matemático Alan Turing escribió, sin embargo, que él no veía ninguna razón por la cual un robot nunca sería capaz de igualar la inteligencia de un humano en cualquier campo de trabajo.

Aún llegó más lejos y declaró que algún día las máquinas serían capaces de pensar. Para ello, ideó el Turing Test, un formulario de preguntas que un humano introduce en una conversación con una máquina. El ordenador pasa el test cuando sus respuestas consiguen confundir a su interlocutor humano hasta el punto de que este realmente piense que está hablando con otra persona. Actualmente, los investigadores en inteligencia artificial plantean bromas o cuestiones a las máquinas con el objetivo de lograr una respuesta emocional. Una de ellas podría ser la siguiente: “¿Porqué el individuo autoconsciente miró su imagen en el espejo?”. Respuesta: “Para llegar al otro lado”. Se supone que, si la máquina comprende este chiste malo y, además, se ríe (le hace gracia), entonces habrá alcanzado el status de individuo autoconsciente.

Asimov publicó numerosas novelas y ensayos de ciencia-ficción. Las más famosas son I, Robot(Yo, Robot)(1950), The Foundation Trilogy (Trilogía de la Fundación)(1951-52), The Foundation Edge (Los límites de la Fundación)(1982) y The Gods Themselves (Los Dioses mismos)(1972), novela que ganó los premios Hugo y Nebula de ciencia-ficción. En Yo, Robot, propuso sus tres famosas Leyes de la Robótica, a las que luego añadió una Ley Cero. Estas son:

Ley Cero: un robot no dañará a la humanidad, ni permitirá por inacción que la humanidad sea dañada. Ley Uno: un robot no dañará a un ser humano, ni permitirá por inacción que un ser humano sea dañado, a menos que esto contradiga una ley de mayor orden.

Ley Dos: un robot debe obedecer una orden dada por un ser humano, excepto cuando estas órdenes contradigan una ley de mayor orden.

Ley Tres: un robot debe proteger su propia existencia siempre que esta protección no contradiga una ley de mayor orden.

Que se sepa, la implantación de estas leyes no ha pasado de las novelas.

En 1954 se registró la primera patente de un robot en el Reino Unido. George C. Devol patentó el primer robot en Estados Unidos en 1961.

En 1956, dos amigos se encontraron en una fiesta y estuvieron hablando sobre las novelas de Asimov y la posibilidad real de construir robots. Estos dos amigos eran George C. Devol y Joseph F. Engelberger, futuros fundadores de Unimation y padres de la robótica moderna.

Ese mismo año, en el Dartmouth College se muestra el Logic Theorist, una máquina de inteligencia artificial capaz de elaborar y comprobar proposiciones lógicas punto a punto.

El primer robot Tralfa se instaló en 1964 en una factoría noruega, durante un período de carencia de mano de obra, para pintar tapacubos. Dos años más tarde, la ciudad industrial de Byrne (Noruega) contaba con toda una flota de estos “robots pintores”.

La robótica ha contribuido de manera esencial en la conquista del espacio. En 1966, la nave espacial robotizada Surveyor aterrizaba en la Luna. En 1970, el “tractor” ruso Lunakhod recorría la superficie selenita, tomando muestras. La nave espacial Viking aterrizaba en 1976 en el suelo de Marte. En 1999, la sonda Mars Pathfinder tomaba muestras del suelo marciano…

La primera compañía en usar visión artificial para una aplicación industrial fue la General Motors en 1970, en una factoría de Ontario, Canadá.

El primer país que tuvo una institución dedicada a los robots fue Japón, que instauró en 1971 la Japanese Industrial Robot Association (JIRA).

La primera publicación periódica a nivel internacional sobre robots se llamaba The Industrial Robot, y apareció por primera vez en 1973.

En 1974 se fundó la Robotics Industries Association (RIA).

En 1977 se fundó la BRA (British Robotics Association). La palabra Bra también significa “sujetador”, en inglés.

En 1984, la empresa Robot Defense Systems introduce el Prowler (Programmable Robot Observer with Local Enemy Response). Este sería el primero de los robots con fines militares.

En 1997, el computador Deep Blue de IBM derrotó en el ajedrez al campeón mundial Gary

Kasparov, hecho este que marcó un antes y un después en el desarrollo de la inteligencia artificial.

Algunos robots famosos

Monografias.com

Monografias.com

El simpático Robby the Robot en Forbidden Planet (Planeta Prohibido)

Monografias.com

Tiburón, monstruo mecánico, de la trilogía Jaws.

Monografias.com

El expresivo Johnny Number Five, en la película Shortcircuit (Cortocircuito).
Bibliografía

Principios básicos de la Robótica. Antonio Sánchez. DISA. UPV.

Enciclopedia Encarta.

Los grandes inventos del señor humanidad. Las computadoras. Sedmay Ediciones, S.A.

Reina de los ángeles. Greg Bear. Ediciones B. www.hipc.org/hipc97/deepblue.html

Basic robotics: http://www.geocities.com/CapeCanaveral/Lab/8541/basic.html

The computer museum: http://net.org/html/history/timeline/threads/robots/index.html Robotics history: http://www.robotics.utexas.edu/rrg/education/history/main.htm

http://www.robotics.utexas.edu/rrg/education/history/dates_and_events/index.htm

Autor:

N/D

*****************************************************
Silla de ruedas

Identificación y delimitación del tema o problema
Silla de Ruedas
Historia
El futuro
Propósitos del proyecto
Planeación del proyecto
Evaluación del proyecto
Comunicación
Bibliografía

Identificación y delimitación del tema o problema

Innovación Tecnológica

En la Secundaria Técnica #74, la maestra de Tecnología planteó a sus alumnos los siguientes tres temas a desarrollar para realizarle una innovación:

-Útil escolar (pluma, mochila, lapicera, etc.)

-Aparato para discapacitados.

-Crear conciencia para el cuidado del medio ambiente.

Pero debido a que en la sociedad donde vivimos las personas con discapacidad viven con limitaciones ya que no se pueden desenvolver tal y como lo hace la mayoría optamos por innovar un aparato para personas con capacidades diferentes.

En nuestro caso queremos innovar una silla de ruedas, ya que en la actualidad las personas paraliticas cuentan con este artefacto, pero ya son muy rústicas, no son fáciles de manejar, son muy costosos, entre otros problemas.

Recolección, búsqueda y análisis de información.

Discapacidad

Monografias.com

La discapacidad es aquella condición que tienen ciertas personas, que presentan problemas en cuanto al uso de alguna función corporal, sensorial o intelectual que significa una desventaja para su desenvolvimiento en el medio social y su relación con otras personas.

Es una realidad humana percibida de manera diferente en diferentes períodos históricos y civilizaciones. Se ha propuesto un nuevo término para referirse a las personas con discapacidad, el de mujeres y varones con diversidad funcional, a fin de eliminar la negatividad en la definición del colectivo de personas con discapacidad y reforzar su esencia de diversidad.

Se estima que un 10% de la población mundial vive con algún tipo de discapacidad. En México, esta cifra representa entre 10 y 12 millones de seres humanos. No obstante lo elevado de la cifra, la discriminación contra las personas discapacitadas es cosa corriente, con manifestaciones cotidianas que resultan invisibles para el resto de la gente, pero no para ellos: el entorno urbano, los sistemas de enseñanza, las disposiciones legales, los sistemas de salud, están diseñados para personas con pleno uso de sus capacidades, y se convierten, por esa sola causa, en instrumentos de discriminación, así sea una discriminación indirecta.

Monografias.com

Desde luego, la discriminación opera también en formas directas, cuando se le niega empleo o educación a una persona discapacitada; cuando se le impide a un ciego entrar a un establecimiento junto con su perro guía; cuando se les da un trato de personas deficientes, incapaces.

Una de las discapacidades que puedan padecer las personas es la parálisis que es una pérdida o disminución de la motricidad, o de la contractilidad de uno o varios músculos, debido a lesiones de las vías nerviosas o de los mismos músculos. Para ser más exactos la enfermedad se le llama paraplejia que es una enfermedad por la cual la parte inferior del cuerpo queda paralizada y carece de funcionalidad.

Mientras que algunas personas que padecen paraplejía pueden caminar hasta cierto punto, impotencia y varios niveles de incontinencia urinaria y fecal son muy comunes en los afectados.

La sociedad debe eliminar las barreras para lograr la equidad de oportunidades entre personas con discapacidad y personas sin discapacidad. Para lograr esto, tenemos las tecnologías de apoyo, la mayoría dependen de una prótesis, silla de ruedas o de otros dispositivos para disponer de movilidad.
Silla de Ruedas

Monografias.com

Una silla de ruedas es una ayuda técnica que consiste en una silla adaptada con al menos tres ruedas, aunque lo normal es que disponga de cuatro.

Estas sillas están diseñadas para permitir el desplazamiento de aquellas personas con problemas de locomoción o movilidad reducida, debido a una lesión, enfermedad física (paraplejía, tetraplejía, etc.) o psicológica.

Básicamente existen dos clases de sillas de ruedas:

Monografias.com

Manuales, impulsadas por el propio ocupante que hace girar las ruedas traseras empujando los aros acoplados en el exterior de éstas. Se fabrican en dos modelos principalmente – plegables (para ahorrar espacio y poder ser transportadas en maleteros y otros habitáculos similares) y rígidas. Muchos de ambos modelos están fabricados en materiales ultraligeros, como el aluminio de aviones y el titanio al carbono con un revestimiento de Kevlar para brindarle mayor durabilidad, y sobre todo ligereza, ya que su usuario debería ser capaz de levantarla y guardarla, consiguiendo así cierto grado de autonomía y autosuficiencia.

Monografias.com

Eléctricas, impulsadas por motores que son accionados por baterías de 4 o 5 amperios recargables. El ocupante controla la silla por medio de un joystick y un pequeño panel de control que da acceso a configurar la velocidad y, en algunos modelos, la posiciónn del respaldo, asiento, reposapiés, etc., colocado en uno de los apoyabrazos

Casi todos los modelos de sillas son altamente adaptables: tamaño y posición de asiento y respaldo, apoyabrazos y apoyapiés regulables y extraíbles. Las sillas de ruedas están recogidas por normas de calidad que se mencionaran posteriormente
Historia

Monografias.com

Aunque la fecha e inventores de la primera silla de ruedas no estén claros, la primera silla de ruedas concebida para el fin de transportar a una persona, con un diseño similar a las sillas actuales, fue fabricada nada menos que para el monarca Felipe II por un inventor desconocido.

En el Siglo III DC, los chinos inventan la carretilla, con la finalidad de transportar a sus enfermos a un lugar llamado “Fuente de la Juventud”, de acuerdo con la cultura y religión de la época.

Más adelante, las crónicas romanas y griegas nos hablan de cómo se transportaba a personas enfermas al exterior para tomar aire fresco en dispositivos con ruedas.

Monografias.com

En el año 1665, cuando Stephen Farfler, un joven relojero alemán de solo 22 años construyo el primer vehículo autopropulsable para su propio uso. Este artefacto tiene un asombroso parecido con un handbike moderno.

En 1783 aparece la Silla “Bath”, inventada por el fabricante John Dawson en la ciudad inglesa de Bath, de donde toma su nombre. Este modelo de tres ruedas dominara el mercado hasta el siglo XIX. No obstante, la silla “Bath” no era muy cómoda y durante el siglo siguiente fueron añadiéndose mejoras, pensando sobretodo en el confort del usuario, como respaldo y reposapiés ajustables. Una patente de 1869 describe una silla con ruedas traseras autopropulsable y delanteras pequeñas, llegando porr fin a verdaderas sillas de ruedas impulsadas por el propio usuario.

Entre 1867 y 1875 se siguieron añadiendo mejoras, como los aros de propulsión y ruedas de goma. Cabe destacar, que gran parte de estas mejoras se produjeron gracias a la invención de la bicicleta en el siglo XIX y su posterior evolución.

En 1900 se introdujeron las ruedas radiadas en las sillas manuales y en 1916 se fabricó en Londres la primera silla de ruedas motorizada.

Las primeras sillas motorizadas eran manuales adaptadas con diversos sistemas de engranajes poco eficientes difíciles de manejar, más adelante se adoptaron los motores de tracción directa y sistemas de control más precisos.

Las últimas dos décadas han supuesto un enorme avance, tanto para las manuales como las eléctricas. Nuevos materiales, mejor rendimiento y sobretodo la posibilidad de personalizar las sillas de acuerdo a las necesidades individuales de cada persona.

Monografias.com

La silla Plegable:

Otro invento que ha influido decisivamente en la evolución de las sillas de ruedas, es sin duda el automóvil. La necesidad de transportar la silla, determino la invención de la silla plegable.

En 1932 el ingeniero Harry Jennings, construye en Nueva York la primera silla de estructura tubular plegable, para su amigo parapléjico Herbert Everest. Juntos fundan Everest & Jennings, una compañía que monopolizaría las ventas de sillas de ruedas durante muchos años. Hasta tal

punto que el gobierno de Estados unidos interpuso una demanda antimonopolio contra Everest & Jennings, por controlar el precio de las sillas de ruedas. El caso finalmente fue sobreseído.

El diseño original de esta primera silla plegable se sigue utilizando a día de hoy en sillas básicas por todo el planeta, por supuesto con algunas mejoras.

Monografias.com
El futuro

En sillas manuales ligeras, menos es más. Los fabricantes apuestan por hacer sillas cada día más ligeras y compactas, adaptadas al ritmo de vida moderno. En el futuro más cercano, es lógico que se siga por ese camino, investigando nuevos materiales, fuertes pero ligeros e incorporando innovaciones de diseño.

El deporte y el ocio juegan un papel importante en el futuro de este sector, cada poco tiempo aparecen modelos específicos para cada deporte y otras actividades, creando nuevos campos de investigación y desarrollo.

Monografias.com

El campo de las sillas eléctricas es mucho más abierto, debido al rapidísimo avance de la electrónica. La meta más cercana podría ser el desarrollo de motores con menor consumo y la implantación en el mercado de nuevas baterías, que recarguen más deprisa y tengan mayor capacidad. Todo destinado a ofrecer la mayor autonomía diaria al usuario.

De nuevo la industria automovilística podría ayudar a conseguir estos avances, esta vez gracias a su reciente apuesta por los coches eléctricos, lo que podría hacer realidades nuevas tecnologías en baterías y otros componentes.

Los kits de motorización para sillas manuales, previsiblemente serán cada día más discretos y ligeros, siendo útiles para mayor cantidad de personas.

Monografias.com
Propósitos del proyecto

El equipo junto con la maestra de Tecnología delimitamos que el propósito de nuestro proyecto sería crear una silla innovadora que permita un traslado seguro, rápido y confortable; permitiendo autonomía a cualquier lugar de la ciudad a donde el usuario quiera llegar.

Esto con el fin de crear una conciencia hacia aquellas personas que no tienen la capacidad de moverse por su propia cuenta y necesitan la silla de ruedas con una mejor calidad para que así cada vez tengan menos restricciones y puedan integrarse a nuestra sociedad.

Monografias.com

2. Búsqueda y selección de alternativas de solución.

Alternativas propuestas:

-Silla de ruedas con sensores: hace que el usuario se pueda trasladar cómodamente sin necesidad de aplicar algún tipo de energía ya que gracias a los sensores ésta reconocería cualquier obstáculo además también funciona mediante reconocimiento de voz. Cuenta con accionamiento híbrido, ajuste automático de asiento y un sistema amplio de movilidad.

Monografias.com

-Silla de ruedas con conexión a GPS: con esta tecnología el artefacto se puede conectar a un GPS y ubicar cualquier dirección a donde se quiera llegar y te desplegara diferentes rutas eligiendo la más conveniente según el usuario. Esta silla es de accionamiento eléctrico. Cuenta con un sensor de voz que le permite moverse sin aplicar energía. Está elaborada con materiales reciclados en la construcción de algunas de sus piezas. Es un artefacto flexible de mover, seguro, rápido y cómodo.

Monografias.com

Análisis de alternativas de solución.

Propuestas

Ventajas

Desventajas

1.Silla con sensores

Se puede transportar sin preocupaciones.

No es muy contaminante.

Puedes estar cómodamente a pesar de que al sitio a donde acudas no este adaptado a tu silla de ruedas

Su costo es muy elevado.

Manejo complicado.

Poca duración de batería.

Los sensores de movimiento pueden ser muy sensibles a cualquier golpe.

2.Silla con GPS

Está hecho con materiales reciclados.

Te ubica en cualquier sitio sin complicaciones.

Es rápida y cómoda.

Cuenta con sensor de voz el cual hace que aplique poca energía.

En caso de falla, la búsqueda de las piezas será difícil, debido lo innovadora.

Puede haber complicaciones con el sensor de voz debido a que no puede se reconocidas fácilmente las órdenes.

Selección y justificación de la alternativa de solución.

Después de analizar ambas propuestas, optamos por realizar la segunda opción ya que presentaba más ventajas que la primera, y así obtenemos más beneficios para el usuario ya que debido a sus características de la silla con GPS se pueden cubrir los propósitos esperados.

Gracias a la selección de la propuesta 2 se pueden garantizar máxima funcionalidad, comodidad y movilidad para el traslado en silla de ruedas.

Además la alternativa se caracteriza por ser ecológica y sencilla se manipular para que al usarla no se presente complicación alguna.

Monografias.com

Impacto social y ambiental de la solución elegida.

Esperamos que esta alternativa que elegimos, tenga una gran aceptación por la sociedad, debido a que los beneficios que les podría otorgar principalmente a los que más lo necesitan como lo son los paralíticos ya que facilitaría sus actividades y ayudaría mucho en el desempeño de su cuerpo y movimiento.

En cambio en lo ambiental sería positivo, pues con esta innovación pondrá el ejemplo de ser ecológico, puesto que la mayoría de sus partes serán reciclajes de desechos, por ejemplo el caso de las ruedas de la silla serán hechas de llantas de automóviles desechadas así ayudaría a reutilizar este tipo de materiales, al igual el respaldo y el asiento será envuelto de telas de sillones, sillas etc.

La silla de ruedas está regida por diversas normas ISO, aquí se presentan unas de ellas, que regulan la calidad y gestión continúa de calidad.

Monografias.com

ISO 13570-1:2005

El propósito de la norma ISO 13570-1:2005 es el explicar cómo usar las normas internacionales para seleccionar una silla de ruedas.Regularmente las normas son muy técnicas por lo que probablemente usted no entenderá como la información que proveen le ayudará a seleccionar una silla de ruedas o un Scooter. ISO 13570-1:2005 está destinada para facilitarle el entendimiento del propósito y contenido de las normas internacionales sobre sillas de ruedas.ISO 13570-1:2005 se divide en seis cláusulas:

1. Como usar ISO 13570-1:2005. 2. Pruebas estandarizadas y divulgación de la información: Proporciona información de respaldo acerca de las pruebas estándar. Explica cómo se prueban las sillas de ruedas y cómo se divulga la información. 3. Consideraciones generales: Explica las consideraciones generales relacionadas con la elección de una silla de ruedas con alimentación manual o de una silla de ruedas con motor. 4. Incorporación de las características personales: Relaciona las características físicas del usuario con el ajuste de una silla, ya sea manual o con motor. 5. Sillas de ruedas manuales: Discute los procedimientos de las pruebas a sillas de ruedas manuales. 6. Sillas de ruedas con motor: Discute los procedimientos de las pruebas a sillas de ruedas con motor, centrándose en scooters de tres y cuatro ruedas, así como los de las sillas de ruedas totalmente motorizadas.

ISO 7176-10:2008 Sillas de ruedas – Parte 10

La capacidad obstáculo-escalada de sillas de ruedas eléctricas.Los usuarios de sillas de ruedas experimentan constantemente los desafíos que presentan los distintos tipos de terrenos que utilizan y sus irregularidades.Esta nueva norma se podrá utilizar para medir las características que para escalar y descender con seguridad tales obstáculos ofrecen las sillas de ruedas eléctricas, incluyendo los scooters.

ISO 7176-10:2008, proporciona un método confiable para determinar las habilidades y capacidades de las sillas de ruedas eléctricas ya que especifica los requisitos para los equipos de prueba, esboza los procedimientos de prueba, y proporciona especificaciones para la presentación de informes sobre los resultados de la prueba.

Descripción:

En el diseño se pueden apreciar las medidas de lo que sería las silla, las cuales está basadas en las medidas d una persona adulta promedio. La silla se puede encontrar e distintos colores para el que sea el agrado de todas personas, así como también hay silla diseñadas para menores de edad, estas cuentan con un tamaño más adecuado según la edad de usuario.

En el prototipo se pueden apreciar claramente los componentes de la silla como lo es el sensor de voz, el GPS y el lugar donde se pueden colocar las pes de manera cómodamente. En si la silla es apta para cualquier persona que necesite de este artefacto que de gran utilidad para las personas con discapacidad.
Planeación del proyecto

Para el proyecto el equipo decidió distribuir las tareas de manera equitativa, esto debido a las características y recursos de cada integrante, así como también se repartieron los tiempos y las fechas para que haya un orden en la elaboración de cada una de las fases a realizar. Esto con el fin de crear la silla de ruedas con GPS, el según nuestra visión beneficiará a una infinidad de personas.

Cronograma.

Monografias.comMonografias.com

Materiales y recursos.

Para que nuestro proyecto tenga una buena planeación es necesario considerar los materiales y los costos, ya sean económicos, sociales y ambientales, para verificar si nuestro proyecto es sustentable se crearon listas con los materiales y posibles costos de cada uno

Materiales para la MAQUETA.

Materiales

Costos

Cartón

Ninguno, lo obtendrán de su casa.

Pintura

$30.00

Algodón

Ninguno, lo obtendrán de su casa.

Tijeras

Ninguno, se obtendrán de su casa.

Pegamento

Ninguno, se obtendrán de su casa.

Pedazos de telas

Ninguno, lo obtendrán de su casa.

Ruedas de Patines

Ninguno, lo obtendrán de su casa.

Cascarón de huevo

$15.00

Acetato

$10.00

Total

$55.00

Materiales para el OBJETO REAL.

Materiales

Costos

Llantas de bicicletas

Ninguno, lo obtendrán de centros de reciclaje.

Asiento de silla de ruedas

Ninguno, lo obtendrán de una silla para que se reutilice.

GPS

$1,499.00

Sensor de voz

$4,779.00

Baterías Recargables

$350.00

Partes de sillas de ruedas y bicicletas (tubos)

Ninguno, lo obtendrán de su casa.

Cables

$250.00

Total

$6878.00

Manejo de recursos.

Maqueta:

Para tener un mejor manejo materiales y hacer lo menos posible en gasto, debemos buscar materiales los cuales fueran los mejores, para darle la mejor vista posible, y sea un gran prototipo de una silla realmente innovada, aplicaremos nuestra imaginación e ideas, para interpretar como seria la silla de ruedas, algunos materiales los podremos de conseguir en casa, al igual también tendremos comprar en papelerías lo necesario para realizarlo, así que se hará un pequeño gasto al comprar la pintura, cascaron de huevo y acetato, pero manejaremos mejor los recursos que tenemos a nuestro alcance como las ruedas, la tela con cual crear asientos, entre otros, para construir el prototipo. Así que nos basaremos en realizar una maqueta con el propósito que sea sustentable.

Los recursos energéticos que utilizaremos serian para la electricidad con la cual haremos funcionar aparatos como pistola de silicón, entre otros artefactos que se utilicen para la realización.

Mientras que los recursos humanos, será suficiente con nuestros conocimientos ya que cada integrante cuenta con diversas habilidades como la creatividad, destreza al armar objetos, medir, etc. Las cuáles serán esenciales para la construcción de la maqueta.

Monografias.com

Real:

En la elaboración de la silla se pretende hacer un manejo equilibrado de los recursos para obtener el objeto esperado, para esto se necesitará personal capacitado para poder crear este innovador producto, mientras que los recursos energéticos se tratarán de minimizar, para que así no se haga un consumo excesivo y a la larga esto provoque problemas al ambiente.

Por eso los recursos humanos que se utilizaran serán personal con conocimientos en instalación de GPS, así como expertos en silla de ruedas y su construcción, conocedores en el tema de reutilización de materiales para que encuentren la mejor manera de integrar los materiales de mejor manera en la silla.

Y en los recursos energéticos será solo utilizar la electricidad para el funcionamiento de aparatos como máquinas de soldar, sierras eléctricas, máquinas de coser, etc.

Monografias.com
Evaluación del proyecto

.

AUTOEVALUACIÓN.

Fases del proyecto

Sí lo conseguimos

Más o menos

No lo conseguimos

1. identificar el problema real y su solución.

2. Buscar y reunir información.

3. Establecer el propósito del proyecto.

4. Proponer alternativas.

5. Justificar la opción elegida.

6. Realizar la representación gráfica.

7.- Planificar las actividades a realizar.

8. Identificar los materiales necesarios.

9. Considerar el uso y las actividades del proyecto.

10. Elaborar una evaluación del proceso.

11. Diseñar un medio de comunicación para transmitir los resultados a la comunidad.

12. Se cumplieron los objetivos iniciales.

13. Hubo un trabajo de colaboración entre los integrantes del equipo.

En la elaboración de nuestro proyecto solo se presentaron unos pequeños percances, como lo fue que al principio en la identificación del problema nosotros optamos por crear conciencia ambiental tema que cambiamos debido a un par de dificultades en la planeación, así fue como elegimos innovar un aparato para discapacitados el cual parecía ser más sencillo de realizar. Un problema que surgió fue en la etapa de alternativas de solución ya que una que no era necesaria, en el resto ya no se presentaron problemas, esto gracias al trabajo en equipo que se logró realizar por parte de los integrantes.

Lo único que nos falta por evaluar sería la maqueta ya que como está en proceso no sería correcto darla por terminada ya que no sabemos los resultados que vamos a lograr en ella.

Pero en general cada fase se logró realizar de la manera que se esperaba.
Comunicación

Para concluir el proyecto, decidimos comunicarles al resto de los compañeros nuestros logros. Queremos compartir los beneficios que traerá consigo si se implementará el proyecto de la silla de ruedas con GPS, para ello elaboramos un folleto sobre el tema. Para esto debe contar con las siguientes características:

Medidas: 17.2cm. x 22.6cm.

Nombre de nuestro proyecto así como los motivos que nos llevaron a realizar esta innovación.

Contiene imágenes relacionadas con el tema.

Información que sea entendible y concreta.

Se pretende repartir los folletos dentro de la escuela y organizar una muestra de la silla de ruedas con ayuda de la maqueta, para que toda la comunidad escolar pueda apreciar los resultados obtenidos en el proyecto.
Bibliografía

http://es.wikipedia.org/wiki/Discapacidad

http://www.guiamovilidad.com/noticias/129-historia-de-las-sillas-de-ruedas.html

http://www.derechoshumanos.org.mx/modules.php?name=Content&pa=showpage&pid=25

http://es.wikipedia.org/wiki/Silla_de_ruedas

http://es.wikipedia.org/wiki/Paraplej%C3%ADa

http://jymbs.com/noticia_6.php

http://jymbs.com/noticia_5.php

Autor:

Luis Jesús Llanas Rodríguez.

Samantha Natividad Martínez Velazquez.

Arnulfo Salas Betancourt.

Asignatura: Tecnología III

Maestra: Rosa Laura Jasso Uresti

Escuela Secundaria Técnica #74

“Prof. Carlos Tijerina Torres”

Gral. Escobedo N.L. a mayo 2012

Terminos buscados en el tema:

  • tragedia moderna caracteristicas
  • caracteristicas de la tragedia moderna
  • determinacion del porcentaje de tiempo productivo
  • monografias hechas
  • causas y consecuencias del uso eficiente de energia en la escuela comunidad y el hogar
  • comida tipica del municipio crespo
  • desventajas de la mesa redonda
  • autores y obras dela literatura de la independencia
  • caracteristicas de tragedia moderna
  • municipio crespo comida tipica

Entradas relacionadas

  • Estudio de diagnóstico de la función de mantenimiento en CVG-Bauxilum
  • Plan de mantenimiento en el centro de estudios de corrosion y biomateriales de la UNEXPO
  • Diseño del sistema de mantenimiento preventivo para la flota de unidades Yutong
  • Programa integral de mantenimiento
  • Mantenimiento preventivo y correctivo
  • Diseño de un sistema de gestión de mantenimiento preventivo de las instalaciones eléctricas
  • Estudio para implantar nuevos metodos de gestion en mantenimiento ferroviario
  • Superintendencia de planificación y programación