En el año de 1976, finalice un trabajo especial de grado, como requisito para obtener el título de Ingeniería de Petróleo en la Universidad del Zulia. Con la tutoría del profesor Jesús Manucci, junto con mi compañero de tesis Rafael Diaz, desarrollamos unas correlaciones de viscosidad para crudos venezolanos.
La tesis fue aprobada por el comité designado por la universidad y así obtuve el mencionado título profesional. En estos 45 años transcurridos, no he recibido ninguna información o crédito por la utilización de estas correlaciones en algún proyecto de un campo petrolero en el país. Lejos de sufrir alguna frustración, por haber generado algo inútil o con tan baja utilidad, la realización de este trabajo especial de grado me permitió profundizar en aspectos importantes de mi valía como profesional y personal para las empresas y organizaciones en donde he laborado, para mi familia y para la sociedad en general.
La viscosidad como tema central de la tesis, es una medida de la resistencia interna al flujo de los fluidos, resultante de los efectos combinados de la cohesión y de la adherencia, sólo se manifiesta en fluidos en movimiento y por tal motivo es una de las características más importantes para los diseños operacionales de producción, transporte, refinación y petroquímica.
En el petróleo pesado muy viscoso, de esos que abundan en Venezuela y en Colombia, con alta resistencia al movimiento para su extracción de las capas de rocas en el subsuelo, es muy importante el efecto de los solventes y del aumento de la temperatura en la reducción de los valores y optimización del flujo. Para acometer esos procesos correctivos, se hace necesario tener una medición de esta propiedad la cual no deja de ser una tarea compleja y por ese motivo se consideró muy útil la idea de un programa de computación por mínimos cuadrados, para obtener las ecuaciones de correlación que facilitara y abaratara la obtención de los valores de viscosidad.
La regresión y los análisis de correlación determinan la naturaleza y la fuerza de una relación como por ejemplo en el caso de mi tesis, entre la viscosidad como variable dependiente y un conjunto de variables independientes de menor complejidad de medición como la temperatura, presión, la densidad del fluido, entre muchas otras. La fuente de datos reales de todas las variables fue tomada de un cuantioso volumen de análisis PVT (presión, volumen y temperatura) cedidos por el Ministerio de Minas e Hidrocarburos y en especial por el Ingeniero Norberto González, el célebre “Lapicito”, posterior apodo que se ganó por tantas correcciones de nuestros informes resaltadas en lápiz rojo.
Hoy en día, la regresión lineal múltiple es la gran técnica estadística para comprobar hipótesis y relaciones explicativas, en temas muy variados, como por ejemplo, evolución en peso y talla de niños según la alimentación y medidas de adultos familiares, qué factores explican los niveles de desigualdad de un país; qué variables explican la opinión respecto a la inmigración; son las variables religiosas, las variables políticas, o las variables sociodemográficas las que explican en mayor medida la opinión respecto al aborto y hasta predicciones de resultados de carreras de caballos, en donde el peso del ejemplar y del jockey, la posición de salida, la distancia y otros factores son condicionantes del triunfo.
El programa de computación, el software, incluía el conjunto de los componentes lógicos necesarios que hicieron posible la realización de los cálculos del análisis de regresión, tomando como input data, los valores de las variables independientes y calculando la viscosidad como variable dependiente. Al final, estos valores calculados se comparaban con los valores reales, estableciendo el coeficiente de correlación que mientras mas cercano a uno significaba como más sólida la correlación.
El medio utilizado para ingresar la información e instrucciones a una computadora en los años 1960 y hasta mediados de los años 1970, era a través de tarjetas perforadas, láminas hechas de cartulina que contenían información en forma de perforaciones, según un código binario.
IBM manufacturó y comercializó una variedad de unidades máquinas de registro para crear, ordenar, y tabular tarjetas perforadas. El tamaño de la tarjeta era de exactamente 187,325 mm por 82,55 mm, eran hechas de material liso de 0,179 mm de ancho por lo que se acumulaban 143 tarjetas en cada pulgada de espesor. Para facilidades en su acarreo, se utilizaban cajas diferentes para el programa fuente y para los datos.
Las cajas de este tamaño ya estaban disponibles a precios baratos, diseñadas para los bancos para guardar el dinero. Al grupo de tarjetas se le llamaba mazo y las tarjetas comúnmente se imprimían, para que la posición de la fila y columna de una perforación pudiera ser identificada.
La tarjeta perforada de formato de 80 columnas de IBM tenía hoyos rectangulares, 80 columnas con 12 lugares de perforación cada una, y un carácter para cada columna. En 1964, IBM cambió de esquinas cuadradas a redondeadas. A estas cajas la asegurábamos con ligas para evitar que por una caída se desordenaran las tarjetas. Esto como que no lo hacia nuestro amigo Orlando Urribarri, ya que paso por uno de estos accidentes infortunados, lo cual le tomó tres días para ordenar de nuevo sus tarjetas.
El hardware utilizado fue la IBM S/360 del Centro de Computación de la Universidad del Zulia, en su sede del edificio del Rectorado. Fue un sistema mainframe, en mercado desde al año 1964, que variaban en velocidad de 0,034 MIPS a 1,7 MIPS y entre 8 Kb y 8 MB de memoria principal, aunque esta última capacidad fue muy inusual.
Este mainframe usó circuitos integrados y podía realizar tanto análisis numéricos como tareas de administración y/o de procesamiento de archivos. El modelo más barato era el S/360-20, con tan solo 4KB de memoria principal, ocho registros de 16 bits en vez de los dieciséis registros de 32 bits del S/360 original. Todos los modelos S/360 fueron retirados del mercado a finales de 1977.
Con este hardware disponible, había que dejar las cajas con las tarjetas en la mañana y retirar los resultados de la corrida en la tarde, si teníamos suerte. Al retirar los resultados, y a lo lejos, observando el grosor de las hojas de computación, podíamos definir si el programa había corrido normalmente o si se había interrumpido por algún error.
Afortunadamente estos errores estaban listados con su código. Solo faltaba llenarse de paciencia, corregir el error y esperar de nuevo el turno del proceso.
Definitivamente con la realización de mi tesis de grado me di la oportunidad de cultivar valores personales, definiendo aquellas pautas que me asigné para adecuarlas a mi estilo de vida y a mi personalidad, al cumplimiento de metas, a la satisfacción de mis necesidades y al seguimiento de las acciones positivas. Las experiencias tanto positivas como negativas, no se pueden dejar de lado, ya que dejan marcas que pueden influenciar en ciertas conductas y posturas.
Hacerlo bien pero más fácil, ha sido un lema que me ha acompañado por siempre.
Recopilación de la Información y Restructuración por Antonio Jimenez.
Enlaces:
Comments