Ahora cuenta con una nueva imagen y una sección que ofrece “Herramientas para hacer y aprender”
En la Red Universitaria de Aprendizaje (RUA) se publican recursos y herramientas digitales producidas por la UNAM para apoyar la enseñanza y el aprendizaje a través de la exploración. Luego de dos años de trabajo, esta plataforma ha sido relanzada por la DGTIC, estrenando una interfaz que busca favorecer la experiencia del estudiantado.
Mediante el análisis del comportamiento de sus usuarios, así como de sus preferencias y perfiles, académicos de esta dependencia han reestructurado y aportado nuevo contenido a la plataforma educativa con la intención de satisfacer las diferentes necesidades de aprendizaje de la comunidad universitaria.
La versión 2025 de la RUA incluye una sección de Herramientas para hacer y aprender, donde se pueden encontrar simuladores y aplicaciones interactivas que facilitan el aprendizaje a través de la resolución de problemas y retos educativos.
En ella es posible encontrar el Laboratorio virtual de química el cual permite resolver problemas con ácidos y bases fuertes en disoluciones acuosas; el Simulador de casos clínicos veterinarios que contribuye a la mejora de las habilidades para el diagnóstico de las y los estudiantes; el Simulador de ciencia forense y física donde se ilustra parte del proceso de consulta y recolección de información en el ámbito forense; el sistema interactivo para pronosticar la evolución del virus SARS-CoV-2 en México llamado EpI-PUMA 1.0; y TransDocencia, herramienta especialmente preparada para los cursos de Hidráulica y Mecánica de Fluidos; entre otros.
La nueva RUA también contiene una sección dedicada al Espacio docente, donde se presentan propuestas didácticas que otros educadores comparten. Las secuencias didácticas contienen descripciones y materiales de manera que se puedan poner en práctica, adaptándolas a sus contextos específicos.
“Lo que hacemos es realizar pruebas, buscar evidencia que nos permita sustentar nuestras acciones, tanto durante el desarrollo como sobre el uso que le dan nuestros estudiantes y también evidencias de aprendizaje”, explicó la directora de Innovación en Tecnologías para la Educación (DITE) de la DGTIC, la doctora Marina Kriscautzky Laxague. “Hasta ahora teníamos recursos informativos, ahora estamos propiciando tener herramientas hechas por la UNAM”.
Para el titular de la DGTIC, el doctor Héctor Benítez Pérez, la nueva RUA “no elimina el espíritu que se tenía en el origen, sino que lo refuerza con una nueva tecnología y un nuevo planteamiento, buscando poder llegar a las comunidades estudiantiles”, puntualizó.
A la ceremonia de inauguración, llevada a cabo en el Laboratorio de Aprendizaje Digital (LAD UNAM) de la DGTIC, asistieron la doctora Nora del Consuelo Goris Mayans, directora de la FES Acatlán; la doctora Araceli Romo Cabrera, directora de la FES Aragón; el doctor Carlos Guillermo Guitérrez Aguilar, director de la FMVZ; la doctora Zoraida García Castillo, directora de la ENACiF; y la doctora Neyra Sosa Gutiérrez coordinadora de Programas Transversales de la Secretaría de Desarrollo Institucional (SDI).
También participaron el doctor John Ackerman, director del Programa Universitario de Estudios sobre Democracia, Justicia y Sociedad (PUEDJS); y de la DGAPA la maestra Brenda Morales Chambert, directora de Apoyo a la Docencia; junto con la licenciada Diana Torres Velázquez, jefa de la Iniciativa para Fortalecer la Carrera Académica en el Bachillerato (INFOCAB); entre varios otros.
Los recursos y herramientas disponibles en la RUA, así como las convocatorias para publicar en la plataforma, se pueden consultar en la página rua.unam.mx
Se impulsará su adopción en la UNAM como complemento a los programas comerciales para reducir costos
Con el objetivo de promover el uso de herramientas digitales no comerciales en el quehacer docente, administrativo y académico de la Universidad se publicaron los Principios del software libre y código abierto en la UNAM.
Esta iniciativa la impulsa el Consejo Asesor en Tecnologías de Información y Comunicación (CATIC), órgano colegiado integrado por el Rector de la UNAM, el secretario general, el titular de la Dirección General de Cómputo y de Tecnologías de Información y Comunicación (DGTIC) y seis consejeros en representación del sistema de bachillerato; las escuelas nacionales y facultades de Ciudad Universitaria; las facultades de estudios superiores; campus universitarios foráneos; institutos y centros de investigación y dependencias administrativas; además de dos vocales expertos de entidades externas.
El jefe del Departamento de Gestión Tecnológica de la DGTIC, Alberto González Guízar, explicó que esta iniciativa también busca impulsar nuevamente a las comunidades de software libre que existían no hace mucho en la UNAM, así como promover la formación de nuevas agrupaciones.
Aunque una buena parte de las y los usuarios de sistemas de cómputo está acostumbrada a usar software comercial para sus tareas diarias, promover el uso de software libre contribuye al aprovechamiento eficiente de los recursos de la Universidad. Si bien el uso de software comercial tiene sus ventajas, en ocasiones puede ser oneroso, principalmente si el volumen de licenciamiento es alto.
“El software libre tiene como ventaja el uso gratuito o sin costo por licenciamiento; además ofrece la posibilidad de adaptar el código a tus necesidades”, señaló González Guízar.
Hay tareas que todavía es difícil realizar con programas de código abierto, pero existen alternativas capaces de cubrir muchas de las necesidades de la UNAM con una buena funcionalidad.
La promoción de los principios para impulsar el software libre se hará de forma paulatina, en un inicio a través de las y los titulares de las áreas universitarias, así como del personal responsable de sistemas, de TIC, de conectividad y de áreas afines.
En el documento mencionado se aclara que el software debe respetar la normatividad aplicable y la legislación vigente en la UNAM, con la intención de proteger la información sensible con que se trabaja. Asimismo, la institución deberá asumir la instalación, el soporte, la actualización y hasta la adaptación de los programas para aprovecharlos de la mejor manera.
Otra de las responsabilidades que se adoptarían al ampliar el uso de este tipo de software consistiría en respetar el trabajo previo de quienes intervinieron en el desarrollo del código abierto, además de hacer públicas las aportaciones hechas por la UNAM.
Para el titular del Departamento de Gestión Tecnológica, la meta es lograr la coexistencia entre el uso de los desarrollos comerciales y libres en la Universidad. “No se dejará de usar software comercial. No hay software libre que cubra todas las necesidades existentes”, aceptó. De manera que la intención de estos principios es, esencialmente, tener en cuenta la existencia de alternativas.
Para la Universidad es importante conocer qué software utiliza su comunidad, de ahí que en el censo CATIC de 2023 se incorporaron áreas de información que, en adelante, permitirán tener un panorama al respecto. Ahora es posible saber que, entre las herramientas de ofimática utilizadas en la UNAM, sólo 12.5 % pertenece a algún tipo de software libre.
En cuanto a las herramientas de productividad, las cuales agrupan actividades como la generación de archivos PDF, la gestión de proyectos, el almacenamiento en nube, las herramientas de desarrollo y la gestión de bases de datos, se tiene registro de que las áreas universitarias usan 45 % de software libre y de código abierto. En campos como el álgebra simbólica y la ilustración o diseño, sólo el 5 % del software utilizado es libre.
Por otra parte, la mayor concentración de uso de software libre y de código abierto está en los programas estadísticos, donde casi 83 % de las entidades y dependencias universitarias utilizan algún programa gratuito. En cuanto a los programas de seguridad (antivirus y firewall, entre otros) se registró que 44 % de las áreas universitarias aprovechan el software libre y de código abierto.
Estos datos no representan una ventaja o desventaja para la UNAM, pero permiten contar con mayor información que podría ser útil en la toma de decisiones.
Este año, en el Encuentro universitario de mejores prácticas de uso de TIC en la educación participaron docentes de Panamá, Perú, Colombia, Argentina, Brasil, Chile, Ecuador, Canadá, Estados Unidos, Italia y México.
Durante la última década, Educatic ha creado espacios de reflexión entre la comunidad docente para explorar nuevas y mejores formas de integrar las tecnologías en los procesos de enseñanza y aprendizaje.
En su edición 2024, el encuentro estuvo dedicado a que las profesoras y los profesores reflexionaran y compartieran su experiencia sobre la importancia de su rol en el aprendizaje de los estudiantes con la integración de tecnologías digitales.
Bajo el lema “El lado humano de la tecnología”, las actividades de Educatic arrancaron el pasado 23 de julio en el auditorio “Dr. Manuel Sánchez Rosado” de la Escuela Nacional de Trabajo Social (ENTS) de la UNAM.
Durante la ceremonia oficial de inauguración, el doctor Héctor Benítez Pérez, titular de la DGTIC, señaló que “nuestro propósito es mejorar las experiencias de aprendizaje de la comunidad estudiantil”.
También agradeció a los titulares de la ENTS, de la Facultad de Estudios Superiores (FES) Cuautitlán y del Instituto de Ciencias Aplicadas y Tecnología (ICAT), instituciones que convocaron a esta edición del encuentro. Cabe mencionar que por primera vez se contó con una “facultad invitada”, siendo la FES Cuautitlán la elegida a partir de su trayectoria y participación en #educatic desde su primera emisión.
“A lo largo de diez años se ha transitado en un camino de reflexión continúa muy enriquecedora, se han abordado diversos ejes temáticos; siempre con el objetivo de encontrar las mejores formas de integrar las tecnologías en los procesos de enseñanza y aprendizaje”, destacó Benítez.
Durante su participación, la doctora Marina Kriscautzky Laxague, directora de Innovación en Tecnologías para la Educación de la DGTIC, hizo un recorrido por las distintas ediciones del encuentro, recordando los ejes temáticos abordados cada año.
Las actividades de Educatic dieron inicio con la conferencia magistral “Mira quién te escribe. Inteligencia Artificial, una idea del hombre y sus consecuencias”, impartida por el doctor Ernesto Priani Saisó de la Facultad de Filosofía y Letras.
De acuerdo con el especialista, uno de los mayores retos en relación con la inteligencia artificial radica en que reproduce sesgos y prejuicios humanos, ya que estas tecnologías se alimentan con información generada y provista por las personas. Más que evadir o temer a la inteligencia artificial, se debería abogar por mostrar una pluralidad cultural y de pensamiento que represente las distintas realidades sociales.
Para la clausura de Educatic, la maestra Silvia Gutiérrez de la Fundación Wikimedia habló de cómo Wikipedia es una de las principales fuentes de información de las que se nutren las IA.
Si bien este hecho podría verse como un riesgo debido a cómo se crean los contenidos de la enciclopedia digital, también es una oportunidad para que distintas sociedades puedan incidir en cómo se representan y en la pluralidad de los temas que están disponibles. “El internet -y Wikipedia- va a ser tan diverso como la gente que participe en él”, destacó.
La décima edición de Educatic contó con 635 participantes registrados de países como Panamá, Perú, Colombia, Argentina, Brasil, Chile, Ecuador, Canadá, Estados Unidos, Italia y México. A lo largo del encuentro se desarrollaron 73 textos reflexivos, presentados en 23 mesas de trabajo, y 31 carteles digitales. Asimismo, se contó con 25 grupos de talleres en los que participaron 355 personas.
Esta edición contó con la colaboración de la Coordinación de Evaluación, Innovación y Desarrollo Educativos (CEIDE), de la Coordinación de Universidad Abierta y Educación Digital (CUAED), de la Dirección General de Incorporación y Revalidación de Estudios (DGIRE), de la Dirección General de Asuntos del Personal Académico (DGAPA), del Consejo Académico del Bachillerato (CAB), del Colegio de Ciencias y Humanidades (CCH), de la Escuela Nacional Preparatoria (ENP) y de las ya mencionadas FES Cuautitlán, ENTS y el ICAT.
Con el objetivo de abrir un espacio de reflexión y análisis sobre la función de las nuevas tecnologías para los procesos de enseñanza, la Dirección General de Cómputo y de Tecnologías de Información y Comunicación de la UNAM llevará a cabo el 10º Encuentro universitario de mejores prácticas de uso de TIC en educación #educatic2024, del 23 al 26 de julio.
En entrevista, la directora de Innovación en Tecnologías para la Educación de esa entidad académica, Marina Kriscautzky Laxague, destacó que después del boom que se registró con el surgimiento de ChatGPT en donde las discusiones se centraron en los alcances y riesgos de la inteligencia artificial generativa, en esta ocasión se buscará dar un nuevo enfoque al encuentro, cuyo lema es “el lado humano de la tecnología”.
Se trata, dijo, de otorgarle mayor relevancia al manejo de las nuevas herramientas digitales de acuerdo con lo que el ser humano decida y quiera privilegiar, buscando terminar con la vieja idea de que las máquinas vienen a reemplazar y serán las que van a enseñar, en lugar de las personas.
Este año lo que vamos a hacer es retomar la importancia del lado humano; es decir, para que se aprenda que tiene que haber alguien de carne y hueso que enseñe y tenga ciertas intervenciones y diálogo con el que aprende; “podemos usar las máquinas y la verdad nos pueden ayudar mucho, pero no van a reemplazar esa intervención del docente”.
Insistió en que será un gran espacio para repensar la función de la tecnología en la enseñanza, bajo la premisa de que es el ser humano quien está al mando de las tecnologías y puede proponer su mejor uso para obtener mayores ventajas, pero también se debe reflexionar con responsabilidad sobre sus implicaciones.
Kriscautzky Laxague resaltó la trascendencia de este tipo de encuentros para pensar sobre la docencia como una actividad profesional en la que el punto de reflexión sea la enseñanza.
Nuestras académicas y académicos universitarios, añadió, tienen una profesión de origen en la que pueden ser psicólogas, historiadores, físicas, químicos, ingenieros, o abogados, pero este es un aspecto y otro es enseñar la disciplina; también deben saber sobre docencia y enseñanza.
La DGTIC se encarga, entre otras tareas, de articular el uso de las tecnologías con la docencia para favorecer el aprendizaje con un manejo adecuado de los nuevos instrumentos digitales integrando la teoría con la práctica, en las diferentes disciplinas y áreas del conocimiento, precisó.
Lo más importante, subrayó, es que la creación de nuevas tecnologías, sin importar como se llamen, no nos sorprenda y podamos enfrentarlas como docentes, aprendiendo a utilizarlas e incorporarlas a los distintos procesos de enseñanza.
“Si entendemos cuál es el papel de la inteligencia artificial en la enseñanza y el aprendizaje, vamos a tener mejores herramientas para analizarlas y para poder integrarlas”, apuntó.
#educatic2024
El encuentro universitario se efectuará en formato híbrido en la Escuela Nacional de Trabajo Social; se espera la participación de docentes y estudiantes de escuelas y facultades de la UNAM, además de académicos y especialistas de otros países, quienes a través de conferencias magistrales y talleres compartirán sus experiencias y reflexiones sobre el manejo de las herramientas digitales en el quehacer de la enseñanza.
El “corazón del evento” serán las mesas de diálogo, donde expondrán sobre el uso de las tecnologías que van desde el ChatGPT, los simuladores para medicina, hasta los laboratorios virtuales de química, refirió Kriscautzky Laxague.
En México se espera que el porcentaje de compradores en línea alcance el 57 % de la población este año, aseguró en la UNAM, Humberto Barrera Ramos de Growth Hacking México.
El planeta acelera su proceso de compraventa electrónica. Motivado por la no presencialidad de la pandemia, diversos rincones del orbe han consolidado este proceso, que a decir del estratega digital Humberto Barrera Ramos, de Growth Hacking México, inició hace 50 años.
El continente asiático, indicó, produce más del 50 % de todas las ventas globales de comercio electrónico con mercados desarrollados como China, Corea del Sur y Japón, apoyados por la participación de la generación más joven del país.
“Europa y América han experimentado una rápida revolución comercial. Estados Unidos se encuentra entre las cinco principales naciones de comercio electrónico que atienden hasta el 30 % de las ventas en los mercados globales”, detalló.
Al dictar la conferencia Crecimiento del e-commerce y negocios digitales, el consultor de marketing y cofundador de la agencia Growth Hacking México, señaló que América Latina se encuentra en una curva de crecimiento en ventas online que aumentaron 37.5 % en 2022.
Convocado por el Seminario TIC de la Dirección General de Cómputo y de Tecnologías de Información y Comunicación (DGTIC) de la UNAM, precisó que en Europa la tasa de crecimiento de bienes de gran consumo online frente a la offline es notable: en Italia es 16.2 veces mayor y más de 10 veces superior en Reino Unido, España y los Países Bajos.
“Reino Unido es el mercado electrónico europeo más maduro, donde las categorías de alimentos frescos tienen un papel importante en las plataformas online. Por ejemplo, en los países de Europa del Este algunos tipos de medicamentos dominan el repertorio de la llamada cesta electrónica”, destacó.
Para el caso de México, se espera que el porcentaje de compradores online alcance el 57 % de la población este año, y que llegue en 2025 al 60 %.
Antecedentes
Durante el encuentro moderado y presentado por Patricia Garcés Natera, coordinadora del Centro Mascarones de la DGTIC, Barrera Ramos comentó que en el siglo XIX empresas comerciales como Montgomery Ward y luego Sears empezaron la venta por catálogo en los Estados Unidos, el cual consistía en fotos ilustrativas de los productos a vender, lo que permitió a las empresas captar nuevos segmentos de mercado que no estaban siendo atendidos.
Lo anterior, explicó, podría ser el antecedente remoto del comercio electrónico, debido a que la modalidad tomó mayor impulso con la aparición de las tarjetas de crédito. “Así, con los catálogos se podían escoger los productos sin presión de los vendedores y desde casa”.
Concluyó que la práctica del comercio electrónico comenzó a principios de 1970 con novedosas aplicaciones como la transferencia de fondos monetarios; después apareció el intercambio de datos vía electrónica que produjo una explosión en las compraventas de este tipo dando lugar a otros procesos. En esa década aparecieron las relaciones comerciales que usaban una computadora para transmitir datos, como órdenes de compra y facturas.
Con el fin de abrir un espacio de reflexión y análisis sobre la función de las nuevas tecnologías para los procesos de enseñanza, la Dirección General de Cómputo y de Tecnologías de Información y Comunicación (DGTIC) llevará a cabo, del 23 al 26 de julio, el 10º Encuentro Universitario de Mejores Prácticas de uso de TIC en Educación.
La directora de Innovación en Tecnologías para la Educación de la DGTIC, Marina Kriscautzky Laxague, señaló en entrevista que después del boom que se registró con la aparición del Chat GPT, en que las discusiones se centraron en los alcances y riesgos de la inteligencia artificial generativa, en esta ocasión se buscará dar un nuevo enfoque al encuentro #educatic2024, que llevará como lema: “El lado humano de la tecnología”.
Se trata, dijo, de darle una mayor relevancia al manejo de las nuevas herramientas digitales de acuerdo con lo que el propio ser humano decida y quiera privilegiar, buscando terminar con la vieja idea de que las máquinas vienen a reemplazar y serán las que van a enseñar, en lugar de los seres humanos.
“Retomaremos la importancia del lado humano, es decir, la idea de que para que alguien aprenda tiene que haber un ser de carne y hueso que enseñe y tenga ciertas intervenciones y diálogo con el que aprende; podemos usar las máquinas, y la verdad nos pueden ayudar mucho, pero no van a reemplazar esa intervención del docente.”
Insistió en que #educatic2024 será un gran espacio para repensar la función de la tecnología para la enseñanza, bajo la premisa de que es el ser humano el que está al mando de las herramientas y quien puede proponer su mejor uso para obtener mayores ventajas, pero también se debe reflexionar con toda responsabilidad sobre sus implicaciones.
El Encuentro tendrá como sede la Escuela Nacional de Trabajo Social. Está abierto a todos los docentes y estudiantes interesados, quienes pueden obtener más información sobre la convocatoria y el registro de ponencias en https://encuentro.educatic.unam.mx/
Alcanza la categoría Rated-2 de forma global en el estándar ANSI/TIA-942-B.
En los ámbitos mecánico, eléctrico, telecomunicaciones logra la categoría Rated-3.
El centro de datos principal de la Dirección General de Cómputo y de Tecnologías de Información y Comunicación se convirtió en el primero de la UNAM en recibir la certificación ANSI/TIA-942-B, que contempla normas y guías de calidad mundial para el diseño, construcción y operación de este tipo de infraestructura.
ANSI/TIA-942-B, un estándar desarrollado por el American National Standards Institute y la Telecommunications Industry Association, cubre todos los aspectos de la infraestructura de un centro de datos: arquitectura, sistemas eléctricos, sistemas de enfriamiento, telecomunicaciones, seguridad física, seguridad de las personas, monitoreo, detección y extinción de incendios.
El estándar establece cuatro categorías de centros de datos, de acuerdo con su nivel de disponibilidad y redundancia, del Rated-1 al Rated-4. Para cada categoría se evalúan los siguientes ámbitos: mecánico, eléctrico, telecomunicaciones y arquitectura.
En los primeros tres, se obtuvo Rated-3 y únicamente en arquitectura, Rated-2. La UNAM es la primera institución de educación superior mexicana que consigue Rated-3 en los ámbitos mencionados. De forma global, el Centro de Datos I SSMC DGTIC alcanzó Rated-2.
Una vez que se obtenga el Rated-3 en arquitectura, se podrá alcanzar de forma global el Rated-3. Esto se prevé que ocurra en febrero de 2025.
Las evaluaciones realizadas como parte del proceso de certificación avalan la alta disponibilidad del centro de datos y que es posible realizar mantenimientos programados sin interrupciones en su operación, entre otros beneficios.
Esto favorece los servicios que el centro de datos ofrece a las áreas universitarias mediante la Nube UNAM: infraestructura como servicio (IaaS), respaldo como servicio (BaaS), bóveda digital (almacenamiento de información a largo plazo), así como el alojamiento de sitios web, el aprovisionamiento de máquinas virtuales y de repositorios de documentos.
Para obtener la certificación, especialistas de sistemas y telecomunicaciones de la DGTIC participaron en la revisión, actualización y análisis de documentación técnica y evidencias físicas presentada a EPI, la instancia certificadora. Además, se realizaron recorridos por el centro de datos para mostrar la infraestructura y soportar con evidencia su operación, como parte de una auditoría.
El investigador del Instituto de Astronomía (IA) de la UNAM, Héctor Manuel Velázquez, colabora en un equipo internacional de científicos que implementó una estrategia para reducir las fuentes de error de las simulaciones de la formación de galaxias.
La cooperación internacional AGORA (Assembling Galaxies Of Resolved Anatomy) tiene como objetivo llevar a cabo un proyecto de comparación entre los códigos más importantes para seguir la formación de galaxias dentro de la estructura a gran escala del universo, mencionó Velázquez, único científico mexicano quien participa en el proyecto, y quien realizó varias de las reproducciones.
“La colaboración nos ha ayudado a mejorar los códigos numéricos al encontrar y corregir errores y comprender mejor cómo los parámetros en cada código controlan los procesos astrofísicos, incluida la formación de estrellas. Este es el punto de partida para simulaciones cada vez más precisas de la formación de galaxias, que realmente nos ayuden a interpretar de manera confiable las observaciones”, afirmó.
Para realizar simulaciones más realistas se compararon los resultados de los códigos más utilizados en el mundo (AREPO, GADGET, ART, RAMSES, CHANGA, GIZMO, entre otros) partiendo de las mismas condiciones iniciales y el modelo de formación estelar, dejando libres otros aspectos tanto de la física como numéricos.
En tanto, el coordinador del Laboratorio de Modelos y Datos de la UNAM, Octavio Valenzuela Tijerino, señaló que lo anterior permitió cuantificar y valorar en qué condiciones se logran resultados similares o convergentes entre todos los grupos. “Este esfuerzo va a permitir separar los sesgos asociados a cada código computacional utilizado en la interpretación de las observaciones de las galaxias”.
Las comparaciones realizadas se basan en códigos de computadora, que cada comunidad ha desarrollado para seguir la formación y evolución de galaxias:
Tenemos programas con diferentes estrategias para representar las cantidades físicas, por ejemplo mallas que son como un cuadriculado donde se va resolviendo la física del problema. Pueden enfocarse de forma automática en ciertas regiones y aumentar la resolución en esa zona para seguir más a detalle el proceso de evolución; en algunos casos estas no son un cuadriculado, sino más bien un mapa de mosaicos triangulares para adaptarse fácilmente a la forma de los objetos simulados.
Además, hay otros programas basados en partículas o aquellos que utilizan tanto mallas como partículas. Cada uno tiene sus bondades, limitaciones y ventajas, comentó Velázquez.
Códigos computacionales
Las propiedades de las galaxias son resultado de complejos procesos entre el gas, polvo, radiación, estrellas y las propiedades del universo en su conjunto. Interpretar las observaciones de ellas de forma detallada requiere de considerar tal complejidad, por lo general utilizando supercomputadoras.
En años recientes se ha logrado un significativo avance en este tipo de representaciones, pero aún existen varios retos para este enfoque. Observaciones del telescopio espacial James Webb muestran posible evidencia de galaxias bien desarrolladas al inicio de la evolución del universo, en aparente conflicto con los cálculos teóricos.
Otro reto descubierto a finales de los 90 es la aparente falta de galaxias satélites brillantes alrededor de la Vía Láctea u otras galaxias similares, ya algunas simulaciones proporcionaban posibles explicaciones.
Se sabe que una parte importante de los átomos (bariones) se encuentra en el halo de las galaxias circundando el disco; predicciones detalladas de las propiedades de este gas han sido una tarea pendiente.
Una de las dificultades a la que los astrofísicos se enfrentan para explicar cómo se formaron desde el Big Bang hasta la actualidad, son las fuentes de incertidumbre relacionadas de los códigos computacionales con los que se recrea la formación de las estrellas, sus explosiones, así como el movimiento del gas, la materia oscura y las estrellas mismas.
¿Cuáles son las limitantes?
Se presentan en la resolución, precisión numérica o en la cantidad de memoria o tiempo del procesador que requieren, así como por hipótesis sobre una variedad de factores físicos como la evolución y explosión de las estrellas, los flujos de gas en las galaxias, además de los movimientos estelares o de la materia oscura.
Debido a lo anterior, los cientos de simulaciones han significado esfuerzos computacionales considerables que implicaron millones de horas de tiempo de cómputo y acceso a grandes recursos de almacenamiento: “Lo más complicado fue conseguir los recursos de supercómputo”, subrayó Velázquez.
Además, el elemento humano es vital para lograr los resultados obtenidos, por tal razón la colaboración está integrada por tantos científicos; sin embargo, hay pocos investigadores y estudiantes aportando a estos estudios en nuestro país:
“La contribución de México a la realización y calibración de estas simulaciones que ayudan a consolidar el entendimiento de fenómenos en las galaxias sería mayor si hubiera más personas, en especial jóvenes, trabajando en este tipo de proyectos”, afirmó Valenzuela Tijerino.
Ambos expertos reconocieron: aunque podría pensarse que en nuestro país es difícil participar en este tipo de esfuerzos debido a los grandes recursos de cómputo que requieren o los grandes grupos, “hay nichos que se pueden aprovechar si se unen esfuerzos para realizar estas colaboraciones”.
Además, que la astronomía tiene un carácter transdisciplinario y que astrofísicos, investigadores y estudiantes de otras áreas -como física, química, ingeniería o computación- también pueden aportar al desarrollo y perfeccionamiento de herramientas para analizar los resultados de estos estudios.
De acuerdo con Héctor Manuel Velázquez, podemos imaginar que una supercomputadora es un aglomerado de varias como las que se tienen en casa, pero todas trabajan de forma colaborativa, durante numerosas horas y con una conexión más rápida que cualquier internet doméstico.
Emplear estas herramientas permite acelerar descubrimientos, los cuales no se podrían efectuar debido a que duran más que la escala de vida humana. “En un futuro se aumentará el realismo y se podrán hacer interpretaciones mucho más precisas”, agregó.
Los resultados
Los resultados de esta investigación están en tres nuevos artículos de la colaboración AGORA, las llamadas simulaciones CosmoRun. En ellos se analizó la formación de una galaxia con la masa de la Vía Láctea.
Las simulaciones comparten los mismos supuestos astrofísicos sobre la radiación ultravioleta de fondo, la física del enfriamiento y el calentamiento del gas y la formación de estrellas, pero difieren en la arquitectura del código y en la física de la retroalimentación estelar. Con la ayuda de los nuevos resultados se determinó que las galaxias de disco, como la Vía Láctea, podrían haber comenzado a formarse temprano en la historia del universo, como se dio a conocer en las recientes observaciones del telescopio espacial James Webb.
Asimismo, descubrieron que el número de galaxias satélite brillantes –aquellas que orbitan alrededor de galaxias más grandes– encaja con las observaciones, independientemente de la estrategia de simulación utilizada, lo cual disminuye un viejo problema llamado “de los satélites perdidos” que consiste en la ausencia de una gran población de pequeñas galaxias satélites brillantes en las observaciones, la cual es predicha mediante simulaciones de materia oscura sin la inclusión de gas y estrellas.
Héctor Manuel Velázquez y Octavio Valenzuela Tijerino sugirieron que más jóvenes interesados en participar y colaborar en este proyecto busquen ser parte de ello: Las puertas están abiertas, ya que con más talento humano se podrá acelerar la obtención de resultados para seguir mejorando las técnicas de observación y entendimiento del universo.
El estudio estuvo dirigido por Ji-hoon Kim en la Universidad Nacional de Seúl, Corea; Joel Primack, Universidad de California Santa Cruz; y Santi Roca-Fàbrega, Universidad de Lund, Suecia.
Se utilizaron supercomputadoras en varios países, entre ellas Miztli en la DGTIC UNAM; Atocatl y Tochtli, en el LAMOD-UNAM; así como Perlmutter en el NERSC, HIPAC y XSEDE, en EU; CfCA y Oakforest-PACS, en Japón.
En la colaboración AGORA participan alrededor de 160 investigadores de 60 universidades del mundo. Parte del estudio se ha publicado en The Astrophysical Journal.
En relación con el Sistema de Votaciones Electrónicas
Estimadas(os) Titulares de Facultades, Escuelas y Coordinadoras(es) de Consejos Académicos de Área y del Consejo Académico del Posgrado y del Bachillerato: P r e s e n t e
En relación con el Sistema de Votaciones Electrónicas, mediante el cual este día serían electos a distancia consejeros y consejeras universitarias, la Dirección General de Cómputo y de Tecnologías de Información y Comunicación (DGTIC) reporta que desde esta mañana se registraron fallas mayores de alimentación en el ancho de banda de la red, por lo que al mediodía no se ha podido restablecer el sistema con normalidad.
Por lo anterior, se informa que se ha decidido posponer la jornada electoral en la Universidad, programada para este día. Se hará saber posteriormente a la comunidad universitaria, por los canales de comunicación de nuestra institución, sobre la nueva fecha.
Les solicitamos atentamente informen sobre esta decisión a sus respectivas comunidades, a la Comisión Local de Vigilancia de la Elección y a todas las fórmulas registradas.
“Por mi Raza Hablará el Espíritu” Ciudad Universitaria, a 24 de abril de 2024.
Los sistemas de inteligencia artificial (SIA) no deben reemplazar la cognición humana y tienen que estar supervisados por las personas y subordinados a ellas, consideró el académico y exdirector de la Facultad de Filosofía y Letras (FFyL), de la UNAM, Jorge Enrique Linares Salgado.
En este ámbito, los individuos siempre deben actuar y decidir, añadió en el Seminario TIC, organizado por la Dirección General de Tecnologías de la Información y Comunicación, donde se abordó el tema Los desafíos de la ética en la inteligencia artificial.
El académico adscrito al Colegio de la FFyL refirió que actualmente los SIA superan a la inteligencia humana en el procesamiento de datos masivos o big data, porque lo hacen casi de forma instantánea. “Ninguna persona puede procesar tan rápido la información, como ya lo hacían las computadoras, y ahora lo hacen esos sistemas con algoritmos, que pueden clasificar, ordenar, comparar y, en ese sentido, comienzan a tomar decisiones”.
El experto en ética de la ciencia y la tecnología, y filosofía de la tecnología, explicó que la IA, o cognición humana simulada, replica por medios tecnológicos y digitales los comportamientos y capacidades inteligentes que, normalmente, poseemos los seres humanos.
Dichos sistemas se pueden utilizar para mejorar todo tipo de servicios, estudios, cálculos, planeación y organización con herramientas digitales; propiciar un nuevo modelo de servicios sociales mediante bases de datos y una red de asistencia pública; generar información de interés para investigaciones y monitoreo en ámbitos públicos o privados; o establecer bases de datos, a fin de desarrollar sistemas comerciales con la información de usuarios.
Linares Salgado señaló que no hay que perder de vista que los sistemas de IA son mercantiles, incluso son bienes de capital y están en un mercado capitalista. La mayoría de los desarrollos e innovaciones provienen de empresas privadas y no de instituciones públicas.
El universitario reiteró que la creación tecnológica e industrial ha tenido una lógica de crecimiento imparable y de aceleración a partir del siglo XX, y eso impide que las personas podamos evaluar con detenimiento los riesgos que se producen. “Se invisibilizan y a veces es difícil descubrirlos hasta que se convierten en daños”.
Entre los desafíos y riesgos de la inteligencia artificial están que las máquinas y los SIA pueden restringir la autonomía de las personas, afectar su capacidad de decisión y razonamiento, o influir en la política y en la toma de decisiones empleando sesgos discriminatorios en sus algoritmos.
Asimismo, obstruir derechos fundamentales como el de la privacidad y la intimidad; suplantar a trabajadores humanos en tareas automatizables; exacerbar las desigualdades sociales y económicas; dañar el clima y el ambiente con el uso desproporcionado de energía y agua; así como mayor contaminación.
Pero el principal, consideró el especialista, es que los SIA no sean en el futuro tan inteligentes, adaptables, sensibles, empáticos y deliberativos como puede ser la mayoría de los seres humanos.
Citó que de acuerdo con la Organización para la Cooperación y el Desarrollo Económicos, 25 por ciento de los trabajos convencionales serán sustituidos por sistemas de IA: se crearán nuevos empleos, pero la mayoría subordinados al mantenimiento de los SIA. Parece un hecho que reemplazarán las labores repetitivas, peligrosas y de tareas cognitivas básicas, que hoy realiza la mayoría de las personas.
Esos sistemas tienen consecuencias ético-políticas intencionales o no intencionadas: “no tienen conciencia o mala fe, como los humanos, pero pueden fallar”. Los errores y daños que ocasionen los SIA podrían ser graves y tener consecuencias, por lo que se requiere transparencia, responsabilidad y rendición de cuentas de quienes sean los encargados de su diseño, construcción y operación.
La IA, recalcó Linares Salgado, no deberá nunca tomar decisiones cruciales (de vida o muerte) o de gran impacto social y ambiental reemplazando a los seres humanos, ni cancelar o eludir el debate y la deliberación democrática y la participación ciudadana en la toma de decisiones.
Entre los principios éticos de esta herramienta, “todos igualmente indispensables”, se encuentran los de protección a la privacidad y la intimidad; de responsabilidad y solidaridad; de evaluación y participación democrática, justicia y equidad; inclusión de la diversidad; de preservación de la responsabilidad humana, y desarrollo sustentable, de acuerdo con la Declaración de Montreal para el Desarrollo Responsable de la IA.