Pub Date : 2022-06-01DOI: 10.22201/dgtic.26832968e.2022.5.1
Luis Francisco García Jiménez
El uso de teléfonos inteligentes se ha convertido en parte fundamental del día a día, donde miles de usuarios utilizan aplicaciones como Facebook, Google-drive y Youtube para buscar información e intercambiar datos en sus redes sociales. La crisis de COVID-19 forzó a muchas Instituciones de Educación Superior (IES) a cerrar puertas y a tomar un modelo de clases en línea. Sin embargo, muchos procesos administrativos en las IES han sido interrumpidos o cancelados durante la pandemia. Ante esta problemática, el cómputo en la nube ofrece la oportunidad de que estudiantes, profesores e investigadores puedan acceder a los recursos de su universidad desde Internet, y así disminuir los contratiempos generados al no poder asistir presencialmente. En este sentido, este artículo presenta algunos ejemplos de cómo el cómputo en la nube puede crear grandes beneficios en las IES, así como algunas iniciativas para que las universidades aprovechen el potencial de este paradigma.
{"title":"El cómputo en la nube como una palanca para el desarrollo de las Instituciones de Educación Superior","authors":"Luis Francisco García Jiménez","doi":"10.22201/dgtic.26832968e.2022.5.1","DOIUrl":"https://doi.org/10.22201/dgtic.26832968e.2022.5.1","url":null,"abstract":"El uso de teléfonos inteligentes se ha convertido en parte fundamental del día a día, donde miles de usuarios utilizan aplicaciones como Facebook, Google-drive y Youtube para buscar información e intercambiar datos en sus redes sociales. La crisis de COVID-19 forzó a muchas Instituciones de Educación Superior (IES) a cerrar puertas y a tomar un modelo de clases en línea. Sin embargo, muchos procesos administrativos en las IES han sido interrumpidos o cancelados durante la pandemia. Ante esta problemática, el cómputo en la nube ofrece la oportunidad de que estudiantes, profesores e investigadores puedan acceder a los recursos de su universidad desde Internet, y así disminuir los contratiempos generados al no poder asistir presencialmente. En este sentido, este artículo presenta algunos ejemplos de cómo el cómputo en la nube puede crear grandes beneficios en las IES, así como algunas iniciativas para que las universidades aprovechen el potencial de este paradigma.","PeriodicalId":287597,"journal":{"name":"TIES, Revista de Tecnología e Innovación en Educación Superior","volume":"231 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2022-06-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"114435073","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2022-06-01DOI: 10.22201/dgtic.26832968e.2022.5.2
José Jaime Camacho Escoto
Este artículo presenta un panorama de las posibles aplicaciones que puede tener el uso de Internet de las Cosas (IoT) en las Instituciones de Educación Superior (IES). Se abordan mecanismos que pueden incorporarse en la enseñanza de IoT en las IES. Además, se muestran casos de aplicación de trabajos previos, en los que los autores utilizaron la tecnología para moverse de un salón tradicional a salones con enseñanza a distancia. Este último ha probado tener mejores resultados, en lo que respecta a comprensión de los temas. Las herramientas pueden ir desde el uso de clases grabadas hasta el uso de sensores e inteligencia artificial para evaluar la atención de los estudiantes. Por último, se muestra la incorporación de los laboratorios virtuales para la enseñanza a distancia, lo que permite continuar aplicando los conocimientos, incluso si el estudiante no puede asistir presencialmente a las instalaciones de la IES.
{"title":"Aplicación del Internet de las Cosas en Telecomunicaciones en Instituciones de Educación Superior","authors":"José Jaime Camacho Escoto","doi":"10.22201/dgtic.26832968e.2022.5.2","DOIUrl":"https://doi.org/10.22201/dgtic.26832968e.2022.5.2","url":null,"abstract":"Este artículo presenta un panorama de las posibles aplicaciones que puede tener el uso de Internet de las Cosas (IoT) en las Instituciones de Educación Superior (IES). Se abordan mecanismos que pueden incorporarse en la enseñanza de IoT en las IES. Además, se muestran casos de aplicación de trabajos previos, en los que los autores utilizaron la tecnología para moverse de un salón tradicional a salones con enseñanza a distancia. Este último ha probado tener mejores resultados, en lo que respecta a comprensión de los temas. Las herramientas pueden ir desde el uso de clases grabadas hasta el uso de sensores e inteligencia artificial para evaluar la atención de los estudiantes. Por último, se muestra la incorporación de los laboratorios virtuales para la enseñanza a distancia, lo que permite continuar aplicando los conocimientos, incluso si el estudiante no puede asistir presencialmente a las instalaciones de la IES.","PeriodicalId":287597,"journal":{"name":"TIES, Revista de Tecnología e Innovación en Educación Superior","volume":"13 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2022-06-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"115138814","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2022-06-01DOI: 10.22201/dgtic.26832968e.2022.5.3
Miguel Pérez Gaspar, Javier Gómez Castellano, Everardo Bárcenas Patiño, Luis Francisco García Jiménez
La lógica en general se encarga del estudio de los procesos de razonamiento. Los contextos filosóficos y matemáticos de esta disciplina son posiblemente los más tradicionales. En el área del cómputo, la lógica juega actualmente un papel fundamental. La creciente necesidad de la automatización del razonamiento ha sido uno de los principales motivos del desarrollo de la lógica en la era moderna. El campo de las telecomunicaciones no es la excepción, donde existen diversas tareas de razonamiento que requieren automatización. En este artículo, se describe la aplicación de métodos lógicos para la automatización de estas tareas. Más concretamente, se explica cómo algunos problemas de razonamiento propios de las redes inalámbricas requieren métodos lógicos no-clásicos como la lógica difusa.
{"title":"Lógica difusa y redes inalámbricas","authors":"Miguel Pérez Gaspar, Javier Gómez Castellano, Everardo Bárcenas Patiño, Luis Francisco García Jiménez","doi":"10.22201/dgtic.26832968e.2022.5.3","DOIUrl":"https://doi.org/10.22201/dgtic.26832968e.2022.5.3","url":null,"abstract":"La lógica en general se encarga del estudio de los procesos de razonamiento. Los contextos filosóficos y matemáticos de esta disciplina son posiblemente los más tradicionales. En el área del cómputo, la lógica juega actualmente un papel fundamental. La creciente necesidad de la automatización del razonamiento ha sido uno de los principales motivos del desarrollo de la lógica en la era moderna. El campo de las telecomunicaciones no es la excepción, donde existen diversas tareas de razonamiento que requieren automatización. En este artículo, se describe la aplicación de métodos lógicos para la automatización de estas tareas. Más concretamente, se explica cómo algunos problemas de razonamiento propios de las redes inalámbricas requieren métodos lógicos no-clásicos como la lógica difusa.","PeriodicalId":287597,"journal":{"name":"TIES, Revista de Tecnología e Innovación en Educación Superior","volume":"54 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2022-06-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"114793002","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2022-06-01DOI: 10.22201/dgtic.26832968e.2022.5.4
Yolanda Flores Salgado, Silvia Elizabeth Fraustto del Río, Joel Ireta Moreno, Leobardo Itehua Rico, Héctor Manuel Oliver Hernández, Eduardo Iván Ortega Alarcón, Eduardo Romero Arzate
El Laboratorio Nacional de Cómputo de Alto Desempeño (LANCAD) es un consorcio conformado por tres instituciones con amplia experiencia en supercómputo: el Centro de Investigación y Estudios Avanzados del IPN (Cinvestav), la Universidad Autónoma Metropolitana (UAM) y la Universidad Nacional Autónoma de México (UNAM). LANCAD se creó con el objetivo de apoyar la investigación científica nacional proporcionando servicios de cómputo de alto desempeño (CAD). Con la finalidad de explorar la integración de equipos de cómputo instalados en cada uno de los centros, el grupo técnico del LANCAD desarrolló un prototipo de cluster (1) confederado para que los usuarios ejecuten procesos indistintamente en cualquiera de los clusters CAD que lo conforman en un ambiente estandarizado. El presente artículo resume las experiencias que generó la implementación de la federación de clusters mediante el uso de Slurm Federated Scheduling, así como los retos que surgieron para su construcción, validación y pruebas.
{"title":"Configuración de un cluster confederado para HPC con SLURM","authors":"Yolanda Flores Salgado, Silvia Elizabeth Fraustto del Río, Joel Ireta Moreno, Leobardo Itehua Rico, Héctor Manuel Oliver Hernández, Eduardo Iván Ortega Alarcón, Eduardo Romero Arzate","doi":"10.22201/dgtic.26832968e.2022.5.4","DOIUrl":"https://doi.org/10.22201/dgtic.26832968e.2022.5.4","url":null,"abstract":"El Laboratorio Nacional de Cómputo de Alto Desempeño (LANCAD) es un consorcio conformado por tres instituciones con amplia experiencia en supercómputo: el Centro de Investigación y Estudios Avanzados del IPN (Cinvestav), la Universidad Autónoma Metropolitana (UAM) y la Universidad Nacional Autónoma de México (UNAM). LANCAD se creó con el objetivo de apoyar la investigación científica nacional proporcionando servicios de cómputo de alto desempeño (CAD). Con la finalidad de explorar la integración de equipos de cómputo instalados en cada uno de los centros, el grupo técnico del LANCAD desarrolló un prototipo de cluster (1) confederado para que los usuarios ejecuten procesos indistintamente en cualquiera de los clusters CAD que lo conforman en un ambiente estandarizado. El presente artículo resume las experiencias que generó la implementación de la federación de clusters mediante el uso de Slurm Federated Scheduling, así como los retos que surgieron para su construcción, validación y pruebas.","PeriodicalId":287597,"journal":{"name":"TIES, Revista de Tecnología e Innovación en Educación Superior","volume":"104 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2022-06-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"131303689","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2021-10-01DOI: 10.22201/dgtic.26832968e.2021.4.1
David Emmanuel Maqueda Bojorquez
En el presente texto haremos un breve repaso por la evolución del procesamiento de lenguaje natural y la generación de texto artificial. Desde la década de 1990, vieron la luz las primeras ideas sobre generación artificial de textos. En una primera instancia, las técnicas existentes resultaron insuficientes para resolver tareas, tales como la propia generación de textos, la traducción automática o la búsqueda de información. Sin embargo, al pasar del tiempo se fueron generando nuevas ideas, con base en la comprensión propia de la generación de textos desde la naturaleza humana, desde los primeros modelos de redes neuronales recurrentes hasta los modelos de lenguaje más actuales, desde la consecución de palabras más básicas hasta lograr la generación de obras literarias enteras de manera artificial. De esta forma visualizaremos en esencia cómo es que se dio esta evolución en el campo y cuál fue la lógica que siguió.
{"title":"De redes neuronales recurrentes a modelos de lenguaje: la evolución del PLN en la generación de textos","authors":"David Emmanuel Maqueda Bojorquez","doi":"10.22201/dgtic.26832968e.2021.4.1","DOIUrl":"https://doi.org/10.22201/dgtic.26832968e.2021.4.1","url":null,"abstract":"En el presente texto haremos un breve repaso por la evolución del procesamiento de lenguaje natural y la generación de texto artificial. Desde la década de 1990, vieron la luz las primeras ideas sobre generación artificial de textos. En una primera instancia, las técnicas existentes resultaron insuficientes para resolver tareas, tales como la propia generación de textos, la traducción automática o la búsqueda de información. Sin embargo, al pasar del tiempo se fueron generando nuevas ideas, con base en la comprensión propia de la generación de textos desde la naturaleza humana, desde los primeros modelos de redes neuronales recurrentes hasta los modelos de lenguaje más actuales, desde la consecución de palabras más básicas hasta lograr la generación de obras literarias enteras de manera artificial. De esta forma visualizaremos en esencia cómo es que se dio esta evolución en el campo y cuál fue la lógica que siguió.","PeriodicalId":287597,"journal":{"name":"TIES, Revista de Tecnología e Innovación en Educación Superior","volume":"20 4","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2021-10-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"114033855","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2021-10-01DOI: 10.22201/dgtic.26832968e.2021.4.2
José Luis Morales Reyes, Héctor Gabriel Acosta Mesa, Elia Nora Aquino Bolaños, María del Socorro Herrera Meza, Nicandro Cruz Ramírez, J. L. Chávez-Servia
El frijol es una de las fuentes más importantes de alimentación en la población mexicana. Sus propiedades colorimétricas están directamente relacionadas con sus propiedades nutrimentales. Es por eso que resulta importante contar con métodos que permitan analizar su coloración para poder comparar las características entre poblaciones. Dos de las técnicas más utilizadas para caracterizar el color en las poblaciones de frijol, han sido la espectrofotometría y el análisis de color en imágenes digitales. En el presente trabajo se propone utilizar promedios de color en los espacios de color RGB, HSI y CIE L*a*b* para representar las propiedades colorimétricas de las poblaciones. La experimentación se llevó a cabo estudiando 54 poblaciones de frijol provenientes de distintas regiones del estado de Oaxaca, México, utilizando una clase primaria (identificador de cada población) y una súper clase (formada a partir de una paleta de color). La precisión de clasificación alcanzada, utilizando el algoritmo k-NN en la clase primaria, con las mediciones promedio del espectrofotómetro, fue de 68.24%; con RGB, 46.94%; con HSI, 50%; con CIE L*a*b*, 51.48%, y conjuntando los 9 canales de los tres espacios, fue de 54.91%. Para el caso de la súper clase, los resultados obtenidos fueron de 82.87% con las mediciones promedio del espectrofotómetro, 76.2%; con RGB, 74.91%; con HSI, 77.13%; con CIE L*a*b*, y 78.8%, con los 3 espacios de color. Los resultados sugieren que aun cuando los promedios aproximan las distribuciones reales, es necesaria una representación que capture de manera más robusta las distribuciones de color asociadas a cada población.
{"title":"Clasificación de poblaciones nativas de frijol utilizando visión artificial","authors":"José Luis Morales Reyes, Héctor Gabriel Acosta Mesa, Elia Nora Aquino Bolaños, María del Socorro Herrera Meza, Nicandro Cruz Ramírez, J. L. Chávez-Servia","doi":"10.22201/dgtic.26832968e.2021.4.2","DOIUrl":"https://doi.org/10.22201/dgtic.26832968e.2021.4.2","url":null,"abstract":"El frijol es una de las fuentes más importantes de alimentación en la población mexicana. Sus propiedades colorimétricas están directamente relacionadas con sus propiedades nutrimentales. Es por eso que resulta importante contar con métodos que permitan analizar su coloración para poder comparar las características entre poblaciones. Dos de las técnicas más utilizadas para caracterizar el color en las poblaciones de frijol, han sido la espectrofotometría y el análisis de color en imágenes digitales. En el presente trabajo se propone utilizar promedios de color en los espacios de color RGB, HSI y CIE L*a*b* para representar las propiedades colorimétricas de las poblaciones. La experimentación se llevó a cabo estudiando 54 poblaciones de frijol provenientes de distintas regiones del estado de Oaxaca, México, utilizando una clase primaria (identificador de cada población) y una súper clase (formada a partir de una paleta de color). La precisión de clasificación alcanzada, utilizando el algoritmo k-NN en la clase primaria, con las mediciones promedio del espectrofotómetro, fue de 68.24%; con RGB, 46.94%; con HSI, 50%; con CIE L*a*b*, 51.48%, y conjuntando los 9 canales de los tres espacios, fue de 54.91%. Para el caso de la súper clase, los resultados obtenidos fueron de 82.87% con las mediciones promedio del espectrofotómetro, 76.2%; con RGB, 74.91%; con HSI, 77.13%; con CIE L*a*b*, y 78.8%, con los 3 espacios de color. Los resultados sugieren que aun cuando los promedios aproximan las distribuciones reales, es necesaria una representación que capture de manera más robusta las distribuciones de color asociadas a cada población.","PeriodicalId":287597,"journal":{"name":"TIES, Revista de Tecnología e Innovación en Educación Superior","volume":"197 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2021-10-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"116444095","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2021-10-01DOI: 10.22201/dgtic.26832968e.2021.4.3
Nidiyare Hevia Montiel, Sergio Iván Mota Pantoja, José Antonio Neme Castillo
Una anomalía es una instancia que no se asemeja a la mayoría de las observaciones. Establecer los criterios de comparación, que nos permitan identificar a una instancia como posible anomalía es una tarea abierta en Inteligencia Artificial (IA). La baja frecuencia de estas dificulta tener datos para extraer atributos, que nos proporcionen una idea de qué hace diferente a una anomalía con respecto a las observaciones usuales o habituales. La idea general de los algoritmos de detección de anomalías pasa por escudriñar las observaciones usuales o habituales, para extraer algún criterio o métrica que sea compartida por ellas, y que posea la propiedad de no estar presente en observaciones anómalas. La práctica tradicional para detectarlas es asociarlas a ruido o error en las observaciones y descartarlas. Una perspectiva moderna dice que: una anomalía o discrepancia es un indicio, posiblemente temprano, de algún cambio importante en el objeto de estudio. En este trabajo, presentaremos definiciones operativas, relataremos en qué contextos surgen, y haremos un recorrido sobre algunos algoritmos para su detección.
{"title":"Las anomalías: ¿qué son?, ¿dónde surgen?, ¿cómo detectarlas?","authors":"Nidiyare Hevia Montiel, Sergio Iván Mota Pantoja, José Antonio Neme Castillo","doi":"10.22201/dgtic.26832968e.2021.4.3","DOIUrl":"https://doi.org/10.22201/dgtic.26832968e.2021.4.3","url":null,"abstract":"Una anomalía es una instancia que no se asemeja a la mayoría de las observaciones. Establecer los criterios de comparación, que nos permitan identificar a una instancia como posible anomalía es una tarea abierta en Inteligencia Artificial (IA). La baja frecuencia de estas dificulta tener datos para extraer atributos, que nos proporcionen una idea de qué hace diferente a una anomalía con respecto a las observaciones usuales o habituales. La idea general de los algoritmos de detección de anomalías pasa por escudriñar las observaciones usuales o habituales, para extraer algún criterio o métrica que sea compartida por ellas, y que posea la propiedad de no estar presente en observaciones anómalas. La práctica tradicional para detectarlas es asociarlas a ruido o error en las observaciones y descartarlas. Una perspectiva moderna dice que: una anomalía o discrepancia es un indicio, posiblemente temprano, de algún cambio importante en el objeto de estudio. En este trabajo, presentaremos definiciones operativas, relataremos en qué contextos surgen, y haremos un recorrido sobre algunos algoritmos para su detección.","PeriodicalId":287597,"journal":{"name":"TIES, Revista de Tecnología e Innovación en Educación Superior","volume":"38 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2021-10-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"115386736","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2021-05-01DOI: 10.22201/dgtic.26832968e.2021.4.5
Zian Fanti Gutiérrez, Alfonso Gastelum-Strozzi, E. Hazan-Lasri, F. Arámbula Cosio
En este trabajo presentamos la aplicación de un método de aprendizaje estadístico tomando como base el clasificador de Bayes, para detectar automáticamente la superficie de los huesos en imágenes de ultrasonido. La detección transoperatoria de los huesos del paciente permite el uso de modelos gráficos preoperatorios, de alta resolución, para guiar al cirujano durante la realización de un procedimiento ortopédico. Como caso de estudio reportamos el análisis de imágenes de ultrasonido y la construcción del modelo preoperatorio de la tibia. La distancia de error media, en la detección de automática de la superficie de la tibia, fue de 0.21 mm con una desviación estándar de 0.17 mm.
{"title":"Aprendizaje computacional aplicado a la detección de huesos, en cirugía ortopédica asistida por computadora","authors":"Zian Fanti Gutiérrez, Alfonso Gastelum-Strozzi, E. Hazan-Lasri, F. Arámbula Cosio","doi":"10.22201/dgtic.26832968e.2021.4.5","DOIUrl":"https://doi.org/10.22201/dgtic.26832968e.2021.4.5","url":null,"abstract":"En este trabajo presentamos la aplicación de un método de aprendizaje estadístico tomando como base el clasificador de Bayes, para detectar automáticamente la superficie de los huesos en imágenes de ultrasonido. La detección transoperatoria de los huesos del paciente permite el uso de modelos gráficos preoperatorios, de alta resolución, para guiar al cirujano durante la realización de un procedimiento ortopédico. Como caso de estudio reportamos el análisis de imágenes de ultrasonido y la construcción del modelo preoperatorio de la tibia. La distancia de error media, en la detección de automática de la superficie de la tibia, fue de 0.21 mm con una desviación estándar de 0.17 mm.","PeriodicalId":287597,"journal":{"name":"TIES, Revista de Tecnología e Innovación en Educación Superior","volume":"74 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2021-05-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"116345031","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2021-04-01DOI: 10.22201/dgtic.26832968e.2021.3.6
Javier Salazar Argonza
La Computación sin Servidor o Serverless Computing es una tendencia tecnológica que surgió en años recientes y forma parte de una nueva generación de productos y servicios ofertados por los centros de datos (proveedores de servicios en la nube), que busca facilitar a las empresas e instituciones, el cumplimiento de sus objetivos de negocio. La computación sin servidor, a pesar de su nombre, no implica la eliminación del uso de servidores de aplicaciones, más bien es un nuevo tipo de servicio a través de Internet, que facilita a las empresas e instituciones crear y ejecutar sus aplicaciones y/o servicios de software, sin tener que preocuparse por los diferentes aspectos técnicos asociados a la infraestructura física en la que éstos deben residir. En el presente artículo, se explica en qué consiste la computación sin servidor; se indican algunos casos en donde su uso es recomendado; se comentan las principales ventajas y desafíos para migrar a esta tecnología, y se explican las diferencias entre las principales plataformas tecnológicas de computación sin servidor, disponibles en el mercado. Finalmente, se introduce al lector en el tema de la selección de los marcos de desarrollo de código abierto, sin servidor multiplataforma, Serverless Frameworks.
{"title":"Computación sin servidor","authors":"Javier Salazar Argonza","doi":"10.22201/dgtic.26832968e.2021.3.6","DOIUrl":"https://doi.org/10.22201/dgtic.26832968e.2021.3.6","url":null,"abstract":"La Computación sin Servidor o Serverless Computing es una tendencia tecnológica que surgió en años recientes y forma parte de una nueva generación de productos y servicios ofertados por los centros de datos (proveedores de servicios en la nube), que busca facilitar a las empresas e instituciones, el cumplimiento de sus objetivos de negocio. La computación sin servidor, a pesar de su nombre, no implica la eliminación del uso de servidores de aplicaciones, más bien es un nuevo tipo de servicio a través de Internet, que facilita a las empresas e instituciones crear y ejecutar sus aplicaciones y/o servicios de software, sin tener que preocuparse por los diferentes aspectos técnicos asociados a la infraestructura física en la que éstos deben residir. En el presente artículo, se explica en qué consiste la computación sin servidor; se indican algunos casos en donde su uso es recomendado; se comentan las principales ventajas y desafíos para migrar a esta tecnología, y se explican las diferencias entre las principales plataformas tecnológicas de computación sin servidor, disponibles en el mercado. Finalmente, se introduce al lector en el tema de la selección de los marcos de desarrollo de código abierto, sin servidor multiplataforma, Serverless Frameworks.","PeriodicalId":287597,"journal":{"name":"TIES, Revista de Tecnología e Innovación en Educación Superior","volume":"3 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2021-04-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"131926430","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Pub Date : 2021-04-01DOI: 10.22201/dgtic.26832968e.2021.3.4
Alfredo J. Santillan, Liliana Hernández Cervantes
Para enfrentar la pandemia vinculada a la COVID-19, ha sido necesaria una sinergia entre ciencia, tecnología e innovación. En particular, las Tecnologías de la Información y la Comunicación (TIC) han estado presentes desde la detección del primer caso de SARS-CoV-2 en humanos y en la evolución de la pandemia. En este trabajo presentamos algunas de las aportaciones más relevantes de las TIC, para enfrentar esta adversa situación que ha producido dolorosos decesos, contagios desenfrenados y problemas económicos en todo el mundo.
{"title":"La importancia de las Tecnologías de Información y Comunicación en tiempos de COVID-19","authors":"Alfredo J. Santillan, Liliana Hernández Cervantes","doi":"10.22201/dgtic.26832968e.2021.3.4","DOIUrl":"https://doi.org/10.22201/dgtic.26832968e.2021.3.4","url":null,"abstract":"Para enfrentar la pandemia vinculada a la COVID-19, ha sido necesaria una sinergia entre ciencia, tecnología e innovación. En particular, las Tecnologías de la Información y la Comunicación (TIC) han estado presentes desde la detección del primer caso de SARS-CoV-2 en humanos y en la evolución de la pandemia. En este trabajo presentamos algunas de las aportaciones más relevantes de las TIC, para enfrentar esta adversa situación que ha producido dolorosos decesos, contagios desenfrenados y problemas económicos en todo el mundo.","PeriodicalId":287597,"journal":{"name":"TIES, Revista de Tecnología e Innovación en Educación Superior","volume":"43 1","pages":"0"},"PeriodicalIF":0.0,"publicationDate":"2021-04-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"117072085","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}