¿Qué es la patología digital?

Patología digital:  

La patología digital consiste en crear, observar, compartir, analizar e interpretar contenidos específicos en imágenes digitales de histopatología de portaobjetos (WSI). Este enfoque se ha implantado cada vez más en los ensayos clínicos, los entornos educativos y la investigación. Por ejemplo, en los Estados Unidos, la Administración de Alimentos y Medicamentos - FDA, desde 2017 ha aprobado el uso de plataformas comerciales para la obtención de imágenes digitales de histopatología en portaobjetos, lo que ha proporcionado herramientas para el diagnóstico primario [1].

En este campo de investigación, se explora cómo combinar el diseño experimental, el reconocimiento de patrones estadísticos y el análisis pronóstico dentro de un marco unificado que permita responder no solo a preguntas desde el ámbito clínico, sino también desde un enfoque científico [x], donde posteriormente se pueden implementar modelos de Inteligencia Artificial - IA que permitan realizar diferentes tareas sobre la imagen, por ejemplo, la segmentación o la clasificación de tejidos [2].

Tomado de: [1], [2]

Imágenes de portaobjetos completos:  

Se trata de imágenes digitalizadas a gran escala y de alta resolución (por ejemplo, 80.000 x 80.000 píxeles), representadas con distintos aumentos que pueden ocupar capacidades de almacenamiento en torno a los Gigabytes utilizando un formato piramidal común (por ejemplo, JPEG2000).

En comparación con sus homólogos de radiología, el tamaño medio de un archivo WSI de patología estándar puede oscilar entre unos cientos de megabytes y varios gigabytes. Los WSI se formatean como pirámides de múltiples resoluciones compuestas por cientos de miles de imágenes individuales optimizadas para una rápida representación y visualización en tiempo real. Esto codifica un modelo de pirámide multicapa en el que el FOV específico se mantiene constante, y las imágenes subsiguientes se derivan de datos de imágenes adyacentes. Varios proveedores utilizan extensiones de archivo de imagen propias, aunque existen iniciativas de interoperabilidad en curso. Se utilizan varios formatos de compresión para generar archivos de menor tamaño. Los archivos de imagen pueden utilizar varios esquemas de compresión, como TIFF, que puede ser de compresión sin pérdidas o con pérdidas, o JPEG, que utiliza un formato de compresión con pérdidas. Digital Imaging and Communications in Medicine (DICOM) ha publicado los suplementos 145 y 122 para discutir un estándar universal de intercambio WSI, y es un esfuerzo en curso. Se necesitan visores específicos de WSI para ver los formatos de archivo propietarios, pero se ha avanzado en la visualización cruzada de diferentes formatos de archivo WSI en visores únicos.

Tomado de: [1]

Telepatología: 

El término Telepatología (TP), utilizado por primera vez por Weinstein en 1986, se define como "el uso de la tecnología de las telecomunicaciones para realizar diagnósticos a distancia en una pantalla de ordenador en lugar de hacerlo directamente a través de la lente de un microscopio". Casi cualquier tipo de espécimen observado con microscopía óptica puede evaluarse también mediante TP. La TP también puede referirse al envío de tipos de archivos que no son de imagen para hacer diagnósticos, pero para los fines de esta revisión, nos referimos a la TP en el contexto de la patología digital para apoyar la consulta intraoperatoria remota (IOC) [1].

La telepatología es el diagnóstico de casos de patología quirúrgica a distancia utilizando imágenes de vídeo en tiempo real o imágenes digitalizadas de almacenamiento y envío. Las directrices clínicas de la Asociación Americana de Telemedicina para la telepatología definen la telepatología como "Una forma de comunicación entre profesionales de la medicina que incluye la transmisión de imágenes de patología e información clínica asociada con el propósito de varias aplicaciones clínicas, incluyendo, pero no limitado a, diagnósticos primarios, interpretación rápida de citología, consultas intraoperatorias y de segunda opinión, revisión de estudios auxiliares, archivo y actividades de calidad"[2].

Tomado de: [1], [2]

Patología computacional: 

La patología computacional investiga un tratamiento probabilístico completo de los flujos de trabajo científicos y clínicos en patología general, es decir, combina el diseño experimental, el reconocimiento de patrones estadísticos y el análisis de supervivencia dentro de un marco unificado para responder a preguntas científicas y clínicas en patología [1].

Definimos la patología computacional como un enfoque del diagnóstico que incorpora múltiples fuentes de datos brutos (por ejemplo, historias clínicas electrónicas; datos de laboratorio, incluidos los "-ómicos"; e imágenes); extrae información biológica y clínicamente relevante de esos datos; utiliza modelos matemáticos a nivel de moléculas, individuos y poblaciones para generar inferencias y predicciones diagnósticas; y presenta ese conocimiento clínicamente procesable a los clientes a través de informes e interfaces dinámicos e integrados, lo que permite a los médicos, pacientes, personal de laboratorio y otras partes interesadas del sistema sanitario tomar las mejores decisiones médicas posibles [2]. 

Tomado de: [1], [2]

¿Qué es la Industria 4.0?

Cuarta Revolución Industrial o Industria 4.0

Se trata de una importante transformación de toda la producción industrial al fusionar las tecnologías digitales y de internet con la industria convencional. Las opiniones están divididas sobre el uso de los términos de revolución o evolución. En Europa, el concepto fue lanzado y es apoyado por los programas del gobierno alemán y por empresas líderes como Siemens o Bosch. En Estados Unidos, el enfoque suele llamarse "Smart Manufacturing", en China se habla de "Made in China 2025" y en Japón de "Innovation 25".

Todos tienen como objetivo el desarrollo de una industria para lanzar productos más rápidamente para aumentar la flexibilidad y aumentar la eficiencia de los recursos a través de la digitalización. En las fábricas inteligentes creadas por la Industria 4.0, los sistemas ciberfísicos de estructura modular supervisan los procesos físicos, crean una copia virtual del mundo físico y toman decisiones descentralizadas. Se comunican a través de la Internet de las Cosas, cooperando en tiempo real entre sí y con los recursos humanos. El almacenamiento y procesamiento de la información se realiza mediante la computación en la nube [1].

Tomado de: [1]

Big Data:

El término Big Data se refiere a grandes conjuntos de datos en crecimiento que incluyen formatos heterogéneos datos estructurados, no estructurados y semiestructurados. Los Big Data tienen una naturaleza compleja que requiere tecnologías potentes y algoritmos avanzados. Por lo tanto, las herramientas tradicionales de Business Intelligence estáticas ya no pueden ser eficientes en el caso de las aplicaciones de Big Data.

La mayoría de los científicos de datos y expertos definen el Big Data por las siguientes tres características principales (llamadas las 3V) (Furht y Villanustre, 2016):

Volumen: Se generan continuamente grandes volúmenes de datos digitales procedentes de millones de dispositivos y aplicaciones (TIC, smartphones, códigos de productos, redes sociales, sensores, registros, etc.). 

Velocidad: Los datos se generan de forma rápida y deben ser procesados rápidamente para extraer información útil y conocimientos relevantes. Por ejemplo, Wallmart (una cadena internacional de tiendas de descuento) genera más de 2,5 PB de datos cada hora procedentes de las transacciones de sus clientes. YouTube es otro buen ejemplo que ilustra la rapidez del Big Data.

Variedad: Los Big Data se generan a partir de diversas fuentes y en múltiples formatos (por ejemplo, vídeos, documentos, comentarios, registros). Los grandes conjuntos de datos están formados por datos estructurados y no estructurados, públicos o privados, locales o distantes, compartidos o confidenciales, completos o incompletos, etc.

Emani et al. (2015) y Gandomi y Haider (2015) indican que algunos actores han añadido más Vs y otras características para definir mejor los Big Data: Visión (un propósito), Verificación (los datos procesados se ajustan a unas especificaciones), Validación (se cumple el propósito), Valor (se puede extraer información pertinente para muchos sectores), Complejidad (es difícil organizar y analizar los Big data debido a la evolución de las relaciones entre los datos) e Inmutabilidad (los Big data recogidos y almacenados pueden ser permanentes si se gestionan bien) [1].

Tomado de: [1]

Analítica de Datos:

La analítica de datos se define como la aplicación de sistemas informáticos al análisis de grandes conjuntos de datos para la toma de decisiones. La analítica de datos es un campo muy interdisciplinar que ha adoptado aspectos de muchas otras disciplinas científicas como la estadística, el aprendizaje automático, el reconocimiento de patrones, la teoría de sistemas, la investigación de operaciones o la inteligencia artificial.

Los proyectos típicos de análisis de datos pueden dividirse en varias fases. Los datos se evalúan y seleccionan, se limpian y filtran, se visualizan y analizan, y los resultados del análisis se interpretan y evalúan finalmente. El proceso de descubrimiento de conocimientos en bases de datos (KDD) comprende las seis fases de selección, preprocesamiento, transformación, extracción de datos, interpretación y evaluación [1].

Tomado de: [1]

Visión por Computador:

La visión por ordenador es un campo de la inteligencia artificial (IA) que permite a los ordenadores y sistemas deducir información significativa de imágenes digitales, vídeos y otras entradas visuales, y tomar medidas o hacer recomendaciones basadas en esa información. Si la IA permite a los ordenadores pensar, la visión por ordenador les permite ver, observar y comprender.

La visión por ordenador funciona de forma muy parecida a la visión humana, con la diferencia de que el ser humano lleva ventaja. La vista humana tiene la ventaja de contar con toda una vida de contexto para entrenar cómo distinguir los objetos, a qué distancia están, si se mueven y si hay algo malo en una imagen.

La visión por ordenador entrena a las máquinas para realizar estas funciones, pero tiene que hacerlo en mucho menos tiempo con cámaras, datos y algoritmos en lugar de retinas, nervios ópticos y un córtex visual. Como un sistema entrenado para inspeccionar productos o vigilar un activo de producción puede analizar miles de productos o procesos por minuto, notando defectos o problemas imperceptibles, puede superar rápidamente las capacidades humanas.

La visión por ordenador se utiliza en sectores que van desde la energía y los servicios públicos hasta la fabricación y la automoción, y el mercado sigue creciendo. Se espera que alcance los 48.600 millones de dólares en 2022.1 [1].

Tomado de: [1]

Inteligencia Artificial:

El concepto de utilizar ordenadores para simular el comportamiento inteligente y el pensamiento crítico fue descrito por primera vez por Alan Turing en 1950.1 En el libro Computers and Intelligence, Turing describió una sencilla prueba, que más tarde se conoció como el "test de Turing", para determinar si los ordenadores eran capaces de alcanzar la inteligencia humana.2 Seis años más tarde, John McCarthy describió el término inteligencia artificial (IA) como "la ciencia y la ingeniería de hacer máquinas inteligentes" [1].

La inteligencia artificial (IA) es quizás el campo más antiguo de la informática y muy amplio, ya que trata todos los aspectos de la imitación de las funciones cognitivas para la resolución de problemas en el mundo real y la construcción de sistemas que aprenden y piensan como las personas. Por ello, suele denominarse inteligencia de las máquinas (Poole, Mackworth y Goebel, 1998) para contrastarla con la inteligencia humana (Russell y Norvig, 2010). El campo gira en torno a la intersección de la ciencia cognitiva y la informática (Tenenbaum, Kemp, Griffiths y Goodman, 2011). En la actualidad, la IA suscita un enorme interés debido a los éxitos prácticos del aprendizaje automático (ML). En la IA siempre ha habido un fuerte vínculo con la explicabilidad, y un ejemplo temprano es el Advice Taker propuesto por McCarthy en 1958 como un "programa con sentido común" (McCarthy, 1960). Probablemente fue la primera vez que se propuso la capacidad de razonamiento con sentido común como clave de la IA. Las investigaciones recientes hacen cada vez más hincapié en que los sistemas de IA deben ser capaces de construir modelos causales del mundo que apoyen la explicación y la comprensión, en lugar de limitarse a resolver problemas de reconocimiento de patrones (Lake, Ullman, Tenenbaum y Gershman, 2017) [2].

Tomado de: [1], [2]

Universidad de los Llanos Universidad Nacional de Colombia Hospital Departamental del Meta
GITECX CIMALAB Grupo Cuidado