Determinación de redes neuronales de constantes elásticas de materiales y estructuras en fluidos complejos nemáticos

Noticias

HogarHogar / Noticias / Determinación de redes neuronales de constantes elásticas de materiales y estructuras en fluidos complejos nemáticos

Jan 08, 2024

Determinación de redes neuronales de constantes elásticas de materiales y estructuras en fluidos complejos nemáticos

Informes científicos volumen 13,

Scientific Reports volumen 13, Número de artículo: 6028 (2023) Citar este artículo

759 Accesos

1 Altmetric

Detalles de métricas

Los enfoques de aprendizaje automático supervisado y redes neuronales artificiales pueden permitir la determinación de parámetros o estructuras de materiales seleccionados a partir de una señal medible sin conocer la relación matemática exacta entre ellos. Aquí, demostramos que las constantes elásticas nemáticas del material y la configuración del material estructural inicial se pueden encontrar utilizando redes neuronales secuenciales aplicadas a la intensidad de la luz dependiente del tiempo transmitida a través de la muestra de cristal líquido nemático (NLC) bajo polarizadores cruzados. Específicamente, simulamos múltiples veces la relajación del NLC desde un estado inicial aleatorio (qeunched) hasta el equilibrio para valores aleatorios de constantes elásticas y, simultáneamente, la transmitancia de la muestra para luz monocromática polarizada. Las transmitancias de luz dependientes del tiempo obtenidas y las constantes elásticas correspondientes forman un conjunto de datos de entrenamiento en el que se entrena la red neuronal, lo que permite la determinación de las constantes elásticas, así como el estado inicial del director. Finalmente, demostramos que la red neuronal entrenada en ejemplos generados numéricamente también se puede usar para determinar constantes elásticas a partir de datos medidos experimentalmente, encontrando un buen acuerdo entre los experimentos y las predicciones de la red neuronal.

Los métodos de aprendizaje automático (ML) se utilizan cada vez más en diferentes contextos de la física de materiales, como para el descubrimiento de nuevos materiales con las propiedades deseadas1,2, para la identificación de fases, transiciones de fase3,4 y parámetros de orden para varios hamiltonianos5. En suspensiones de partículas brownianas activas, la pertenencia de partículas individuales a posibles fases se puede predecir a partir de sus características individuales utilizando redes neuronales artificiales6. ML se utiliza en el modelado de estructuras de lípidos autoensamblados7, caracterización de sistemas coloidales tridimensionales8, análisis de estructuras locales complejas de polímeros de cristal líquido9, aceleración de simulaciones de fluidos10 y otras materias blandas, por ejemplo, materia activa11 incluida nemática activa12,13, 14 Los algoritmos de aprendizaje profundo también se están convirtiendo en herramientas analíticas útiles para el análisis de imágenes microscópicas15,16 y el seguimiento de micropartículas17. Las redes neuronales se pueden emplear para estimar el número de Reynolds para flujos alrededor de cilindros18 y también para la predicción de arrastre de formas bidimensionales arbitrarias en flujo laminar con un número de Reynolds bajo19. Los algoritmos de ML se pueden aprovechar para determinar el parámetro de orden, la temperatura de una muestra20, las fases21 y las temperaturas de transición de fase22 de cristales líquidos, y también longitudes de paso de cristales líquidos colestéricos23 a partir de imágenes de microscopía de luz polarizada, así como para identificar tipos de defectos topológicos en NLC. del conocido campo director24 o para predecir el calor específico de proteínas25 de nuevo diseño. Los algoritmos ML, específicamente las máquinas de vectores de soporte lineal, también se han empleado como clasificadores para optimizar los sensores químicos basados ​​en cristal líquido automatizados26. Además, al combinar la observación de gotas de cristal líquido y el aprendizaje automático, es posible identificar y cuantificar las endotoxinas de diferentes especies bacterianas27.

El equilibrio de la materia blanda se encuentra en el nivel mesoscópico determinado por el mínimo de la energía libre total, y para fluidos complejos nemáticos, la energía libre elástica principal está determinada por tres constantes elásticas \(K_{11}\), \(K_{ 22}\), y \(K_{33}\) que se atribuyen a los tres modos elásticos fundamentales: abocardado, torsión y flexión, respectivamente. Las técnicas comunes y establecidas para medir las constantes elásticas se basan en la transición de Fréedericksz28, donde el cambio abrupto del campo director de ordenación molecular puede detectarse mediante mediciones ópticas o calorimétricas. Por lo general, se necesita una celda específica para medir una constante elástica distinta; sin embargo, los métodos que incluyen celdas híbridas permiten medir las tres constantes elásticas simultáneamente29. La medición también se puede realizar totalmente ópticamente utilizando rayos láser polarizados que inducen la transición óptica de Fréedericksz30 o comparando las transiciones estructurales en muestras experimentales y gotas de LC colestéricas simuladas numéricamente bajo un campo eléctrico31. Más desafiante que la medición de los parámetros del material, como las constantes elásticas, puede ser el reconocimiento de la estructura del director de cristal líquido. Los perfiles de orientación de cristal líquido espaciales tridimensionales completos pueden determinarse a partir de la dependencia angular de la fluorescencia en la nemática utilizando microscopía de polarización confocal fluorescente (FCPM)32,33 o, alternativamente, el tensor dieléctrico y el campo director correspondiente pueden reconstruirse mediante enfoques tomográficos34.

En este estudio, desarrollamos un método basado en redes neuronales para la determinación de constantes elásticas y estructuras nemáticas simples a partir de la medición de la transmitancia de luz estándar de una muestra nemática confinada entre polarizadores cruzados durante la relajación dinámica de la nemática al estado de energía libre mínima desde un estado inicial arbitrario, como el inducido por un campo eléctrico aleatorio. Específicamente, las constantes elásticas están determinadas por una red neuronal artificial (ANN) que se entrena de antemano en miles de pares de transmitancias simuladas numéricamente para varios estados iniciales y constantes elásticas aleatorias. El método se valida con datos de medición de experimentos completos y se encuentra una muy buena concordancia entre las constantes elásticas predichas y reales. Complementariamente, también el método puede producir la configuración inicial del campo director a partir de la transmitancia dependiente del tiempo después o si se conocen las constantes elásticas.

Resumen gráfico del método para la identificación de parámetros desconocidos de sistemas dinámicos basado en simulaciones numéricas y redes neuronales artificiales. En este estudio, se utilizó un enfoque de este tipo para determinar las constantes elásticas nemáticas de Frank a partir de las intensidades de luz transmitida dependientes del tiempo medidas a través de cristales líquidos.

El método basado en redes neuronales desarrollado para determinar las constantes elásticas se basa en el modelado combinado de (i) dinámica efectiva de cristal líquido, (ii) transmisión de luz y (iii) aprendizaje automático supervisado, aplicable tanto a datos experimentales como de modelado. El método comienza calculando una gran cantidad de funciones de transmitancia del haz de luz dependientes del tiempo I(t) durante la relajación de la muestra NLC que corresponden a diferentes constantes elásticas, que luego usamos para entrenar la red neuronal que reconoce las constantes elásticas de un simulado. medición. Posteriormente, la red neuronal bien entrenada se utiliza para predecir constantes elásticas también a partir de señales medidas a partir de muestras reales en el laboratorio. En la Fig. 1 se muestra una descripción general del método, que podría, en principio, usarse para cualquier otra configuración relevante experimentalmente y para determinar otros parámetros del material. La simulación de perfiles LC se explica en Métodos.

La dinámica orientacional de un cristal líquido nemático depende del estado inicial, la viscosidad rotacional \(\gamma _1\), el espesor de celda D y también de las constantes elásticas de Frank. Por lo tanto, si el campo director se deforma inicialmente por pulsos cortos del campo eléctrico o magnético, se reconfigurará nuevamente al estado de equilibrio después de que se apaguen los campos. En consecuencia, la intensidad de la luz transmitida a través de la celda de cristal líquido entre los polarizadores cruzados también varía durante la relajación y, por lo tanto, su dependencia del tiempo transmite indirectamente información sobre las constantes elásticas. Entonces, la idea de este método es utilizar una red neuronal para identificar constantes elásticas a partir de las intensidades de luz transmitida dependientes del tiempo, independientemente del estado inicial del director. Sin embargo, para realizar esta tarea, la red neuronal debe entrenarse con datos, es decir, con muchos ejemplos de intensidades dependientes del tiempo I(t) y constantes elásticas asociadas. En la configuración para la determinación de las constantes elásticas nemáticas, asumimos una geometría de celda específica donde el cristal líquido está confinado en una celda delgada de espesor \(D\sim 10\ \upmu \text {m}\) con un fuerte anclaje que es uniforme en las direcciones x e y en ambos límites, de modo que el director varía solo a lo largo del eje z y en el tiempo t, \(\textbf{n}= \textbf{n}(z,t)=(n_x(z ,t),n_y(z,t),n_z(z,t))=(\cos \phi (z,t)\cos \theta (z,t),\sin \phi (z,t)\cos \theta (z,t),\sin \theta (z,t))\), donde \(\theta \in [-\pi /2,\pi /2]\) y \(\phi \in [ -\pi ,\pi ]\) son ángulos esféricos. Para determinar solo las constantes de separación y curvatura, \(K_{11}\) y \(K_{33}\), una geometría de director 2D aún más simple (es decir, la variabilidad del perfil del director), \(\textbf{n}(z,t )=(\cos \theta (z,t),0,\sin \theta (z,t))\), resulta suficiente.

Esquema del método basado en redes neuronales para determinar las constantes elásticas de las deformaciones de separación (\(K_{11}\)) y curvatura (\(K_{33}\)). Primero, las constantes elásticas se establecen aleatoriamente (1), luego se genera el estado inicial aleatorio del director, \(\textbf{n}(z,t=0)\), (2), y en consecuencia, la dinámica de se calcula el director \(\textbf{n}(z,t)\) (3) que nos permite simular la dependencia temporal de la intensidad de la luz transmitida a través de la muestra entre polarizadores cruzados (4). Esto se repite 200.000 veces para generar un conjunto de datos de entrenamiento y validación. Una vez que la red neuronal está bien entrenada, la intensidad I(t) medida experimentalmente se puede utilizar para determinar las constantes elásticas de una muestra de cristal líquido real. Por ejemplo, para la determinación de las constantes elásticas de 5CB, el espesor de celda fue \(D=10\ \upmu\)my el intervalo de tiempo fue \(T=1.28\) s.

El esquema del método para determinar \(K_{11}\) y \(K_{33}\) se muestra en la Fig. 2. Para crear un conjunto de entrenamiento, comenzamos generando un par de constantes elásticas aleatorias \(K_ {11}\) y \(K_{33}\) de la distribución uniforme en el intervalo de posibles valores esperados. Por ejemplo, para predecir las constantes elásticas del cristal líquido 5CB a aproximadamente 23 °C, elegimos constantes elásticas de la distribución uniforme \(U(2\text { pN}, \ 18\text { pN})\) como esperamos las constantes reales en algún lugar dentro de este intervalo29,35,36. A continuación, el estado inicial de no equilibrio del director \(\textbf{n}(z,t=0)=(\cos \theta (z,t=0),0,\sin \theta (z,t= 0))\) se establece generando una función 1D suave aleatoria, no necesariamente significativa físicamente \(\theta (z,t=0)\) para \(z\in [0,D]\) por interpolación cuadrática entre un número aleatorio de puntos en diferentes posiciones aleatorias dentro del intervalo [0, D]. Teniendo el estado inicial \(\textbf{n}(z,t=0)\), un par de constantes elásticas y la viscosidad rotacional \(\gamma _1\) (eg \(0.098 \text { Pa s}\) para 5CB a temperatura ambiente37,38), la dinámica \(\textbf{n}(z,t)\) se simula numéricamente (ver "Métodos"). Las condiciones de contorno \(\textbf{n}(z=0,t)\) y \(\textbf{n}(z=D,t)\) están determinadas por el tipo de anclaje seleccionado en cada contorno. Se prueban diferentes combinaciones de anclaje planar (\(\theta =0\)) y homeotrópico (\(\theta =\pi /2\)). A partir de la configuración del director en cada paso de tiempo, se calcula la transmisión de luz a través de polarizadores cruzados y la muestra de cristal líquido reconfigurante entre ellos mediante el formalismo de matriz de Jones39,40. Comentamos que también podrían usarse métodos de propagación de luz más avanzados, como el dominio de tiempo de diferencia finita (FDTD)41, pero no dan una diferencia cualitativa para las geometrías nemáticas consideradas. Los valores de los índices de refracción ordinarios y extraordinarios, el grosor de la celda y el espectro de la fuente de luz deben conocerse con precisión para un material de cristal líquido particular y un entorno experimental. De esta forma, la dependencia temporal de la transmitancia I(t) se calcula y discretiza en, por ejemplo, 500 pasos de tiempo para cada par de constantes elásticas aleatorias correspondientes y el estado inicial del director. Repitiendo esto 200 000 veces, un conjunto de 200 000 pares de vectores de entrada \({\textbf{X}}_i=[I_i(t=0),I_i(t=\Delta t), ...,I_i(t=T =499\Delta t)]\) y vectores de salida esperados (verdaderos) \({\textbf{T}}_i=\left[ \widetilde{K_{11}^i},\widetilde{K_{33}^i }\right]\), empaquetado como \(\{(\textbf{X}_1,\textbf{T}_1), ..., (\textbf{X}_{200000},\textbf{T}_ {200000}) \}\), que luego se divide en un conjunto de datos de entrenamiento y validación de longitudes 185,000 y 15,000, respectivamente. El tiempo del intervalo T depende de la geometría y la viscosidad rotacional \(\gamma _1\), y lo establecemos en un valor tal que la intensidad I(t) se satura y efectivamente se vuelve constante. Para el entrenamiento, los datos, como es habitual en el entrenamiento de redes neuronales42, se escalan linealmente en el intervalo [0, 1]. Si bien las intensidades relativas I(t) ya están limitadas a este intervalo por sí mismas, transformamos las constantes elásticas mediante el "MinMaxScaler" como \(\widetilde{K_{11}^i}=\left( K_{11}^i - \min _j\left( K_{11}^j\right) \right) /\left( \max _j\left( K_{11}^j\right) -\min _j\left( K_{11}^j \right) \right)\) y análogamente para \(\widetilde{K_{33}}\) . El conjunto de datos de entrenamiento se utiliza para entrenar los pesos y sesgos de una red neuronal secuencial densa de modo que la diferencia entre el resultado previsto \({\textbf{Y}}\) y el resultado esperado \({\textbf{T}} \) iterativamente se vuelve lo más pequeño posible. Para cuantificar la diferencia, se utilizó el error absoluto medio como función de pérdida. El conjunto de validación se usa para probar el rendimiento de la red neuronal para datos que no se usaron para el entrenamiento. El entrenamiento a través del algoritmo de optimización de Adam43 se realizó utilizando el software Tensorflow Keras44,45 con un tamaño de lote de 25 y una tasa de aprendizaje \(\eta =0.0003\). Se utilizó una red neuronal con una capa de entrada de 500 neuronas y cuatro capas ocultas de 500, 400, 250 y 100 neuronas y funciones de activación de unidades lineales rectificadas (ReLU) y una capa de salida de dos neuronas con funciones de activación sigmoide. Resulta que la arquitectura de la red puede variar sustancialmente siempre que el número total de parámetros (conexiones entre neuronas) sea lo suficientemente grande (para nuestro estudio, mayor que el orden de magnitud \(\sim 10^{5}\) ). Como se observa, agregar más capas o aumentar el número de neuronas en capas en el modelo descrito no mejora significativamente su precisión.

Comparación de las constantes elásticas pronosticadas y reales \(K_{11}\) y \(K_{33}\) del conjunto de datos de validación con \(\textbf{n}(z,t)=(\cos \theta (z ,t),\ 0,\ ​​\sin \theta (z,t))\) geometría directora y tres combinaciones diferentes de anclaje. La geometría planar-planar (a) permite predecir con precisión \(K_{11}\) pero no \(K_{33}\), utilizando la geometría homeotrópica-homeotrópica (b), se puede determinar \(K_{33}\) , mientras que en la geometría homeotrópica plana (c), se puede entrenar una red neuronal para determinar ambas constantes elásticas \(K_{11}\) y \(K_{33}\) a la vez. La configuración planar-homeotrópica también se usa más tarde en experimentos.

Se puede entrenar una red neuronal para que reconozca las constantes elásticas \(K_{11}\) y \(K_{33}\) de las transmitancias dependientes del tiempo I(t) a través de muestras con \(\textbf{n}(z, t)=(\cos \theta (z,t),0,\sin \theta (z,t))\) geometría directora solo si la plana (\(\theta (z=0)=0\)) y el anclaje homeotrópico (\(\theta (z=D)=\pi /2\)) se usa en las superficies celulares opuestas. La geometría de anclaje planar-planar nos permite determinar \(K_{11}\) solamente, mientras que en las celdas con anclaje homeotrópico en ambas superficies, solo se puede determinar \(K_{33}\). Esto se muestra en la Fig. 3, donde los histogramas 2D muestran el número de puntos en secciones particulares del espacio 2D de constantes verdaderas versus predichas para ejemplos del conjunto de validación. Para un solo tipo de anclaje en ambas placas, la orientación de equilibrio de las moléculas es siempre constante a lo largo del eje z, ya sea \(\theta (z,t\rightarrow \infty )=0\) o \(\theta (z,t \rightarrow \infty )=\pi /2\), independientemente de las constantes elásticas. En consecuencia, la transmitancia después de la relajación, \(I(t\rightarrow \infty )\), no depende de ellos y, por lo tanto, la información sobre las constantes elásticas está integrada efectivamente en la dinámica efectiva de la I(t) dependiente del tiempo. En la geometría planar-planar, la dinámica en la última parte de la relajación, cuando las deformaciones son pequeñas, y el director es solo ligeramente diferente de su configuración de equilibrio \(\textbf{n}(z,t\rightarrow \infty ) =(1,0,0)\), se rige principalmente por \(K_{11}\). Esto se deriva del hecho de que en un régimen de pequeñas deformaciones, \((\parcial n_z/\parcial z)^2\gg (\parcial n_x/\parcial z)^2\) y por lo tanto la energía libre elástica de Frank-Oseen densidad ("Métodos": Ec. 1) se simplifica a \(f_{FO}\approx K_{11/2}(\partial n_z/\partial z)^2\). Esta es la razón por la cual solo \(K_{11}\) puede determinarse en tal geometría. En geometría homeotrópica-homeotrópica, es todo lo contrario. La dinámica está gobernada por \(K_{33}\) y por lo tanto sólo se puede determinar \(K_{33}\). Sin embargo, la configuración de equilibrio del director en una celda con geometría de anclaje planar-homeotrópica está descrita por \(\theta (z,t\rightarrow \infty )=\pi z/2D\) si \(K_{11}=K_ {33}\) y por una función convexa o cóncava \(\theta (z,t\rightarrow \infty )\) cuando \(K_{11}>K_{33}\) o \(K_{11}< K_{33}\), respectivamente. Esto también resulta en la dependencia de \(I(t\rightarrow \infty )\) en ambas constantes elásticas y por esta razón, I(t) lleva más información en tal geometría y es posible determinar ambas constantes elásticas al mismo tiempo. tiempo. En consecuencia, se ha elegido dicha geometría para ser estudiada con más detalle. Como se muestra en la curva roja de la Fig. 6, el error absoluto medio de las constantes elásticas predichas puede disminuir hasta \(\overline{\sigma_K_{ii}}}\approx 0.5 \text { pN}\) después de 60 épocas de entrenamiento y tamaño de lote 25 utilizando el conjunto de entrenamiento correspondiente a los parámetros, descritos en el pie de foto de la Fig. 4.

Sensibilidad del método para determinar \(K_{11}\) y \(K_{33}\) a la inexactitud de los parámetros utilizados para generar los datos de entrenamiento. La red neuronal que predice \(K_{11}\) y \(K_{33}\) a partir de I(t) se entrena con datos de simulaciones con \(D=15\ \upmu \textrm{m}\), \(\gamma _1=0.200 \ \text {Pa s},\) \(n_o=1.523\), y \(n_e=1.744\). Si la red neuronal se usa para predecir constantes elásticas de una muestra con constantes reales \(K_{11}=11 \text { pN}\), \(K_{33}=17 \text { pN}\) y exactamente las mismos parámetros (\(D,\ \gamma _1, \ n_o,\ n_e\)), se muestra buena calidad de predicción.

Por supuesto, la predicción depende de la precisión de otros parámetros (índices de refracción, \(n_o\), \(n_e\), grosor de la celda, D, viscosidad rotacional, \(\gamma _1\)) que, por lo tanto, deberían ser conocida con la mayor precisión posible. Por ejemplo, el grosor de la celda y los índices de refracción determinan explícitamente la diferencia de fase entre la polarización ordinaria y la extraordinaria y, por lo tanto, la magnitud de la intensidad de la luz, mientras que la viscosidad rotacional escala directamente con las constantes elásticas y, a su vez, con las curvas I(t) en tiempo. En la Fig. 4, mostramos las distribuciones de las constantes elásticas determinadas por la red neuronal que fue entrenada en el conjunto de datos correspondiente a \(D= 15.0 \ \upmu \text {m}\), \(n_o=1.523\) , \(n_e=1,744\), \(\gamma _1=0,20\ \text {Pa s}\) y se probaron las transmitancias dependientes del tiempo que se simularon en sistemas con constantes elásticas \(K_{11}=11,0 \text { pN}\), \(K_{33}=17.0 \text { pN}\), pero ligeramente modificados los parámetros D, \(n_o\), \(n_e\), \(\gamma _1\). Entrenar una red neuronal con datos correspondientes al grosor inexacto de la celda D o índices de refracción \(n_o\), \(n_e\) hace que las constantes elásticas pronosticadas estén en una proporción incorrecta, mientras que la inexactitud de la viscosidad rotacional \( \gamma _1\) hace que ambas constantes pronosticadas se desplacen por el mismo factor.

Una vez que la red neuronal está bien entrenada a partir de pares de datos generados numéricamente (\({\textbf{X}},{\textbf{T}}\)) calculados con el mismo grosor de la celda D, los índices de refracción \(n_o\ ), \(n_e\) y la viscosidad rotacional \(\gamma _1\) como se usa en la configuración experimental, la red entrenada también se puede utilizar para predecir las constantes elásticas de una muestra real a partir de un I(t) medido experimentalmente.

Resultados de datos medidos experimentalmente. Los paneles (a) y (d) muestran las mediciones de las intensidades dependientes del tiempo I(t) en 5CB y E7 a temperatura ambiente. Diferentes curvas corresponden a diferentes estados iniciales del director \(\theta (z,t=0)\) causados ​​por pulsos eléctricos aleatorios. Los paneles (b), (c), (e), (f) muestran las distribuciones de las constantes elásticas de 5CB y E7 determinadas por cinco redes neuronales entrenadas de forma independiente para cada material. Se usaron los siguientes parámetros para construir los conjuntos de datos de entrenamiento de acuerdo con la configuración experimental: (i) la configuración de 5CB tiene \(D=10\ \upmu \text {m}\), \(\gamma _1=0.098\ \text {Pa s}\)37,38, \(n_o=1.5450\), \(n_e=1.7400\)46,47,48, \(\overline{\lambda }=505\text { nm}\), \ (\sigma _\lambda =20\ \text {nm}\), \(K_{11}\) y \(K_{33}\) rango en el conjunto de datos de entrenamiento \(U(2\text { pN} ,\ 18\text { pN})\), y (ii) la configuración de E7 tiene \(D=15\ \upmu \text {m}\), \(\gamma _1=0.200\ \text {Pa s}\ )49, \(n_o=1.5225\), \(n_e=1.7435\)48, \(\overline{\lambda }=595\text { nm}\), \(\sigma _\lambda =8\ \text {nm}\), \(K_{11}\) y \(K_{33}\) rango en el conjunto de datos de entrenamiento \(U(5\text { pN},\ 25\text { pN})\) . El panel (g) muestra los valores de las matrices transpuestas de pesos entre la última capa oculta y la capa de salida de cinco redes neuronales entrenadas de forma independiente que se usaron para predecir las constantes elásticas de la muestra E7. Las cinco redes neuronales tenían la misma arquitectura e hiperparámetros de entrenamiento idénticos (velocidad de aprendizaje, tamaño del lote, número de épocas, etc.) y se utilizaron los mismos datos de entrenamiento. Esto ilustra que existen, debido a una gran cantidad de parámetros del modelo (pesos y sesgos) y la inicialización aleatoria de los mismos, muchas redes neuronales con combinaciones de pesos completamente diferentes que aún dan como resultado resultados muy similares de la red.

Experimentalmente, las muestras de cristal líquido nemático de 5CB y E7 se usaron en \(D=10.0\ \upmu \text {m}\) y \(D=15.0\ \upmu \text {m}\) celdas gruesas, respectivamente, con fuerte anclaje plano uniforme en la parte inferior (\(z=0\)) y anclaje homeotrópico en la superficie superior (\(z=D\)) en ambos casos. La muestra de NLC entre polarizadores cruzados se iluminó con una lámpara de espectro conocido y se midió la luz transmitida. Primero, usando electrodos transparentes colocados en los límites de la celda, el director fue deformado aleatoriamente dentro del plano xz por los pulsos del campo eléctrico en tiempos \(t<0\) y después de que el voltaje se apagó en \(t= 0\), el director se relajó libremente desde su estado inicial aleatoriamente deformado hasta el estado de mínima energía libre. Se realizaron 30 mediciones experimentales I(t) para cada material y luego se normalizaron al intervalo [0, 1] y se interpolaron a 500 pasos de tiempo dentro del mismo dominio de tiempo como intensidades simuladas numéricamente que se usaron para el entrenamiento, \([0,T =499\Delta t]\). Dado que el rendimiento de nuestro método no depende del estado inicial del director, debido a la variedad de estados iniciales del director utilizados para el conjunto de datos de entrenamiento, la transmitancia I(t) podría medirse después de que la muestra ya estuviera parcialmente relajada. Esto nos permite que las intensidades medidas I(t) se puedan interpolar a muchos intervalos aleatorios \([\Lambda ,\Lambda +T]\), donde \(\text {max}(\Lambda )=T/10\) , para aumentar la cantidad de entradas \(\textbf{X}\) y, en consecuencia, obtener más resultados \({\textbf{Y}}=[K_{11}\), \(K_{33}]\) para lograr mejores estadísticas de los valores predichos.

Posible sobreajuste en la extracción de constantes elásticas a partir de datos experimentales. Observe cómo la precisión del método mejora con el número de épocas para datos de validación numérica (en rojo, eje derecho), pero puede perder precisión para un gran número de épocas en datos experimentales (para épocas \(\gtrsim 10\), en histogramas verde y azul, eje izquierdo). Las líneas horizontales punteadas muestran los valores anticipados de las constantes elásticas de la literatura para E7. \(\overline{\sigma _{K_{ii}}}\) es el error absoluto medio de las constantes elásticas predichas correspondientes a los ejemplos numéricos del conjunto de validación; la línea sólida representa el promedio que generalmente disminuye de una época a otra. Las funciones de densidad de probabilidad de las predicciones \(\text {d}p/\text {d} K_{11}\) y \(\text {d}p/\text {d} K_{33}\) después de 1, Se muestran 4, 9, 15, 22, 40, 64 épocas. El ancho del contenedor es de 0,5 pN.

Las intensidades dependientes del tiempo medidas y las distribuciones de las constantes elásticas pronosticadas para las muestras de cristal líquido 5CB y E7 a temperatura ambiente (aprox. 23 °C) se muestran en la Fig. 5. En cada histograma, hay cinco distribuciones diferentes de predicciones para \(K_{11}\) y \(K_{33}\) creados por cinco redes neuronales entrenadas de manera diferente. Los pesos y sesgos de las redes siempre se establecen inicialmente en valores aleatorios42 y dado que el número de ellos es muy grande, sus valores finales son diferentes después de cada entrenamiento, pero las predicciones generalmente siguen siendo similares. Las matrices transpuestas de los valores de los pesos (de tamaño \(100\times 2\)) entre la última capa oculta (de tamaño 100) y la capa de salida (de tamaño 2) de las redes que predicen las constantes elásticas de la muestra E7 son se muestra en el panel (g) de la Fig. 5. Las constantes elásticas determinadas por las redes neuronales se comparan con los valores publicados en la literatura en la Tabla 1. Como se ilustra en la Fig. 4, la precisión de las constantes elásticas pronosticadas depende de la precisión de diferentes materiales y parámetros geométricos, como D, \(n_o\), \(n_e\) y \(\gamma _1\). En la configuración utilizada (experimental), el grosor de la celda se midió con una precisión de \(\pm 0.1\, \upmu\)m, los índices de refracción con una precisión de \(\pm 0.001\), de acuerdo con los valores típicos informados en la literatura46,47,48. La viscosidad rotacional \(\gamma_1\) se tomó de la literatura37,38,49.

Al aumentar el número de épocas de entrenamiento, el error absoluto medio de las constantes predichas para los ejemplos numéricos del conjunto de validación disminuye, como lo muestra la curva roja en la Fig. 6, pero las predicciones de las mediciones experimentales de la transmitancia I(t) se vuelven cada vez más inexacta, en comparación con los valores esperados51, \(K_{11}\approx 11.1\ \text {pN}\), \(K_{33}\approx 17.1\ \text {pN}\), como se muestra en azul y verde histogramas en la Fig. 6. Además de eso, pueden surgir múltiples picos en las distribuciones de constantes elásticas determinadas por redes neuronales. Especulamos que la razón es la siguiente. Las diferencias entre las intensidades dependientes del tiempo medidas y simuladas son inevitables: siempre hay imprecisiones en los parámetros (D, \(n_o\), \(n_e\), \(\gamma _1\)) que se utilizan para generar la los datos de entrenamiento, el reflujo y la dispersión de la luz se desprecian en las simulaciones, también hay algo de ruido en las mediciones experimentales. Por lo tanto, solo podemos simular aproximadamente las transmitancias I(t). Además de eso, se sabe que las redes neuronales pueden volverse sobreajustadas42,53 y, por lo tanto, menos generales y más sensibles a los detalles y al ruido durante el entrenamiento con el aumento del número de épocas de entrenamiento. Observamos que mientras el modelo sea lo suficientemente general (después de menos de \(\sim 10\) épocas), las distribuciones de las constantes pronosticadas son más amplias pero centradas cerca de las constantes reales, mientras que después de muchas (\(\gtrsim 20\ )) épocas, las distribuciones de las predicciones se vuelven más estrechas pero menos precisas. Por esta razón, para lograr predicciones óptimas, no se debe sobreentrenar la red cuando el objetivo es predecir parámetros materiales a partir de señales medidas experimentalmente que, en detalles, siempre son ligeramente diferentes de las simuladas. Por lo tanto, para evitar el sobreajuste, dejamos de entrenar después de 10 o incluso menos épocas de entrenamiento. En la Fig. 5 y en la Tabla 1, las constantes elásticas pronosticadas fueron determinadas por modelos que fueron entrenados en 5 épocas.

Predicción de las tres constantes elásticas de I(t) medidas a través de muestras con director 3D con dependencia 1D, \(\textbf{n}(z,t)=(n_x(z,t),n_y(z,t),n_z (z,t))\). Comparación de las constantes elásticas pronosticadas y reales \(K_{11}\), \(K_{22}\), \(K_{33}\) de los conjuntos de datos de validación numérica con diferentes combinaciones de anclaje, marcadas con flechas de dos puntas en la primera columna. Mientras que en la celda nemática híbrida alineada (HAN) (a), es posible determinar \(K_{11}\) y \(K_{33}\), en la celda nemática torcida (TN) (b), solo \(K_{11}\) se puede predecir aproximadamente, pero usando una celda nemática de giro inclinado (TTN) con planar (\(\theta (z=0)=0\), \(\phi (z=0) =0\)) e inclinado (\(\theta (z=D)=\pi /3\), \(\phi (z=D)=\pi /2\)) anclaje (c), es alcanzable para extraer las tres constantes de la transmitancia dependiente del tiempo I(t) a la vez.

Para extraer las tres constantes elásticas \(K_{11}\), \(K_{22}\) y \(K_{33}\) de I(t), prueba que deformaciones más complejas del director que incluyen torsión son necesarios para emerger en la celda de medición o geometría. Para mantener la geometría de la celda, por lo tanto, la parametrización del director \(\textbf{n}(z,t)=(n_x(z,t),n_y(z,t),n_z(z,t))=(\cos \phi (z,t)\cos \theta (z,t),\sin \phi (z,t)\cos \theta (z,t),\sin \theta (z,t))\) con infinitamente anclaje fuerte que proporciona condiciones de contorno fijas \(\phi (z=0,t)\), \(\theta (z=0,t)\), \(\phi (z=D,t)\), \ (\theta (z=D,t)\) se asume. El estado inicial del director en simulaciones numéricas está determinado por dos funciones aleatorias \(\theta (z,t=0)\) y \(\phi (z,t=0)\). La transmitancia se simula nuevamente de manera similar utilizando el formalismo de Jones, y el entrenamiento de las redes neuronales es casi el mismo que para la determinación de dos constantes excepto por el vector de salida que es, en este caso, tridimensional (para las tres constantes elásticas) , \({\textbf{T}}_{i}=[K_{11}^i,K_{22}^i,K_{33}^i]\).

Como se muestra en la Fig. 7, hemos descubierto que en células nemáticas alineadas híbridas (HAN) (panel (a)) y en células nemáticas retorcidas (TN) (panel (b)), la determinación de \(K_{11 }\), \(K_{22}\) y \(K_{33}\) a la vez no es posible, mientras que en una celda nemática de giro inclinado (TTN) con planar (\(\theta (z=0)= 0\), \(\phi (z=0)=0\)) e inclinada (\(\theta (z=D)=\pi /3\), \(\phi (z=D)=\pi /2\)) anclaje (panel (c)), el I(t) aparentemente lleva información sobre las tres constantes, que por lo tanto puede ser determinada por una red neuronal debidamente entrenada. La realización experimental de tales células está más allá del alcance de este trabajo, pero es claramente realizable54.

Como uso alternativo de nuestro método, si se conocen todos los parámetros materiales, incluidas las constantes elásticas, nuestra metodología de redes neuronales también se puede usar para predecir el campo director inicial \(\textbf{n}(z,t=0)\) , a partir de la transmitancia dependiente del tiempo I(t). A continuación, mostramos los resultados de la geometría directora 2D efectiva con \(\textbf{n}(z,t)=(n_x(z,t),0,n_z(z,t))=(\cos \theta (z, t),0,\sen\theta (z,t))\).

Usando un conjunto de datos de 390,000 pares \((\textbf{X}, \textbf{T})=\left( [I(t)],[\theta (z,t=0)]\right) =([ I(t=0),I(t=\Delta t), ..., I(t=499 \Delta t)], [\theta (z=0,t=0),\theta (z=h ,t=0),...,\theta (z=199h,t=0)])\), que se crea de manera similar a la sección "Método basado en redes neuronales para determinar constantes elásticas" pero con elasticidad fija constantes, entrenamos la red neuronal con una capa de entrada de tamaño 500 y cuatro capas ocultas totalmente conectadas construidas de 800, 600, 400, 200 neuronas con funciones de activación de unidad lineal rectificada (ReLU) y una capa de salida de tamaño 200 con activación lineal función. Para entrenar la red, se minimiza el error absoluto medio de la \(\theta (z,t=0)\) pronosticada.

Determinación del estado inicial de no equilibrio del director \(\textbf{n}(z,t=0)=(\cos \theta (z,t=0),0,\sin \theta (z,t=0 ))\) de la transmitancia dependiente del tiempo I(t) para un NLC con constantes elásticas \(K_{11}=11\ \text {pN}\), \(K_{33}=17\ \text {pN }\). La columna (i) en el panel (a) muestra ejemplos con 0 puntos de inflexión en perfiles reales de \(\theta _\text {True}(z,t=0)\), en la columna (ii) hay 1 punto de inflexión en cada \(\theta _\text {True}(z,t=0)\), etc. El panel (b) muestra el error absoluto medio de \(\theta _\text {Pred.}(z,t=0) pronosticado )\) que es el más bajo para curvas "simples" sin puntos de inflexión y aumenta con su número. El error medio se define como \(|\theta _\text {True}-\theta _\text {Pred.}|_i =1/N_i\sum _{n=1}^{N_i}\left( 1/ N_r\sum _{j=1}^{N_r}\left| \theta _j^\text {True}-\theta _j^\text {Pred.}\right| \right)\), donde \(N_i\ ) es el número de pares de validación con i puntos de inflexión, y \(N_r=200\) es el número de puntos de discretización. Si la red neuronal entrenada se usa para una muestra nemática con constantes elásticas ligeramente diferentes, el reconocimiento de perfiles \(\theta _\text {Pred.}(z,t=0)\) se vuelve menos preciso, como se muestra en el panel ( C).

En la Fig. 8, comparamos las predicciones de la red neuronal de los estados iniciales del director, descritos por \(\theta (z,t=0)\), con los reales para estados iniciales de diferente complejidad, donde la complejidad se cuantifica por el número de puntos de inflexión en perfiles. En el panel (b) se muestra que este método funciona bien cuando el \(\theta _\text {True}(z,t=0)\) real tiene cero puntos de inflexión, mientras que el número creciente de puntos de inflexión da como resultado un la predicción creciente significa un error absoluto, pero como se muestra en los ejemplos del panel (a) en la Fig. 8, aún se puede determinar la forma aproximada. Al igual que el método para determinar las constantes elásticas, este también es sensible a la imprecisión de los parámetros de entrada con los que generamos el conjunto de entrenamiento. Esto se ilustra en el panel (c), que muestra errores absolutos medios de predicciones para ejemplos que se generaron con una constante elástica \(K_{33}\) ligeramente diferente en comparación con \(K_{33}=17\) pN utilizada para el generación de datos de entrenamiento. Se espera una discrepancia similar cuando otros parámetros (grosor de celda, viscosidad rotacional, índices de refracción) utilizados para la creación de datos de entrenamiento son diferentes de los reales. Sin embargo, conociendo todos los parámetros del material, se podrían usar redes neuronales para determinar la estructura inicial de un cristal líquido nemático a partir de la transmitancia dependiente del tiempo I(t) medida durante la reconfiguración del NLC al equilibrio. En los experimentos, esto podría permitir la determinación automática rápida del campo director que es el resultado de campos externos impuestos, incluidos los eléctricos, magnéticos o de luz.

En conclusión, hemos presentado un método basado en aprendizaje automático que se puede utilizar para determinar parámetros de materiales seleccionados, específicamente las constantes elásticas nemáticas. Se analizaron las posibles limitaciones del método, en especial, la sensibilidad sobre los valores de otros parámetros del material, por conocer. El enfoque presentado de combinar simulaciones numéricas y mediciones experimentales mediante aprendizaje automático supervisado y redes neuronales también podría generalizarse para determinar otros parámetros de cristales líquidos en nemática u otras fases, como viscosidades de Leslie, birrefringencia, anisotropía dieléctrica, fuerza de anclaje, probablemente usando más geometrías complejas de directores nemáticos. Tampoco existen limitaciones principales para usar un enfoque conceptualmente similar para determinar parámetros dinámicos o estáticos seleccionados, como el parámetro de volteo o los términos de acoplamiento de grado de orden, para los cuales los métodos experimentales establecidos son muy escasos o ni siquiera existen, incluso en pasivo, activo. , o materia blanda biológica.

El enfoque establecido para la caracterización del orden orientacional nemático en las escalas mesoscópicas es mediante la construcción de la energía libre total funcional55. A temperaturas por debajo de la temperatura de transición de fase isotrópica-nemática y en ausencia de fuerzas externas debidas a campos externos o anclaje a la superficie, el mecanismo principal que afecta el ordenamiento nemático es la elasticidad nemática con cualquier deformación del orden orientacional desde el estado uniforme aumentando la energía libre elástica del sistema. En la formulación de Frank-Oseen, que se basa en el campo director \(\textbf{n}\), que tiene \(\textbf{n} \rightarrow -\textbf{n}\) simetría, la energía libre elástica puede escribirse como \(F_\text {FO}=\int f_\text {FO}\text {d} V\), donde \(f_\text {FO}\) es la densidad de energía libre elástica de Frank-Oseen

y \(K_{11}\), \(K_{22}\) y \(K_{33}\) son las constantes elásticas nemáticas. Los términos \(K_{11}\), \(K_{22}\) y \(K_{33}\) describen el aumento de la energía libre debido a las deformaciones ensanchadas, torcidas y dobladas, respectivamente. La configuración de equilibrio del director \(\textbf{n}(\textbf{r})\) con la mínima energía libre elástica completa \(F_{FO}\) en ausencia de campos eléctricos o magnéticos externos se puede encontrar resolviendo Ecuaciones de Euler-Lagrange (EL) \(h_i=\frac{\parcial }{\parcial x_j}\frac{f_{FO}}{\parcial \left( \frac{\parcial n_i}{\parcial x_j}\right ) }-\frac{\partial f_{FO}}{\partial n_i}=0,\) donde \(\textbf{h}=(h_x,h_y,h_z)\) es el campo molecular que desaparece en el equilibrio . En principio, la energía libre (Ec. 1) también podría incluir el juego de silla \(f_{24}=-K_{24}(\nabla \cdot (\textbf{n} (\nabla \cdot \textbf{n}) +\textbf{n} \times (\nabla \times \textbf{n})))\) y splay-bend \(f_{13}=K_{13}(\nabla \cdot (\textbf{n} ( \nabla \cdot \textbf{n})))\) aportes de energía libre. Sin embargo, estas contribuciones de energía libre son relevantes solo a través de las condiciones de contorno35,56 y, por lo tanto, en geometrías simples generalmente se pueden ignorar57. Además, especialmente en geometrías nemáticas, que incluyen defectos topológicos, la formulación tensorial de la energía libre de Landau-de Gennes es más apropiada de usar40,58 y, de hecho, el método desarrollado también podría extenderse a dicho modelado tensorial de la nemática. Modelamos la relajación de la nemática desde una configuración inicial arbitraria hasta el equilibrio mediante las ecuaciones dinámicas de relajación simplificadas:

donde \(\gamma _1\) es la viscosidad rotacional, que ignora notablemente el flujo de material y el acoplamiento de reflujo correspondiente59,60,61,62. Dicha dinámica simplificada es una aproximación, pero cuando se compara con los experimentos, a menudo resulta suficiente en sistemas confinados y geometrías más simples, donde se puede desarrollar un flujo de material débil o un flujo con un perfil espacial simple.

Debido a su estructura anisotrópica, los cristales líquidos son ópticamente birrefringentes y, en consecuencia, la luz que viaja a través de ellos puede cambiar su fase, polarización y dirección de propagación. Este último puede despreciarse si la muestra de cristal líquido es delgada y si la intensidad de la luz transmitida se mide cerca de la muestra. En este caso, el cambio en la polarización de la luz cuando pasa a través de un cristal líquido se puede describir mediante el formalismo básico de la matriz de Jones, donde el cristal líquido actúa como un retardador de fase. Si se coloca entre polarizadores cruzados, su configuración de campo director puede afectar el cambio de fase y por lo tanto la intensidad de la luz transmitida.

En los experimentos, hemos utilizado celdas con configuración nemática de alineación híbrida donde el vidrio inferior se cubrió con poliimida frotada (SE-5291, Nissan) para lograr la alineación plana y el segundo vidrio se cubrió con silano DMOAP (ABCR GmbH), que asegura la alineación perpendicular. orientación en el cristal superior. El grosor de las celdas se controló con espaciadores de Mylar y se midió mediante el método interferométrico estándar usando un espectrofotómetro. Se utilizaron vidrios revestidos con ITO a los que se aplicó un campo eléctrico externo perpendicular a los sustratos. Las celdas se llenaron con cristales líquidos nemáticos 5CB o E7 utilizando un efecto capilar. En el experimento hemos medido la intensidad de la luz transmitida a través de la muestra de LC colocada entre los polarizadores cruzados usando el microscopio óptico con objetivo 20x. El eje sencillo del anclaje plano en la superficie inferior se fijó en un ángulo de 45° con respecto a los polarizadores. La muestra se iluminó con dos LED diferentes de 505 y 590 nm (Thorlabs M505L3 y M590L4). Se logró una posición de inicio diferente del perfil del director aplicando un pulso eléctrico de 100 ms con una forma aleatoria utilizando un generador de forma de onda programable (DG1022Z, Rigol). La intensidad transmitida se midió con un fotodiodo (SM05PD1A, Thorlabs) y un amplificador (PDA200C, Thorlabs) en combinación con un osciloscopio digital (MS09404A, Agilent) y un generador de retardo digital (DG645, Stanford research systems). La temperatura de las muestras se mantuvo constante utilizando una etapa de calentamiento casera.

Los datos de muestra que respaldan los hallazgos de este estudio que se utilizan para entrenar y probar redes neuronales en el tutorial de Jupyter Notebook citado se archivan en Zenodo65. Los conjuntos de datos completos están disponibles previa solicitud razonable del primer autor JZ

El método con código relevante está disponible públicamente en un tutorial interactivo de Jupyter Notebook en Google Colab63 y archivado en Zenodo64.

Wei, J. et al. Aprendizaje automático en ciencia de materiales. InfoMat 1, 338–358 (2019).

Artículo CAS Google Académico

Ferguson, AL Aprendizaje automático y ciencia de datos en ingeniería de materiales blandos. J. Phys.: Condens. Asunto 30, 043002 (2017).

ANUNCIOS Google Académico

Corte, I., Acevedo, S., Arlego, M. & Lamas, CA Exploración de estrategias de entrenamiento de redes neuronales para determinar transiciones de fase en modelos magnéticos frustrados. computar Mate. ciencia 198, 110702 (2021).

Artículo Google Académico

Suchsland, P. & Wessel, S. Diagnóstico de parámetros de fases y aprendizaje de transición de fase por redes neuronales. física Rev. B 97, 174435 (2018).

Artículo ADS CAS Google Académico

Carrasquilla, J. & Melko, RG Aprendizaje automático de las fases de la materia. Nat. física 13, 431–434 (2017).

Artículo CAS Google Académico

Dulaney, AR & Brady, JF Aprendizaje automático para el comportamiento de fase en sistemas de materia activa. Materia blanda 17, 6808–6816 (2021).

Artículo ADS CAS PubMed Google Scholar

Le, TC y Tran, N. Uso del aprendizaje automático para predecir las nanoestructuras autoensambladas de monooleína y fitantriol en función de la temperatura y los aditivos de ácidos grasos para sistemas de administración eficaces basados ​​en lípidos. Aplicación ACS. Nano Materia. 2, 1637–1647 (2019).

Artículo CAS Google Académico

O'Leary, J. et al. Aprendizaje profundo para caracterizar el autoensamblaje de sistemas coloidales tridimensionales. Materia blanda 17, 989–999 (2021).

Artículo ADS PubMed Google Scholar

Takahashi, KZ et al. Análisis asistido por aprendizaje automático para estructuras locales complejas de polímeros de cristal líquido. ciencia Rep. 9, 1–12 (2019).

Google Académico

Kochkov, D. et al. Dinámica de fluidos computacional acelerada por aprendizaje automático. proc. nacional Academia ciencia 118, e2101784118 (2021).

Artículo MathSciNet CAS PubMed PubMed Central Google Scholar

Cichos, F., Gustavsson, K., Mehlig, B. & Volpe, G. Aprendizaje automático para materia activa. Nat. Mach. Intel. 2, 94–103 (2020).

Artículo Google Académico

Frishman, A. & Keren, K. Aprendiendo nemática activa paso a paso. proc. nacional Academia ciencia 118, e2102169118 (2021).

Artículo CAS PubMed PubMed Central Google Scholar

Zhou, Z. et al. Pronóstico de aprendizaje automático de nemática activa. Materia blanda 17, 738–747 (2021).

Artículo ADS CAS PubMed Google Scholar

Colen, J. et al. Aprendizaje automático de hidrodinámica activo-nemática. proc. nacional Academia ciencia 118, e2016708118 (2021).

Artículo MathSciNet CAS PubMed PubMed Central MATH Google Scholar

Von Chamier, L. et al. Democratización del aprendizaje profundo para microscopía con ZeroCostDL4Mic. Nat. común 12, 1–18 (2021).

Google Académico

Ede, JM Aprendizaje profundo en microscopía electrónica. Mach. Aprender. ciencia Tecnología 2, 011004 (2021).

Artículo Google Académico

Newby, JM, Schaefer, AM, Lee, PT, Forest, MG & Lai, SK Las redes neuronales convolucionales automatizan la detección para el seguimiento de partículas a escala submicrónica en 2D y 3D. proc. nacional Academia ciencia 115, 9026–9031 (2018).

Artículo ADS CAS PubMed PubMed Central Google Scholar

Carrillo, M., Que, U. & González, JA Estimación del número de Reynolds para flujos alrededor de cilindros con métodos reticulares de Boltzmann y redes neuronales artificiales. física Rev. E 94, 063304 (2016).

Artículo ADS MathSciNet PubMed Google Scholar

Viquerat, J. & Hachem, E. Una red neuronal supervisada para la predicción de arrastre de formas 2D arbitrarias en flujos laminares con un número de Reynolds bajo. computar Fluidos 210, 104645 (2020).

Artículo MathSciNet MATEMÁTICAS Google Académico

Sigaki, HY, de Souza, R., de Souza, R., Zola, R. & Ribeiro, H. Estimación de propiedades físicas de texturas de cristal líquido a través de métodos de aprendizaje automático y entropía de complejidad. física Rev. E 99, 013311 (2019).

Artículo ADS CAS PubMed Google Scholar

Dierking, I., Dominguez, J., Harbon, J. & Heaton, J. Clasificación de texturas de cristal líquido usando redes neuronales convolucionales. Liq. Cristal 0. 1–15. https://doi.org/10.1080/02678292.2022.2150790 (2022).

Dierking, I., Domínguez, J., Harbon, J. & Heaton, J. Técnicas de aprendizaje profundo para la localización y clasificación de transiciones de fase de cristal líquido. Frente. Materia blanda 3, 1114551 (2023).

Artículo Google Académico

Sigaki, HY, Lenzi, EK, Zola, RS, Perc, M. & Ribeiro, HV Aprendizaje de propiedades físicas de cristales líquidos con redes neuronales convolucionales profundas. ciencia Rep. 10, 1–10 (2020).

Artículo Google Académico

Walters, M., Wei, Q. & Chen, JZ Aprendizaje automático de defectos topológicos de cristales líquidos confinados en dos dimensiones. física Rev. E 99, 062701 (2019).

Artículo ADS CAS PubMed Google Scholar

Bhowmik, R., Sihn, S., Pachter, R. & Vernon, JP Predicción del calor específico de polímeros a partir de datos experimentales y métodos de aprendizaje automático. Polímero 220, 123558 (2021).

Artículo CAS Google Académico

Cao, Y., Yu, H., Abbott, NL y Zavala, VM Algoritmos de aprendizaje automático para sensores basados ​​en cristal líquido. ACS Sens. 3, 2237–2245 (2018).

Artículo CAS PubMed Google Académico

Jiang, S. et al. Uso de aprendizaje automático y gotas de cristal líquido para identificar y cuantificar endotoxinas de diferentes especies bacterianas. Analista 146, 1224–1233 (2021).

Artículo ADS CAS PubMed Google Scholar

Gerber, PR & Schadt, M. Sobre la medida de constantes elásticas en cristales líquidos nemáticos: Comparación de diferentes métodos. Zeitschrift für Naturforschung A 35, 1036–1044 (1980).

Artículo ANUNCIOS Google Académico

Nowinowski-Kruszelnicki, E. et al. Medición de constantes elásticas de cristales líquidos nemáticos con el uso de celdas híbridas conmutadas en el plano. Opto-Electrón. Rev. 20, 255–259 (2012).

Artículo ADS CAS Google Académico

Klus, B., Laudyn, UA, Karpierz, MA y Sahraoui, B. Medición totalmente óptica de constantes elásticas en cristales líquidos nemáticos. Optar. Expreso 22, 30257–30266 (2014).

Artículo ADS PubMed Google Scholar

Rudyak, VY et al. Efecto de las constantes elásticas en la transición inducida eléctricamente en gotitas colestéricas radiales retorcidas. ciencia Rep. 12, 1–8 (2022).

Artículo Google Académico

Posnjak, G. Inspección experimental de Director Fields 41–51 (Springer International Publishing, Cham, 2018).

Google Académico

Posnjak, G., Čopar, S. & Muševič, I. Points, skyrmions and torons in quiral nematic droplets. ciencia Rep. 6, 1–10 (2016).

Artículo Google Académico

Shin, S. et al. Medida tomográfica de tensores dieléctricos a frecuencia óptica. Nat. Mate. 21, 317–324 (2022).

Artículo ADS CAS PubMed Google Scholar

Kleman, M. & Laverntovich, OD Física de la materia blanda: una introducción (Springer Science & Business Media, Nueva York, 2007).

Google Académico

Cui, M. & Kelly, J. Dependencia de la temperatura de las propiedades viscoelásticas de 5CB. mol. cristal. Liq. cristal. ciencia Tecnología Secta. A Mol. cristal. Liq. cristal. 331, 49–57 (1999).

Artículo Google Académico

Chigrinov, V., Sun, J., Kuznetsov, MM, Belyaev, V. y Chausov, D. El efecto de la temperatura de funcionamiento en el tiempo de respuesta de las pantallas de cristal líquido impulsadas ópticamente. actual Drogas Asistidas por Computador Des. 10, 626 (2020).

CAS Google Académico

Dark, M., Moore, M., Shenoy, D. & Shashidhar, R. Viscosidad rotacional y estructura molecular de cristales líquidos nemáticos. Liq. cristal. 33, 67–73 (2006).

Artículo CAS Google Académico

Fowles, GR Introducción a la óptica moderna (Dover Publications, Nueva York, 2012).

Google Académico

Yang, D.-K. y Wu, S.-T. Fundamentos de los dispositivos de cristal líquido (John Wiley & Sons, Nueva York, 2014).

Libro Google Académico

Taflove, A., Oskooi, A. & Johnson, SG Avances en electrodinámica computacional FDTD: fotónica y nanotecnología (Artech house, Norwood, 2013).

Google Académico

Géron, A. Aprendizaje automático práctico con Scikit-Learn, Keras y TensorFlow: conceptos, herramientas y técnicas para construir sistemas inteligentes (O'Reilly Media, Sebastopol, 2019).

Google Académico

Kingma, DP & Ba, J. Adam: Un método para la optimización estocástica. preimpresión de arXiv arXiv: 1412.6980 (2014).

Abadi, M. et al. TensorFlow: aprendizaje automático a gran escala en sistemas heterogéneos (2015).

Chollet, F. et al. Keras. https://keras.io (2015).

Li, J., Wen, C.-H., Gauza, S., Lu, R. y Wu, S.-T. Índices de refracción de cristales líquidos para aplicaciones de visualización. J.Disp. Tecnología 1, 51 (2005).

Artículo ADS CAS Google Académico

Wu, S.-T., Wu, C., Warenghem, W. & Ismaili, M. Dispersiones de índice de refracción de cristales líquidos. En: Tecnologías de visualización, vol. 1815, (SPIE, 1992) 179–187.

Tkachenko, V. et al. Dispersión óptica de cristal líquido nemático en el rango visible-infrarrojo cercano. mol. cristal. Liq. cristal. 454, 263–665 (2006).

Artículo Google Académico

Basu, R., Atwood, LJ & Sterling, GW Efectos dieléctricos y electroópticos en un cristal líquido nemático dopado con hojuelas de h-bn. actual Drogas Asistidas por Computador Des. 10, 123 (2020).

CAS Google Académico

Iglesias, W., Abbott, NL, Mann, EK y Jakli, A. Mejora de la biodetección basada en cristales líquidos en fases acuosas. Aplicación ACS. Mate. Interfaces 4, 6884–6890 (2012).

Artículo CAS PubMed Google Académico

Chao, P.-P., Kao, Y.-Y. & Hsu, C.-J. Una nueva lente negativa de cristal líquido con múltiples electrodos de anillo en anchos desiguales. IEEE Photonics J. 4, 250–266 (2012).

Artículo ANUNCIOS Google Académico

Donisi, D. et al. Una guía de ondas de canal óptico de cristal líquido conmutable en silicio. IEEE J. Electrón cuántico. 46, 762–768 (2010).

Artículo ADS CAS Google Académico

Bishop, CM Reconocimiento de patrones y aprendizaje automático (Springer, Nueva York, 2006).

Matemáticas Google Académico

Mundoor, H. et al. Condiciones de contorno superficial controladas electrostáticamente en cristales líquidos nemáticos y coloides. ciencia Adv. 5, eaax4257 (2019).

Artículo ADS CAS PubMed PubMed Central Google Scholar

De Gennes, P.-G. & Prost, J. La física de los cristales líquidos vol. 83 (Prensa de la Universidad de Oxford, Oxford, 1993).

Google Académico

Pergamenshchik, V. K 13 término y condición de frontera efectiva para el director nemático. física Rev. E 58, R16 (1998).

Artículo ADS CAS Google Académico

Kos, Ž & Ravnik, M. Relevancia de la elasticidad de la silla de montar en geometrías nemáticas complejas. Materia blanda 12, 1313–1323 (2016).

Artículo ADS CAS PubMed Google Scholar

Ravnik, M. & Žumer, S. Landau-de Gennes modelado de coloides de cristal líquido nemático. Liq. cristal. 36, 1201–1214 (2009).

Artículo CAS Google Académico

Brochard, F. Efectos de reflujo en cristales líquidos nemáticos. mol. cristal. Liq. cristal. 23, 51–58 (1973).

Artículo CAS Google Académico

Svenšek, D. & Žumer, S. Relajación afectada por reflujo en cristales líquidos nemáticos. Liq. cristal. 28, 1389–1402 (2001).

Artículo MATEMÁTICAS Google Académico

Svenšek, D. & Žumer, S. Dinámica de reflujo compleja en cristales líquidos nemáticos. Mecánica continua. Termodina. 14, 231 (2002).

Artículo ADS MathSciNet MATH Google Scholar

Iacobescu, G. Evolución dinámica del director de cristal líquido nemático en campo magnético. UPB Sci. Toro. Ser. Una aplicación Matemáticas. física 80, 279–290 (2018).

MathSciNet Google Académico

Zaplotnik, J. & Škarabot, M. & Ravnik, M. Determinación de redes neuronales de constantes elásticas nemáticas. (Google colab, 2022). https://colab.research.google.com/drive/1h28ZJu0KfTvrPmPv7ATahjb1PAPUDakd?usp=sharing.

Zaplotnik, J., Škarabot, M. & Ravnik, M. Determinación de redes neuronales de constantes elásticas nemáticas - Jupyter Notebook. (2022). https://doi.org/10.5281/zenodo.7368828.

Zaplotnik, J., Škarabot, M. y Ravnik, M. Datos de entrenamiento para la determinación basada en redes neuronales de constantes elásticas nemáticas. (2022). https://doi.org/10.5281/zenodo.7315598.

Descargar referencias

Los autores agradecen la financiación de la agencia de investigación eslovena ARRS Grants P1-0099, N1-0195 y J1-2462, y EU ERC AdG LOGOS.

Facultad de Matemáticas y Física, Universidad de Ljubljana, 1000, Ljubljana, Eslovenia

Jaka Zaplotnik y Miha Ravnik

Instituto Jožef Stefan, 1000, Ljubljana, Eslovenia

Jaka Zaplotnik, Jaka Pišljar, Miha Škarabot y Miha Ravnik

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

JZ realizó todas las simulaciones numéricas, desarrolló el método y analizó los datos. JP y MS realizaron experimentos. JZ y MR conceptualizaron el enfoque y desarrollaron la idea. MR supervisó las simulaciones numéricas. Todos los autores contribuyeron a la preparación del manuscrito.

Correspondencia a Jaka Zaplotnik.

Los autores declaran no tener conflictos de intereses.

Springer Nature se mantiene neutral con respecto a los reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso abierto Este artículo tiene una licencia internacional Creative Commons Attribution 4.0, que permite el uso, el intercambio, la adaptación, la distribución y la reproducción en cualquier medio o formato, siempre que se otorgue el crédito correspondiente al autor o autores originales y a la fuente. proporcionar un enlace a la licencia Creative Commons e indicar si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la regulación legal o excede el uso permitido, deberá obtener el permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Zaplotnik, J., Pišljar, J., Škarabot, M. et al. Determinación de redes neuronales de constantes elásticas de materiales y estructuras en fluidos complejos nemáticos. Informe científico 13, 6028 (2023). https://doi.org/10.1038/s41598-023-33134-x

Descargar cita

Recibido: 09 marzo 2023

Aceptado: 07 abril 2023

Publicado: 13 abril 2023

DOI: https://doi.org/10.1038/s41598-023-33134-x

Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido:

Lo sentimos, un enlace para compartir no está disponible actualmente para este artículo.

Proporcionado por la iniciativa de intercambio de contenido Springer Nature SharedIt

Al enviar un comentario, acepta cumplir con nuestros Términos y Pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.