Page 147 AG106
P. 147


Aplicación de Redes Neuronales Artificiales: Predicción de rendimientos del proceso de extracción de aceite de canola




aprender relaciones lineales y no lineales tra a estudiar; y tomando como ejemplos Red Neuronal Artificial
entre las variables a partir de un conjun- para el acondicionamiento de la RNA
to de ejemplos (Fathi et al., 2009). Las datos obtenidos de extracciones de aceite A través del Software MATLAB
unidades fundamentales de las RNA son de canola de partidas con diferentes con- R2013b, se utilizó una red perceptrón
las neuronas (análogas a las neuronas tenidos de aceite total. feedforward multicapa (MLP, por sus
biológicas) y los pesos, conexiones pon- siglas en inglés) totalmente interconec-
deradas comparables a las sinapsis en un tada La estructura perceptrón multica-
sistema biológico. A partir de cálculos · Materiales y métodos pa es una de las más comunes (Rafiq
simultáneos en paralelo de sus elemen- et al., 2001; Fathi et al., 2009; Shokri
tos, una RNA es capaz de aprender a par- Extracciones et al., 2011 Ramzi et al., 2015), consta
tir de ejemplos y generalizar permitiendo de una o más entradas que representan
abordar distintos problemas; aún cuando Se utilizaron 3 partidas de granos de las variables independientes, una capa
los datos sean incompletos o contengan canola con distinto contenido de acei- de salida con neuronas que representan
errores (Rafiq et al., 2001). Se destaca te total (40,6±0,6; 45,2±0,9 y 46,3±0,3 la variables dependientes y una o más
la capacidad de predicción de las RNA %bs; determinaciones realizadas según capas ocultas (Hagan et al., 1996) que
con elevada precisión y la posibilidad de norma IUPAC 1.122, IUPAC, 1992), contiene neuronas para ayudar a cap-
alimentación continua con nuevos datos para cada partida se molieron las mues- turar la no linealidad en el sistema. La
que perfeccionan el modelo, permitiendo tras en un molino de cuchillas y se capa oculta correlaciona las entradas x
reducir el error de predicción a niveles seleccionó un rango de tamaño de par- con las salidas y, a través de una serie
relacionados con el error de medición en tículas 0,425-1 mm en un tamiz vibra- de pesos w interconectados matemática-
sí. La potencialidad de esta herramienta torio. Posteriormente la extracción del mente (Shokri et al., 2011):
ofrece la posibilidad de estudiar situa- aceite por solvente (hexano) se realizó
ciones específicas dentro de la industria, en un sistema batch agitado a tempera-
una correcta utilización de una red neu- tura constante (25, 40, 50 y 60 °C) para (1)
ronal optimizada, y una adecuada selec- distintos tiempos de extracción (5-1080
ción de variables permitiría predecir el minutos). La miscela (aceite + solven-
comportamiento de la materia prima te) se separó mediante centrifugación Donde w es el peso del i-ésimo vector
ij
durante el proceso a partir de parámetros (14069 G, 5 minutos; equipo Thermo de entrada que es conectado a la j-ésima
característicos. Como ejemplo del alcan- SCIENTIFIC, SORVALL LEGEND neurona; n es el número de entradas a la
ce de esta herramienta, en este trabajo se X1) y el solvente se evaporó empleando neurona; b es el umbral asociado con
i
utilizó una RNA para predecir los rendi- un evaporador rotatorio (R-3000 Büchi). la neurona j-ésimo, y f es la función de
mientos de extracción de aceite de cano- Los ensayos se realizaron por duplicado, activación que le confiere el comporta-
la en un sistema determinado, a distintos el rendimiento de extracción se deter- miento no lineal a la neurona. La fun-
tiempos y temperaturas, conociendo sólo minó expresándose como porcentaje de ción de activación puede ser lineal o no
el contenido total de aceite de la mues- aceite en base seca (%bs). lineal (tangente hiperbólica o común-
mente función sigmoide) dependiendo
Tabla 1 - Selección de datos para entrenamiento, validación y predicción de la RNA. de la topología de la red. Con el fin de
asegurar un modelado exitoso, se deben
contenido de temperatura tiempo datos considerar dos factores importantes.
aceite (%bs) (°c) (min) totales
Entrenamiento Canola 1 40,6 25; 40; 50 y 60 5-1080 59 En primer lugar, el número de capas y
y validación Canola 2 46,4 25; 40; 50 y 60 5-1080 en segundo lugar el número de neu-
Predicción Canola 3 45,2 40; 50 y 60 5-1080 21 ronas en cada capa oculta. Puesto que
muchos problemas prácticos de mode-
lado con redes neuronales pueden resol-
Figura 1. Diagrama esquemático del modelo óptimo de RNA feedforward multicapa encontrado. verse con una capa oculta (Rafiq et al.,
2001), se utilizó una RNA con dos capas
(una capa oculta y una capa de salida),
tomando como función de activación la
tangente hiperbólica para la capa oculta
y una función lineal para la capa de sali-
da. Se utilizó un algoritmo de retro pro-
pagación (Backpropagation, BP) como
algoritmo de entrenamiento supervisa-
Autores: Sánchez, R.; Zárate, V.; Fernández, M.; Nolasco, S.
do, ya que proporciona un ajuste rápido

A&G 106 • Tomo XXVII • Vol. 3 • 138-141 • (2017) 139
   142   143   144   145   146   147   148   149   150   151   152