Unitats recurrents controlades
Les unitats recurrents controlades (GRU) són un mecanisme de gating en xarxes neuronals recurrents, introduït el 2014 per Kyunghyun Cho i altres.[1] El GRU és com una memòria a llarg termini (LSTM) amb una porta oblidada,[2] però té menys paràmetres que LSTM, ja que no té una porta de sortida.[3] Es va trobar que el rendiment de GRU en determinades tasques de modelatge de música polifònica, modelatge de senyals de parla i processament de llenguatge natural era similar al de LSTM.[4][5] Els GRU van demostrar que el gating és realment útil en general i l'equip de Bengio va concloure que no hi havia cap conclusió concreta sobre quina de les dues unitats de gating era millor.[6]

Arquitectura
Hi ha diverses variacions a la unitat completa de control, amb l'obtenció feta utilitzant l'estat ocult anterior i el biaix en diverses combinacions, i una forma simplificada anomenada unitat mínima de control.[7]

L'operador denota el producte de Hadamard a continuació.
Unitat totalment controlada

Inicialment, per , el vector de sortida és
Les variables
- : vector d'entrada
- : vector de sortida
- : vector d'activació candidat
- : actualitza el vector de la porta
- : reinicia el vector de la porta
- , i : matrius de paràmetres i vector

- : L' original és una funció sigmoide.
- : L' original és una tangent hiperbòlica.
Són possibles funcions d'activació alternatives, sempre que això .
Es poden crear formes alternatives canviant i [8]
- Tipus 1, cada porta depèn només de l'estat ocult anterior i del biaix.
- Tipus 2, cada porta només depèn de l'estat ocult anterior.
- Tipus 3, cada porta es calcula utilitzant només el biaix.