Uczenie reprezentacji

Schemat paradygmatu uczenia się cech, który można stosować zarówno do surowych danych, takich jak obrazy lub tekst, jak i do początkowego zestawu cech. Uczenie reprezentacji ma na celu szybszy trening lub lepszą wydajność w specyficznych zadaniach w porównaniu z bezpośrednim wprowadzeniem danych (por. uczenie transferowe).

W kontekście uczenia maszynowego uczenie (się) cech lub uczenie reprezentacji[1][2] (ang. feature learning lub representation learning) to zbiór technik, które umożliwiają systemowi automatyczne odkrywanie, na podstawie surowych danych, wewnętrznych reprezentacji potrzebnych do wykrywania obiektów lub klasyfikacji. Techniki maszynowego uczenia się cech zastępują inżynierię cech (definiowanie przydatnych cech przez człowieka) i pozwalają algorytmom zarówno wyekstrahować cechy, jak i wykorzystać je do wykonania określonego zadania.

Potrzeba uczenia reprezentacji wypływa z faktu, że zadania uczenia maszynowego, takie jak klasyfikacja, wymagają danych wejściowych, które są odpowiednio przystosowane do matematycznego i obliczeniowego przetwarzania. Tymczasem dane pochodzące ze świata rzeczywistego, takie jak obrazy, nagrania wideo czy dane z czujników, rzadko pozwalają na jednoznaczne zdefiniowanie istotnych cech za pomocą z góry zaprojektowanych algorytmów. Alternatywą jest odkrywanie takich cech (reprezentacji) poprzez analizę danych – bez konieczności polegania na ręcznej ekstrakcji cech.

Uczenie się cech może być nadzorowane, nienadzorowane lub samonadzorowane:

Przypisy

  1. Aurélien Géron, Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow, Krzysztof Sawka (tłum.), Wydanie II, aktualizacja do modułu TensorFlow 2, Gliwice: Helion, 2020, s. 551, ISBN 978-83-283-6002-0 [dostęp 2025-04-22].
  2. Y. Bengio, A. Courville. Representation Learning: A Review and New Perspectives. „IEEE Transactions on Pattern Analysis and Machine Intelligence”. 35 (8), s. 1798–1828, 2013. DOI: 10.1109/tpami.2013.50. arXiv:1206.5538. PMID: 23787338.
  3. Stuart J. Russell, Peter Norvig (2010) Artificial Intelligence: A Modern Approach, Third Edition, Prentice Hall ISBN 978-0-13-604259-4.
  4. Hinton, Geoffrey; Sejnowski, Terrence (1999). Unsupervised Learning: Foundations of Neural Computation. MIT Press. ISBN 978-0-262-58168-4.
  5. Daniel Jurafsky, James H. Martin: Speech and Language Processing. Pearson Education International, 2009, s. 145–146.
  6. 1 2 Linus Ericsson. Self-Supervised Representation Learning: Introduction, advances, and challenges. „IEEE Signal Processing Magazine”. 39 (3), s. 42–62, May 2022. DOI: 10.1109/MSP.2021.3134634. arXiv:2110.09327. ISSN 1558-0792. Bibcode: 2022ISPM...39c..42E.
  7. Tomas Mikolov. Distributed Representations of Words and Phrases and their Compositionality. „Advances in Neural Information Processing Systems”. 26, 2013. Curran Associates, Inc.. arXiv:1310.4546.