Artificiellt neuronnät

Ett artificiellt neuronnät är en sammankopplad grupp noder, likt det stora nätverk av neuroner i en hjärna. Varje nod i bilden representerar en artificiell neuron och en pil representerar en koppling från utdatan av en neuron till indatan av en annan neuron.

Ett neuronnät (rekommenderad term enligt Svenska datatermgruppen[1]) eller artificiellt neuronnät (ANN) är ett samlingsnamn på ett antal självlärande algoritmer som försöker efterlikna funktionen i biologiska neuronnät (exempelvis hjärnan).

Algoritmer som emulerar neuronnät kan ofta klara problem som är svåra att lösa med konventionella datalogiska metoder. Exempel på tillämpningar är: informationsutvinning (data mining), mönsterigenkänning, signalbehandling, reglerteknik, datorspel, prognoser, självorganisering, icke-linjär optimering, optimeringsproblem med många bivillkor (exempelvis schemaläggning) med mera.

Ett neuronnät måste tränas innan det kan användas. De flesta neuronnät arbetar därför i två faser, först en inlärningsfas där nätverket tränas på den uppgift som ska utföras. Sedan följer en tillämpningsfas där nätverket bara använder det som det har lärt sig. Det går också att låta nätet fortsätta att lära sig även när det används, men vanligen lämnas det som det är när det uppnått den precision som eftersträvades.

Uppbyggnad

Grundelement

Alla neuronnät har en grundbyggsten: neuronen (kallas också omväxlande nod, cell, enhet). I konstgjorda neuronnät abstraherar man neuronen till att bestå av en eller flera ingångar (dendriter), en kärna (soma) samt en utgång (axon).

Varje ingång, vj(i), har en vikt wj(i). Grundidén är att en mängd neuroner sitter ihoplänkade i olika strukturer och vikterna ändras vid inlärning. Neuronnät måste tränas upp till önskad funktion.

Kärnan

I ett artificiellt neuronnätverk är kärnan kraftigt förenklad modell av soma. Kärnan består då av två separata delar, summationsdelen och transferfunktionen. Det finns även en specialingång v0 med vikten w0 som möjliggör justering av alla ingångsvärden (bias[förtydliga]). Ingångarna är anslutna till summationsdelen och utgången (Y(i)) är ansluten till transferfunktionen.

Summation

Summationsdelen summerar de värden som registrerats på alla ingångar. I denna summering multipliceras varje ingångsvärde med respektive vikt:

Y ( i ) = j = 1 n v j ( i ) w j ( i ) + Θ {\displaystyle Y^{(i)*}=\sum _{j=1}^{n}v_{j}^{(i)}w_{j}^{(i)}+\Theta }

Där Θ är bias[förtydliga]-ingången:

Θ = v 0 ( i ) w 0 ( i ) {\displaystyle \Theta =v_{0}^{(i)}w_{0}^{(i)}}
Transferfunktion

Transferfunktionen består av:

Y ( i ) = f ( Y ( i ) ) {\displaystyle Y^{(i)}=f\left(Y^{(i)*}\right)} ,

där transferfunktionen kan ha flera olika utseenden: tröskelfunktion, linjärfunktion, sigmoidfunktion, tangens hyperbolicus med flera.

Nätverk

Ett artificiellt neuronnät består av sammankopplade modeller av neuroner. Neuronnät tränas till önskad funktion. Det innebär att nätverket matas med träningsdata och att neuronernas vikter för varje ingång steg för steg justeras tills vikterna konvergerar.

Tränade nätverk

Tränade nätverk tränas upp genom att de matas med kända mätdata och kända svar. Om resultatet skiljer sig från det kända svaret beräknas hur stort felet är och vikterna på ingångarna i varje neuron justeras. Detta förfarande itereras och om nätet är rätt designat (där faktorer såsom val av nätverk, antal neuroner, val av träningsdata spelar en avgörande roll) så konvergerar nätet i riktning mot att ge de önskade svaren.

Icke tränade nätverk

Icke tränade nätverk är självlärande system som används till att hitta kända och okända relationer mellan data. Nätverket matas med data men presenteras inget facit. Vikterna justeras exempelvis beroende på om användarna gillar eller inte gillar resultatet, alternativt baserat på om den process som nätverket styr ger ett resultat nära ett börvärde (om tillämpningen är reglerteknik), eller om en optimeringssfunktion ger maximalt eller minimalt resultat (om tillämpningen är ett optimeringsproblem). Träningen avbryts när viktförändringarna för en iteration konvergerat tillräckligt nära noll.

Tillämpningar

Neuronnät har en mängd användningsområden, och nya användningsområden skapas hela tiden. Exempel på sådana är:

Exempel på artificiella neuronnät samt användningsområde

Problem Nätverk Beskrivning Typ av träning
Klassifikation Learning Vector Quantization, LVQ; Counterpropagation; Självorganiserande kartor, SOM För att dela in data i bestämda klasser Kombination av övervakad och oövervakad träning
Prognosframställning Backpropagation Att kunna ge prognoser om framtida händelser med hjälp av ingångsdata övervakad
Visualisering Självorganiserande kartor, SOM; Adaptive Resonance Theory, ART Att åskådliggöra okända korrelationer mellan ingångsdata oövervakad
Association Hopfieldnät, Hammingnät Att lära sig mönster och att kunna återskapa störda varianter av dessa övervakad

Neuronnätsmodeller

Perceptronen

Ett viktigt och mycket enkelt neuronnät är den så kallade perceptronen. Den beskrevs redan på 1950-talet av Frank Rosenblatt.

För att perceptronen skall fungera måste datan vara linjärt separabel.

Det upptäcktes tidigt att perceptronen har begränsad kapacitet att lösa problem. Ett exempel på ett problem som inte kan lösas är XOR.

Flerlagersperceptroner

Ett sätt att lösa problem som en perceptron inte klarar av, är genom att kombinera flera perceptroner. För att exempelvis lösa XOR kan man kombinera två stycken perceptroner, där ena kan lösa OR och den andra NAND; sedan kombineras perceptronernas utdata för att få XOR.

ART

Adaptive resonance theory. Bygger på att ett mönster måste resonera med ett tidigare mönster för att läras in.

Se även

Referenser

Noter

  1. ^ Ordlista, Svenska datatermgruppen, hämtat 2011-06-11.

Externa länkar

  • The Nature of Code-kapitel 10(en)
  • [1](en)
v  r
Differentierbar datoranvändning
General
Differentierbar programmering Neural Turing maskin Differentierbar neural dator Automatisk differentiering Neuromorf ingenjörskonst Cable theory Mönsterigenkänning Beräkningslärandeteori Tensorkalkyl
Begrepp
Gradient descent SGD Klusteranalys Regression Overfitting Adversary Attention Faltning Förlustfunktioner Backpropagation Normalization Activation Softmax Sigmoid Rectifier Regularization Datasets Augmentation
Programmeringsspråk
Python Julia
Applikationer
Hårdvara
IPU TPU VPU Memristor SpiNNaker
Mjukvarubibliotek
TensorFlow PyTorch Keras Theano
Implementation
Audiovisuellt
Verbal
Word2vec Transformator BERT NMT Project Debater Watson GPT-2 GPT-3
Beslutande
Alphago AlphaZero Q-learning SARSA OpenAI Five Självkörande bil MuZero Action selection Robot control
Personer
Alex Graves Ian Goodfellow Yoshua Bengio Geoffrey Hinton Yann LeCun Andrew Ng Demis Hassabis David Silver Fei-Fei Li
Organisationer
Deepmind Hi! PARIS Openai MIT CSAIL Mila Google Brain
  • Wikimedia Commons har media som rör Artificiellt neuronnät.
    Bilder & media

Extern litteratur

  • Samling av studier om aktieprediktion med neurala nätverk
  • T. Kohonen: Self-Organizing Maps, Springer, 1995
  • U. Seiffert & L.C Jain: Self-Organizing Neural Networks, Springer, 2001
  • W. Maass & C.M Bishop: Pulsed Neural Networks, MIT Press, 1999
v  r
Neurovetenskap
Grundforskning
Klinisk neurovetenskap
Kognitiv neurovetenskap
Begrepp
Artificiellt neuronnät · Brain-machine interface · Neuroplasticitet