Würde ich z.B. eine 3,3V LED nehmen und diese aus einer 3,3V Stromquelle versorgen, dann bräuchte ich gar keinen Vorwiderstand? Stimmt das wirklich?
Prinzipiell schon. Es gibt mehrere Gründe, warum es so nicht wirklich funktioniert...
1. Jede LED ist ein wenig anders (innerhalb einer Charge nur geringfügig, chargenübergreifend aber auch recht 'heftig' also mehr als 5% Abweichung der Flussspannung bei gegebenen Strom). Also müsstest Du für jede LED individuell erst die genaue Spannung bestimmen, bei der auch der Nennstrom fließt.
2. Die Flussspannung von LEDs ist temperaturabhängig. Je höher die Temperatur, desto geringer ihre Flussspannung. Eine an konstanter Spannung betriebenen LED wird also durch ihre Betriebswärme im 'warmen' Zustand mehr Strom bekommen (Flussspannung ist niedriger, sie bekommt aber die gleiche Spannung wie im kalten Zustand => Strom wird höher) als im kalten Zustand. Im Extremfall (isb. wenn man Power-LEDs also solche mit mehreren hundert mA typischen Strom nahe an ihrer Grenze betreibt) wird durch den gestiegenen Strom die Temperatur wieder höher => Flussspannung sinkt, Spannung der Versorgung aber nicht => höherer Strom => höhere Temperatur... Nennt sich auch 'Thermal runaway'.
Frage vereinfacht: Ist ein Vorwiderstand dazu da
Sowohl a als auch b treffen zu. a brauche ich ja wohl nicht weiter zu erklären. Bzw, die Erklärung ist mit der Erklärung für b dann eindeutig.
Prinzipiell gilt in jedem Gleichspannungsstromkreis das Ohm'sche Gesetz.
R=U/I. Das gilt auch für LEDs. Schwierig wird es aber dadurch, dass im Gegensatz zu einem 'normalen' Widerstand der Widerstand einer LED alles andere als konstant ist. Bevor die Grenzspannung erreicht ist (je nach LED so ca. 1-2V) ist ihr Widerstand nahezu unendlich. Bei Standardbedingungen (Nennspannung, Nennstrom und Raumtemperatur) gilt ganz normal das Ohmsche Gesetz. Also bei einer LED die bei 20mA genau 3.3V Flussspannung hat wären das eben 165 Ohm. Jetzt wird die LED warm und braucht bei 20mA nur noch 3.2V. Dann hat sie nur noch 160 Ohm und wenn sie heiß ist und nur noch 3.1V bei 20mA braucht sind es eben 155 Ohm. Wenn Du mal in das Kurzdatenblatt dieser LED schaust:
http://www.leds.de/Low-Mid-Power-LEDs/L ... 500AS.html
Dann siehst Du dass diese LED z.B. bei 20mA 3.2V braucht (DAS IST NUR EIN TYPISCHER WERT - die Dir gelieferte LED kann auch z.B. nur 3.1V bei 20mA brauchen oder eben 3.3V). Das ergibt einen Widerstand von 160 Ohm. Bekommt die LED jetzt 3.4V, dann zieht sie schon 35mA und hat damit einen Widerstand von nur noch 97 Ohm. Bekommt sie dagegen nur 3.0V, zieht sie nur 10mA und hat einen Widerstand von 300 Ohm. Also 0.4V Unterschied => Widerstandsänderung um Faktor 3(!)
Jetzt nochmal zurück zur Strombegrenzung des Vorwiderstandes:
Wenn Du 9V hast und Deine LED bei 20mA genau die typischen 3.2V braucht (also Widerstand 160Ohm), dann muss der Vorwiderstand genau 5.8V 'vernichten'. Das ergibt 290 Ohm (5.8V/0.02A). Hast Du jetzt eine LED 'erwischt' die besonders effizient ist, braucht sie für 20mA nur 3V. Das ergibt einen Widerstand von 150 Ohm.
Wenn jetzt diese LED an der Spannungsquelle mit 9V angeschlossen wird und zwar mit dem Vorwiderstand von 290 Ohm, ändert sich nicht viel. Gesamtwiderstand ist dann 150 Ohm (LED) + 290 Ohm (Vorwiderstand) = 440 Ohm, das ergibt bei 9V etwa 20.5mA (U/R=I). Der Strom wird durch den konstanten Widerstand also wirksam begrenzt. Ganz anders sieht es aus, wenn Du jetzt die LED mit 3.2V Konstantspannung betreibst. Hier würde diese spezielle LED dann etwa 35mA bekommen (unter der nicht 100% sauberen Annahme, dass sie dann auch schon bei 3.2V eben den Strom ziehen würde, wie eine etwas 'schlechtere' bei 3.4V). Umgekehrt würde eine etwas schlechtere eben nur noch 10mA bei den angelegten 3.2V ziehen und entsprechend dunkler leuchten.