Serus,
ich bin ziemlich neu bei C# und daher habe ich vielleicht einfach ein
Verständnisproblem.
Ich habe einen Timer definiert mit dem Interval 1ms:
1 | //
|
2 | // timer1
|
3 | //
|
4 | this.timer1.Enabled = true;
|
5 | this.timer1.Interval = 1;
|
6 | //
|
Also lasse ich jede Millisekunden über Tick einen Wert hochzählen.
1 | void t1_Tick(object sender, EventArgs e)
|
2 | {
|
3 | if (serialPort.IsOpen)
|
4 | {
|
5 | //How many rows exist
|
6 | int nCANMSG_send = dataGridView_send.Rows.Count;
|
7 | while (nCANMSG_send > 0)
|
8 | {
|
9 | nCANMSG_send--;
|
10 | dataGridView_send.Rows[nCANMSG_send].Cells["amount_send"].Value = Convert.ToInt32(dataGridView_send.Rows[nCANMSG_send].Cells["amount_send"].Value.ToString()) + 1;
|
11 | }
|
12 | }
|
13 | }
|
Wenn ich sehe wie das hochgezählt wird, sieht direkt, dass es nie 1ms
ist. Daher frage ich mich ob der Timer für 1ms überhaupt funktioniert
und wie genau er ist? Oder mache ich was falsch?
Gruss Stefan