DataReader馈送DatagridView控件-逐行
本文关键字:逐行 控件 DatagridView 馈送 DataReader | 更新日期: 2023-09-27 18:27:54
我有一个处理数据读取的类(注意,ischanged是我提出的一个事件,用于指示新行的可用性)
public DataRow FetchNext()
{
DataRow drow = dt.NewRow();
if (dr.Read() && dr.HasRows) //this will loop through rows unless cancel is clicked
{
try
{
for (int i = 0; i < listCols.Count; i++)
{
drow[(DataColumn)listCols[i]] = dr[i];
}
dt.ImportRow(drow);
totalRowCount++;
this.isChanged();
return drow;
}
catch (Exception ex)
{
throw;
}
}
else
{
return drow;
}
}
使用该类的另一个类实现读取行并将它们插入数据网格视图,如下所示(bs是绑定到数据表dt的绑定源)
private void buttonGo_Click(object sender, EventArgs e)
{
myrow = p.FetchNext();
this.dt = p.dt.Copy();
bs.DataSource = dt;
dataGridViewMyData.DataSource = bs;
bs.ResetBindings(false);
}
private void handleChanged()
{
bs.ResetBindings(false);
dt.Rows.Add(p.FetchNext());
}
当我点燃所有东西时,我得到:
System.StackOverflowException was unhandled
_HResult=-2147023895
如有任何帮助,我们将不胜感激。
好的,答案是:
public DataRow FetchNext()
{
DataRow drow = dt.NewRow();
if (dr.Read() && dr.HasRows) //this will loop through rows unless cancel is clicked
{
try
{
for (int i = 0; i < listCols.Count; i++)
{
drow[(DataColumn)listCols[i]] = dr[i];
}
dt.ImportRow(drow);
totalRowCount++;
this.isChanged();
return drow;
}
catch (Exception ex)
{
throw;
}
}
else
{
return drow;
}
}
在调用类中,我实现了一个后台工作程序,它在Dowork上:获取Next。而workcompleted也获取下一个,每次读取isEnded的值。
private void buttonGo_Click(object sender, EventArgs e)
{
myrow = p.FetchNext();
this.dt = p.dt.Copy();
bs.DataSource = dt;
dataGridViewMyData.DataSource = bs;
bs.ResetBindings(false);
if (!p.isEnded && !backgroundWorker1.IsBusy )
{
bs.SuspendBinding();
backgroundWorker1.RunWorkerAsync();
}
}
private void backgroundWorker1_DoWork(object sender, DoWorkEventArgs e)
{
bs.SuspendBinding();
if (!p.isEnded)
{
dt.ImportRow(p.FetchNext());
}
}
private void backgroundWorker1_RunWorkerCompleted(object sender, RunWorkerCompletedEventArgs e)
{
bs.ResumeBinding();
if (!p.isEnded)
{
backgroundWorker1.RunWorkerAsync();
}
else
{
MessageBox.Show("Done");
}
RefreshData();
}
这确实解决了问题,而且网格确实是逐行填充的。但是,对于具有数十万行的查询,这将非常耗时。