有没有更好的方法将 Lambda 与 N 组一起使用

本文关键字:一起 Lambda 更好 方法 有没有 | 更新日期: 2023-09-27 18:37:07

>我有一个方法Process(IEnumerable<Record> records),一次最多可以接受但不超过 3 条记录。我有数百条记录,所以我需要分组传递。我这样做:

var _Records = Enumerable.Range(1, 16).ToArray();
for (int i = 0; i < int.MaxValue; i += 3)
{
    var _ShortList = _Records.Skip(i).Take(3);
    if (!_ShortList.Any())
        break;
    Process(_ShortList);
}
// TODO: finish

它有效,但是...有没有更好的方法?

有没有更好的方法将 Lambda 与 N 组一起使用

你可以使用MoreLinq的Batch

var result=Enumerable.Range(1, 16).Batch(3);

var arrayOfArrays = Enumerable.Range(1, 16).Batch(3).Select(x => x.ToArray()).ToArray();
如果你想

看看它,这里是来源。

您可以使用

此扩展方法:

public static IEnumerable<IEnumerable<T>> Split<T>(this IEnumerable<T> source, int chunkSize)
{
    return source
        .Select((value, i) => new { Index = i, Value = value })
        .GroupBy(item => item.Index % chunkSize)
        .Select(chunk => chunk.Select(item => item.Value));
}

它将项的源集合拆分为具有给定大小的多个块。因此,接下来您的代码将如下所示:

foreach (var chunk in Enumerable.Range(1, 16).Split(3))
{
    Process(chunk);
}

这是另一种 LINQ-y 方法:

var batchSize = 3;
Enumerable.Range(0, (_Records.Length - 1)/batchSize + 1)
    .ToList()
    .ForEach(i => Process(_Records.Skip(i * batchSize).Take(batchSize)));

如果需要在解决方案中多次"分页",可以考虑使用扩展方法。

在 LINQPad 中一起黑了一个,它会解决问题。

public static class MyExtensions {
    public static IEnumerable<IEnumerable<T>> Paginate<T>(this IEnumerable<T> source, int pageSize) {
        T[] buffer = new T[pageSize];
        int index = 0;
        foreach (var item in source) {
            buffer[index++] = item;
            if (index >= pageSize) {
                yield return buffer.Take(pageSize);
                index = 0;
            }
        }
        if (index > 0) {
            yield return buffer.Take(index);
        }
    }
}

基本上,它预填充大小为 pageSize 的缓冲区,并在填满时生成它。如果还剩下< pageSize元素,我们也会产生它们。所以

Enumerable.Range(1, 10).Paginate(3).Dump(); // Dump is a LINQPad extension

将屈服

{{1, 2, 3}, {4, 5, 6}, {7, 8, 9}, {10}}

您可以创建自己的扩展方法:

static class Extensions {
  public static IEnumerable<IEnumerable<T>> ToBlocks<T>(this IEnumerable<T> source, int blockSize) {
    var count = 0;
    T[] block = null;
    foreach (var item in source) {
      if (block == null)
        block = new T[blockSize];
      block[count++] = item;
      if (count == blockSize) {
        yield return block;
        block = null;
        count = 0;
      }
    }
    if (count > 0)
      yield return block.Take(count);
  }
}
public static void ChunkProcess<T>(IEnumerable<T> source, int size, Action<IEnumerable<T>> action)
{
    var chunk = source.Take(size);
    while (chunk.Any())
    {
        action(chunk);
        source = source.Skip(size);
        chunk = source.Take(size);
    }
}

你的代码将是

ChunkProcess(_Records, 3, Process);
var _Records = Enumerable.Range(1, 16).ToArray();
int index = 0;
foreach (var group in _Records.GroupBy(element => index++ / 3))
    Process(group);

注意:上面的代码很短且相对高效,但仍然没有达到应有的效率(它本质上将在幕后构建一个哈希表)。一个稍微麻烦但更快的方法是:

var _Records = Enumerable.Range(1, 16).ToArray();
var buff = new int[3];
int index = 0;
foreach (var element in _Records) {
    if (index == buff.Length) {
        Process(buff);
        index = 0;
    }
    buff[index++] = element;
}
if (index > 0)
    Process(buff.Take(index));

或者,将其打包为更可重用的形式:

public static class EnumerableEx {
    public static void Paginate<T>(this IEnumerable<T> elements, int page_size, Action<IEnumerable<T>> process_page) {
        var buff = new T[3];
        int index = 0;
        foreach (var element in elements) {
            if (index == buff.Length) {
                process_page(buff);
                index = 0;
            }
            buff[index++] = element;
        }
        if (index > 0)
            process_page(buff.Take(index));
    }
}
// ...
var _Records = Enumerable.Range(1, 16).ToArray();
_Records.Paginate(3, Process);

此扩展方法工作正常。

public static class EnumerableExtentions
{
    public static IEnumerable<IEnumerable<T>> Chunks<T>(this IEnumerable<T> items, int   size)
    {
        return
            items.Select((member, index) => new { Index = index, Value = member })
                .GroupBy(item => (int)item.Index / size)
                .Select(chunk => chunk.Select(item => item.Value));
    }
}