Project Icon

conc

Go语言结构化并发编程工具集

conc 是一个 Go 语言结构化并发工具集,提供 WaitGroup、Pool、Stream 等组件,简化常见并发任务。该工具集有助于管理 goroutine、处理 panic、控制并发数量和实现并行处理。conc 致力于减少 goroutine 泄漏、优雅处理 panic,并提高并发代码的可读性和可维护性。

conch

conc:Go 语言更好的结构化并发

Go Reference Sourcegraph Go Report Card codecov Discord

conc 是您在 Go 中进行结构化并发的工具箱,使常见任务更容易、更安全。

go get github.com/sourcegraph/conc

概览

所有池都通过 pool.New()pool.NewWithResults[T]() 创建,然后使用以下方法进行配置:

目标

该包的主要目标是:

  1. 使泄漏 goroutine 变得更困难
  2. 优雅地处理 panic
  3. 使并发代码更易读

目标 #1:使泄漏 goroutine 变得更困难

使用 goroutine 时的一个常见痛点是清理它们。很容易发出一个 go 语句而未能正确等待它完成。

conc 采取了一个有争议的立场,即所有并发都应该是有范围的。也就是说,goroutine 应该有一个所有者,该所有者应该始终确保其拥有的 goroutine 正确退出。

conc 中,goroutine 的所有者始终是 conc.WaitGroup。Goroutine 通过 (*WaitGroup).Go()WaitGroup 中生成,并且在 WaitGroup 超出范围之前应始终调用 (*WaitGroup).Wait()

在某些情况下,您可能希望生成的 goroutine 比调用者的范围存活更长。在这种情况下,您可以将 WaitGroup 传递给生成函数。

func main() {
    var wg conc.WaitGroup
    defer wg.Wait()

    startTheThing(&wg)
}

func startTheThing(wg *conc.WaitGroup) {
    wg.Go(func() { ... })
}

有关为什么范围并发很好的更多讨论,请查看这篇博客文章

目标 #2:优雅地处理 panic

在长时间运行的应用程序中,处理 goroutine 的 panic 是一个常见问题。没有 panic 处理程序的 goroutine 在发生 panic 时会崩溃整个进程。这通常是不希望的。

然而,如果您确实为 goroutine 添加了 panic 处理程序,一旦捕获到 panic,您该怎么处理?一些选项:

  1. 忽略它
  2. 记录它
  3. 将其转换为错误并返回给 goroutine 生成器
  4. 将 panic 传播给 goroutine 生成器

忽略 panic 是个坏主意,因为 panic 通常意味着确实出了问题,应该有人修复它。

仅仅记录 panic 也不太好,因为这样生成器就没有任何迹象表明发生了不好的事情,它可能会继续正常运行,即使您的程序处于非常糟糕的状态。

(3) 和 (4) 都是合理的选项,但两者都要求 goroutine 有一个实际可以接收出错信息的所有者。这通常不适用于用 go 生成的 goroutine,但在 conc 包中,所有 goroutine 都有一个必须收集生成的 goroutine 的所有者。在 conc 包中,如果任何生成的 goroutine 发生了 panic,任何对 Wait() 的调用都会 panic。此外,它用子 goroutine 的堆栈跟踪装饰 panic 值,这样您就不会丢失有关导致 panic 的信息。

每次用 go 生成东西时都正确地做到这一点并不容易,而且它需要大量的样板代码,使代码中重要的部分更难阅读,所以 conc 为您做了这些。

stdlibconc
type caughtPanicError struct {
    val   any
    stack []byte
}
func (e *caughtPanicError) Error() string {
    return fmt.Sprintf(
        "panic: %q\n%s",
        e.val,
        string(e.stack)
    )
}

func main() {
    done := make(chan error)
    go func() {
        defer func() {
            if v := recover(); v != nil {
                done <- &caughtPanicError{
                    val: v,
                    stack: debug.Stack()
                }
            } else {
                done <- nil
            }
        }()
        doSomethingThatMightPanic()
    }()
    err := <-done
    if err != nil {
        panic(err)
    }
}
func main() {
    var wg conc.WaitGroup
    wg.Go(doSomethingThatMightPanic)
    // 以良好的堆栈跟踪方式panic
    wg.Wait()
}

目标 #3:使并发代码更易于阅读

正确实现并发是困难的。以不会模糊代码实际功能的方式实现并发更加困难。conc包试图通过抽象尽可能多的样板复杂性来使常见操作更容易。

想要使用有限数量的goroutine运行一组并发任务吗?使用pool.New()。想要并发处理有序结果流,但仍保持顺序吗?试试stream.New()。想要对切片进行并发映射吗?看看iter.Map()

浏览下面的一些示例,比较手动实现的方式。

示例

为简单起见,这些示例都省略了传播panic的处理。要了解这会增加什么样的复杂性,请查看上面的"目标 #2"标题。

生成一组goroutine并等待它们完成:

stdlibconc
func main() {
    var wg sync.WaitGroup
    for i := 0; i < 10; i++ {
        wg.Add(1)
        go func() {
            defer wg.Done()
            // panic时会崩溃!
            doSomething()
        }()
    }
    wg.Wait()
}
func main() {
    var wg conc.WaitGroup
    for i := 0; i < 10; i++ {
        wg.Go(doSomething)
    }
    wg.Wait()
}

在静态goroutine池中处理流的每个元素:

stdlibconc
func process(stream chan int) {
    var wg sync.WaitGroup
    for i := 0; i < 10; i++ {
        wg.Add(1)
        go func() {
            defer wg.Done()
            for elem := range stream {
                handle(elem)
            }
        }()
    }
    wg.Wait()
}
func process(stream chan int) {
    p := pool.New().WithMaxGoroutines(10)
    for elem := range stream {
        elem := elem
        p.Go(func() {
            handle(elem)
        })
    }
    p.Wait()
}

在静态goroutine池中处理切片的每个元素:

stdlibconc
func process(values []int) {
    feeder := make(chan int, 8)

    var wg sync.WaitGroup
    for i := 0; i < 10; i++ {
        wg.Add(1)
        go func() {
            defer wg.Done()
            for elem := range feeder {
                handle(elem)
            }
        }()
    }

    for _, value := range values {
        feeder <- value
    }
    close(feeder)
    wg.Wait()
}
func process(values []int) {
    iter.ForEach(values, handle)
}

并发映射切片:

stdlibconc
func concMap(
    input []int,
    f func(int) int,
) []int {
    res := make([]int, len(input))
    var idx atomic.Int64

    var wg sync.WaitGroup
    for i := 0; i < 10; i++ {
        wg.Add(1)
        go func() {
            defer wg.Done()

            for {
                i := int(idx.Add(1) - 1)
                if i >= len(input) {
                    return
                }

                res[i] = f(input[i])
            }
        }()
    }
    wg.Wait()
    return res
}
func concMap(
    input []int,
    f func(*int) int,
) []int {
    return iter.Map(input, f)
}

并发处理有序流:

stdlibconc
func mapStream(
    in chan int,
    out chan int,
    f func(int) int,
) {
    tasks := make(chan func())
    taskResults := make(chan chan int)

    // 工作goroutine
    var workerWg sync.WaitGroup
    for i := 0; i < 10; i++ {
        workerWg.Add(1)
        go func() {
            defer workerWg.Done()
            for task := range tasks {
                task()
            }
        }()
    }

    // 有序读取goroutine
    var readerWg sync.WaitGroup
    readerWg.Add(1)
    go func() {
        defer readerWg.Done()
        for result := range taskResults {
            item := <-result
            out <- item
        }
    }()

    // 向工作者提供任务
    for elem := range in {
        resultCh := make(chan int, 1)
        taskResults <- resultCh
        tasks <- func() {
            resultCh <- f(elem)
        }
    }

    // 输入已耗尽。
    // 等待所有内容完成
    close(tasks)
    workerWg.Wait()
    close(taskResults)
    readerWg.Wait()
}
func mapStream(
    in chan int,
    out chan int,
    f func(int) int,
) {
    s := stream.New().WithMaxGoroutines(10)
    for elem := range in {
        elem := elem
        s.Go(func() stream.Callback {
            res := f(elem)
            return func() { out <- res }
        })
    }
    s.Wait()
}

状态

这个包目前是pre-1.0版本。在1.0版本发布之前可能会有一些小的破坏性更改,因为我们正在稳定API并调整默认值。如果您有任何问题、疑虑或在1.0版本发布前希望解决的请求,请开启一个issue。目前,1.0版本计划在2023年3月发布。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号