文档 · 常见问题 · 博客 · 聊天 · 路线图 · 基准测试
Codon是什么?
Codon是一个高性能的Python实现,它可以编译为原生机器代码,没有任何运行时开销。与普通Python相比,典型的速度提升在10-100倍或更高,仅在单线程上。Codon的性能通常与C/C++相当(有时甚至更好)。与Python不同,Codon支持原生多线程,这可能会带来更高的速度提升。
可以将Codon视为为静态、预先编译而重新设计的Python,从根本上以实现最佳性能为目标。
目标
- :bulb: 无学习曲线: 在语法、语义和库方面尽可能接近CPython
- :rocket: 顶级性能: 至少与C、C++或Rust等低级语言相当
- :computer: 硬件支持: 完全无缝支持多核编程、多线程(无GIL!)、GPU等
- :chart_with_upwards_trend: 优化: 全面的优化框架,可针对高级Python结构和库
- :battery: 互操作性: 与Python的包和库生态系统完全互操作
非目标
-
:x: CPython的直接替代品: Codon不是CPython的直接替代品。Python的某些方面不适合静态编译——我们在Codon中不支持这些。可以通过其JIT装饰器或Python扩展后端在更大的Python代码库中使用Codon。Codon还支持通过其Python互操作性调用任何Python模块。另请参阅文档中的"与Python的区别"。
-
:x: 新语法和语言结构: 我们尽量避免添加新的语法、关键字或其他语言特性。虽然Codon确实在某些地方添加了一些新语法(例如表达并行性),但我们尽量使其尽可能熟悉和直观。
安装
每个发布版本都提供了Linux(x86_64)和macOS(x86_64和arm64)的预构建二进制文件。 下载并安装:
/bin/bash -c "$(curl -fsSL https://exaloop.io/install.sh)"
或者你可以从源代码构建。
示例
Codon是一种与Python兼容的语言,许多Python程序无需或只需很少修改就能工作:
def fib(n):
a, b = 0, 1
while a < n:
print(a, end=' ')
a, b = b, a+b
print()
fib(1000)
codon
编译器有许多选项和模式:
# 编译并运行程序
codon run fib.py
# 0 1 1 2 3 5 8 13 21 34 55 89 144 233 377 610 987
# 启用优化并编译运行程序
codon run -release fib.py
# 0 1 1 2 3 5 8 13 21 34 55 89 144 233 377 610 987
# 启用优化并编译为可执行文件
codon build -release -exe fib.py
./fib
# 0 1 1 2 3 5 8 13 21 34 55 89 144 233 377 610 987
# 启用优化并编译为LLVM IR文件
codon build -release -llvm fib.py
# 输出文件fib.ll
更多选项和示例请参阅文档。
你可以在Codon中导入和使用任何Python包。例如:
from python import matplotlib.pyplot as plt
data = [x**2 for x in range(10)]
plt.plot(data)
plt.show()
(请记住设置CODON_PYTHON
环境变量为CPython共享库,如文档中所述。)
这个质数计数示例展示了Codon的OpenMP支持,只需添加一行即可启用。@par
注解告诉编译器并行化以下for
循环,在这个例子中使用动态调度、块大小为100,以及16个线程。
from sys import argv
def is_prime(n):
factors = 0
for i in range(2, n):
if n % i == 0:
factors += 1
return factors == 0
limit = int(argv[1])
total = 0
@par(schedule='dynamic', chunk_size=100, num_threads=16)
for i in range(2, limit):
if is_prime(i):
total += 1
print(total)
Codon支持编写和执行GPU内核。这里是一个计算曼德布罗特集合的示例:
import gpu
MAX = 1000 # 最大曼德布罗特迭代次数
N = 4096 # 图像宽度和高度
pixels = [0 for _ in range(N * N)]
def scale(x, a, b):
return a + (x/N)*(b - a)
@gpu.kernel
def mandelbrot(pixels):
idx = (gpu.block.x * gpu.block.dim.x) + gpu.thread.x
i, j = divmod(idx, N)
c = complex(scale(j, -2.00, 0.47), scale(i, -1.12, 1.12))
z = 0j
iteration = 0
while abs(z) <= 2 and iteration < MAX:
z = z**2 + c
iteration += 1
pixels[idx] = int(255 * iteration/MAX)
mandelbrot(pixels, grid=(N*N)//1024, block=1024)
GPU编程也可以使用@par
语法,通过@par(gpu=True)
实现。
文档
请访问docs.exaloop.io获取详细文档。