`minimize()` 的每次迭代耗时递增,根本原因在于将初始时间戳 `now` 作为 `args` 固定传入目标函数,导致时间差计算失真;实际耗时并未增长,而是因 `now` 始终不变,使得 `time.time() - now` 累积增大。
在使用 scipy.optimize.minimize 进行数值优化时,一个常见但容易被忽视的性能“幻觉”是:迭代耗时看似逐轮上升,实则源于错误的时间基准。从你提供的日志可见,start iteration - X.XXX 的数值从 0.001 持续飙升至近 900 秒——但这并非真实运算变慢,而是因为 now 是调用 minimize 时一次性传入的固定时间戳,后续每次调用 objective() 都在用当前系统时间减去这个“冻结”的起点,造成时间差线性增长。
根据 SciPy 官方文档,minimize 的 args 参数是一个固定元组(tuple),在优化开始前即被绑定并全程复用,不会随每次函数调用而更新:
def objective(df_initial_guess, shape, now): # ❌ now 被冻结为首次传入值
print("start iteration -", time.time() - now) # → 差值越来越大!因此,now 在第一次 minimize(..., args=(shape, now)) 中被求值后就再无变化,time.time() - now 本质上等价于“本次调用距程序启动的绝对秒数”,与单次迭代耗时完全无关。
应将时间测量逻辑移入 objective 函数内部,每次调用都重新捕获起始时刻:
import time
from scipy.optimize import minimize
def objective(df_initial_guess, shape):
now = time.time() # ✅ 每次迭代独立计时起点
print("start iteration -", time.time() - now) # → 始终≈0(精度内)
# 后续步骤保持不变...
df_initial_guess = df_initial_guess.reshape(shape)
global df_training_data
print("initial guess and training data organized -", time.time() - now)
# ... 其他计算步骤 ...
data = np.array(data) * 100
df_training_data[57] = data
print("anomaly calculation done -", time.time() - now)
print()
return df_training_data.loc[df_training_data.iloc[:, 7] >= 1, 57].mean()
# 调用时不再传递 now
result = minimize(objective, df_initial_guess, args=(shape,))def callback(xk):
print(f"Iteration {callback.count}: x={xk[:3]}...") # 示例
callback.count += 1
callback.count = 0
result = minimize(objective, df_initial_guess, args=(shape,), callback=callback)所谓“迭代越来越慢”,本质是一场时间测量的误会。修正 now 的作用域后,你将看到真实的各阶段耗时分布——进而精准定位瓶颈(例如你日志中始终占主导的 formula spectrum calculation)。优化始于正确认知,而非盲目调参。