magicwolf 发表于 2011-4-25 16:43:09

问几个hyperstudy优化的几个问题

本帖最后由 magicwolf 于 2011-4-26 13:32 编辑

hyperstudy里不进行doe而直接选择优化的话,比如我选择了ARSM进行优化,他也会在优化前得到近似模型吗?采用的是什么方法啊?

自适应响应面法(ARSM )、响应面法 、 序列响应面法、序贯响应面法的区别是什么?论文中好像还见到过intermediate response surface modeling (IRSM)

woxuanzeni 发表于 2011-4-26 09:03:51

同问,我也很困惑

xzzlwy 发表于 2011-5-24 09:18:56

你好,我有几个问题想请教你,能加我好友么?369895954,谢谢

lbsys_3122 发表于 2011-7-14 17:09:39

我也有疑惑----不知道怎么选?

zkong 发表于 2011-7-14 17:16:35

HyperStudy帮助文档中详细介绍了ARSM的算法

User's Guide > Optimization > Adaptive Response Surface Method (ARSM)

ARSM也需要先生成响应面函数(二次多项式)再做优化,只不过响应面是不断更新的 (每次拟合用的样本点会包括前一次优化得到的最优点)。

liangpiewu 发表于 2011-7-18 11:46:07

我也想知道,谢谢

417332551 发表于 2011-7-21 21:46:59

乐天居士 建立了一个hyperstudy的QQ群 。。164614035。。他在HS 上有功底,有资源。

xiaohuikxh2006 发表于 2011-7-22 10:02:56

好 一起学习吧

luozhifan 发表于 2011-9-26 14:57:35

ARSM方法本身就是个自适应响应面法,故不需要先做DOE+APPROXIMATION
第一个迭代步是对初始设计点的分析;后N(N为设计变量的个数)步是分别对每个设计变量扶摄动产生的样本点;这样(N+1)个点可构造线性响应面;
随后基于构造的响应面进行寻优,找到一个最佳设计点;
将新产生的设计点加入样本点,对响应面进行更新(这时引入二次项);
循环迭代直到满足收敛准则;

lbsys_3122 发表于 2011-9-26 15:59:42

luozhifan 发表于 2011-9-26 14:57 static/image/common/back.gif
ARSM方法本身就是个自适应响应面法,故不需要先做DOE+APPROXIMATION
第一个迭代步是对初始设计点的分析;后 ...

它是一种优化方法,如果我做了响应面很快-----这是两种思路--同一种方法---

luozhifan 发表于 2011-9-26 16:20:55

lbsys_3122 发表于 2011-9-26 15:59 static/image/common/back.gif
它是一种优化方法,如果我做了响应面很快-----这是两种思路--同一种方法--- ...

请注意,如果用DOE+APPROXIMATION构造响应面,然后在该响应面上做优化,这和ARSM是有很大区别的;
先构造响应面,再做优化的话,所得到的结果只是基于响应面的最优解;这很可能和实际模型有很大的差别;这就有必要再做VALIDATION--将所得结果输入实际模型进行计算,验证结果的有效性;
而ARSM方法有所不同,其响应面是不断更新的,也就是说其内部就有了一个VALIDATION的机制;

lbsys_3122 发表于 2011-9-28 22:55:51

luozhifan 发表于 2011-9-26 16:20 static/image/common/back.gif
请注意,如果用DOE+APPROXIMATION构造响应面,然后在该响应面上做优化,这和ARSM是有很大区别的;
先构造 ...

这个基于响应面的优化结果我肯定要验算,其结果和直接优化的结果很接近-----但是,优化速度要快的多----代理模型的精度只要很高肯定与与有限元模型是等价的--

limin.xu 发表于 2011-9-29 09:11:50

本帖最后由 limin.xu 于 2011-9-29 09:12 编辑

lbsys_3122 发表于 2011-9-28 22:55 static/image/common/back.gif
这个基于响应面的优化结果我肯定要验算,其结果和直接优化的结果很接近-----但是,优化速度要快的多---- ...
除了比较基于代理模型优化的时间,工程师还需要考虑构造合适的代理模型所付出的时间:采样+拟合。
ARSM无需事先构建代理模型,而是在迭代过程中建立代理模型并随即验证,所以说ARSM的计算效率一般较高。

lbsys_3122 发表于 2011-9-29 12:27:51

limin.xu 发表于 2011-9-29 09:11 static/image/common/back.gif
除了比较基于代理模型优化的时间,工程师还需要考虑构造合适的代理模型所付出的时间:采样+拟合。
ARSM无 ...

同意你的观点

luozhifan 发表于 2011-9-30 09:00:02

lbsys_3122 发表于 2011-9-28 22:55 static/image/common/back.gif
这个基于响应面的优化结果我肯定要验算,其结果和直接优化的结果很接近-----但是,优化速度要快的多---- ...

代理模型的精度,只有在样本点足够多的情况下才接近于有限元模型;
但一般来说,由于有限元模型分析很耗时(这也是为什么用代理模型的理由),因此所采用的样本点也很有限;我碰到过好几个这样的情况,拿代理模型的优化结果去有限元模型中去验证,相差很大;因此个人对基于代理模型(DOE+APPROXIMATION)的优化抱谨慎推荐的态度。

lbsys_3122 发表于 2011-9-30 14:53:21

luozhifan 发表于 2011-9-30 09:00 static/image/common/back.gif
代理模型的精度,只有在样本点足够多的情况下才接近于有限元模型;
但一般来说,由于有限元模型分析很耗 ...

我的上一个项目就是用的构造代理模型优化---精度非常高--帮别人做了一个代理模型性的优化结果也是非常的好--这是我的观点,也算是我的一点经验吧。

grower 发表于 2011-10-5 20:24:50

本帖最后由 grower 于 2011-10-5 22:58 编辑

      還是要看問題來判斷,面對一個新的優化問題時,我寧可多花費一些時間去探索設計空間,了解設計變數與響應之間的關係,並提供給設計人員一些修改思考的方向,看是要放寬搜索的範圍還是更換另一組設計變數,在面對實務上的問題時,越是複雜或不了解的問題越是要更小心的探索與尋優,我一直認為DOE+近似模型是相當有效的手段,有時候沒挑對設計變數直接硬幹反而有可能做白工。
       至於近似模型精度的問題,如果是單純的單峰問題,少量的數據點精度也許就夠準了,另外也需要對你的模型做一下ANOVA,了解一下誤差的來源,看是要更換一個近似方法還是響應本身就存在大量的雜訊,若是後者那挑甚麼近似方法都會有近似度不佳的問題,但遇到這種問題也是需要一些其他手段來幫忙處理,ARSM直接做也是存在風險的。
       所以我自己的做法是除非問題相當明確,挑選的變數與變數範圍都相當確定,且類似的問題已做過,了解響應曲面相對單純,這時直接使用ARSM效果應該會相當不錯,或是利用RSM找到最佳點當初始值,再利用ARSM找最佳點也是可以。
       事實上上述其實也沒有絕對,只是個人的策略與分享,畢竟不同行業與不同問題的差異性還是相當大的。

luozhifan 发表于 2011-10-8 10:58:18

grower 发表于 2011-10-5 20:24 static/image/common/back.gif
還是要看問題來判斷,面對一個新的優化問題時,我寧可多花費一些時間去探索設計空間,了解設計變數與 ...

精彩的分析, 谢谢!
能否更进一步讲一下直接用ARSM方法会存在哪些风险?
个人认为, 直接用ARSM方法不存在风险问题. 最坏的结果是ARSM找不到比初始解更优的解. 但一般通过调整优化参数可找到相对可行的优化解.

luozhifan 发表于 2011-10-8 10:59:54

lbsys_3122 发表于 2011-9-30 14:53 static/image/common/back.gif
我的上一个项目就是用的构造代理模型优化---精度非常高--帮别人做了一个代理模型性的优化结果也是非常的 ...

这只能说明该方法对你的问题有效, 恭喜!

grower 发表于 2011-10-8 13:20:42

嗯,高手出現了(也可以順便挖一下寶了),我想主要的風險還是會陷在局部極值裡面打轉吧,但也許就像你所說的需要再調整參數會有更好的結果,不知是否可以順便分享這方面的心得與策略。

我舉個例子好了:
目標函數: f(x,y)=-(x^2+y^2)+3*sin(x^2+y^2)
拘束條件: NA
變數範圍: -4~4
初始值: x=-4, y=-4
目標為搜尋極大值

在我的電腦裡使用ARSM沒有辦法直接找到最大值,相當容易陷入局部極值的問題,這類的問題該如何調整參數比較好。( 給出這個方程不是故意找麻煩,只是想重現當初遇到的幾個問題 )
页: [1] 2
查看完整版本: 问几个hyperstudy优化的几个问题