GPT 与产品

GPT 产品目前还存在责任不健全问题,比如现实社会,比如律师、医生将对结果直接负责,作为 GPT 如何确权目前还没有一个明确的准则。程序所带来的风险是 GPT 的开发商,还是使用者。

就目前而言,正如 关于 GPT 的一点想法 所说,GPT 语词之间的艺术,必然存在概率和信任之前的对立。还没有开发商敢于承担 GPT 带来的法律纠纷,从而导致 GPT 只可以作为辅助工具,而不是原生的 AI 执行工具。

比如 GPT 问诊,只能作为医生的辅助助手,如果是一款直接 To C 的产品,则需要强大的信任背书。

再则,对于工作场景,由于信任的缺失,GPT 必须将思考材料显性透出,思考步骤分解,执行路径可以复原。但是过于依赖人工审核、检验、修正,则丧失了对于辅助工具的效率提升的期许。

综上,对于 GPT 的适用领域,我总结的四个前提:

  • 可确责
  • 可容错
  • 可审核
  • 可复原

参考资料

The Why·Liam·Blog by WhyLiam is licensed under a Creative Commons BY-NC-ND 4.0 International License.

WhyLiam创作并维护的Why·Liam·Blog采用创作共用保留署名-非商业-禁止演绎4.0国际许可证

本文首发于Why·Liam·Blog (https://blog.naaln.com),版权所有,侵权必究。

本文永久链接:https://blog.naaln.com/2023/08/GPT-product/