字节发布的Coze GPTs在国内可以愉快的使用了,能上网就能用

上期图文教程,我们分享了coze的国外版本,但是由于是国外的网站,要想使用,还需要一定的特殊技术。而字节也许听到了广大网友的需求,发布了国内版本的coze GPTs,无需特殊技术,能上网就可以使用。且无需任何代码,即可创建自己的Bots。


国内网站,直接是中文版本了,直接登陆官方网站,点击开始使用就可以登陆系统了。

Coze GPTs支持抖音登陆,当然也可以使用手机号直接登陆。登陆到网站后,就进入了创建chat Bot的界面

而官方网站上,也上线了很多工具bots,可以根据自己的需求进行使用。

同样的,官方coze上面也上线了很多插件,包含必应搜索,AI绘图,代码编辑,新闻搜索,天气等插件,可以直接在自己的GPTs上面来添加插件使用。

我们可以创建一个Bots,在这里可以定义一个自己的Bots的特点,具有哪些特征技术以及定义自己的Bots名字,等待平台一会,便可以创建了自己的Bots。

点击自己创建的Bots,我们就可以愉快的跟自己的聊天模型进行聊天了。

而这里模型的聊天模型使用的是云雀大模型,由于是国内版本的GPTs,这里并没有使用ChatGPT的模型。

在没有添加插件前,问了模型一个问题,让他介绍一下swin transformer模型,并没有得到想要的答案。

添加了插件后,模型可以正常理解了问题,并进行问题的回答

介绍一下swin transformer 模型?
Swin Transformer 模型是由微软亚洲研究院提出的一种新型的 Transformer 模型,
它使用了一种称为“窗口分块”的技术,将输入的图像分成若干个窗口,
并在每个窗口内部进行局部的自注意力计算。这种技术可以有效地减少计算量,
同时保持模型的准确性。

Swin Transformer 模型在多个图像分类任务上取得了很好的成绩,
例如在 ImageNet 数据集上的分类准确率达到了 84.5%,超过了其他 Transformer 模型和
卷积神经网络模型。此外,Swin Transformer 模型还具有很强的泛化能力,
可以在不同的数据集上取得很好的效果。

总的来说,Swin Transformer 模型是一种非常有前途的 Transformer 模型,
它具有很高的准确性和效率,同时具有很强的泛化能力,可以应用于各种图像分类任务。

同样的,我们也可以添加AI绘图的插件,然后让模型进行绘图。

https://www.coze.cn/home

更多的插件以及模型使用,可以登陆官方网站进行使用。当然这里也可以上线自己的插件以及分享自己创建的GPTs。

展开阅读全文

页面更新:2024-02-21

标签:卷积   能用   字节   插件   官方网站   模型   图像   愉快   准确性   窗口   版本   技术   网站

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top