以下是关于一些产品的使用和注册方法:
第一步:进入官网:https://www.youchuanai.com/点击下载对应版本第二步:点击注册,在注册方式选择「激活码」激活码:(目前邀请码已达上限)填写其他信息完成后即可使用
1.登陆PIKA官网https://pika.art2.点击进入,即可看到主页,然后点击“加入测试版”,即可申请内测,一般很快就能获得内测资格。3.加入PIKA的Discord社区并在这里使用产品
提供了用于[推理和监督式微调(SFT)的工具链](https://link.zhihu.com/?target=https%3A//ai.google.dev/responsible%3Futm_source%3Dagd%26utm_medium%3Dreferral%26utm_campaign%3Dexplore-responsible%26utm_content):通过原生Keras 3.0支持JAX、PyTorch和TensorFlow。随时可用的[Colab](https://link.zhihu.com/?target=http%3A//ai.google.dev/gemma/docs/get_started)和[Kaggle notebook](https://link.zhihu.com/?target=https%3A//www.kaggle.com/models/google/gemma/code),以及与流行工具如Hugging Face、MaxText、NVIDIA NeMo和TensorRT-LLM的集成,使得开始使用Gemma变得简单。预训练和指令调优的Gemma模型可以在笔记本电脑、工作站或Google Cloud上运行,通过Vertex AI和Google Kubernetes Engine(GKE)轻松部署。在多个AI硬件平台上的优化确保了行业领先的性能,包括NVIDIA GPU和Google Cloud TPU。使用条款允许所有组织,无论大小,负责任地进行商业使用和分发。Gemma模型的参数如下所示。其中Gemma 2B采用512 TPUv5e训练,预训练数据量为2T tokens,而Gemma 7B采用4096 TPUv5e训练,预训练数据量为6T tokens。Gemma在技术和架构上和谷歌的商业大模型Gemini同源,这使得Gemma在效果上也超过其它同类开源模型,如Llama 2: