#!/bin/bash function llama_init_environment { # if conf does not exist, create it if [ ! -f "$HOME/.config/llama/llama-main.conf" ]; then mkdir -p "$HOME/.config/llama" cat < "$HOME/.config/llama/llama-main.conf" LLAMA_MODEL_NAME=teknium/OpenHermes-2.5-Mistral-7B/openhermes-2.5-mistral-7b-f16.gguf LLAMA_TEMPLATE=chatml LLAMA_MODELS_PATH=$HOME/.ai/models/llama LLAMA_PROMPT_PATH=$HOME/.local/share/llama/prompts LLAMA_CACHE_PATH=$HOME/.cache/llama LLAMA_CONTEXT_SIZE=4096 LLAMA_TEMPERATURE=1.6 LLAMA_TOP_P=1.0 LLAMA_MIN_P=0.1 LLAMA_TOP_K=0 LLAMA_REPETITION_PENALTY=1.15 EOF fi source $HOME/.config/llama/llama-main.conf if [ ! -d "$LLAMA_CACHE_PATH" ]; then mkdir -p "$LLAMA_CACHE_PATH" fi } function llama_interactive { # if 4 arguments are provided... if [[ $# -eq 4 ]]; then LLAMA_MODEL_NAME=$1 LLAMA_TEMPLATE=$2 LLAMA_CONTEXT_SIZE=$3 LLAMA_TEMPERATURE=$4 fi # if fewer than 4 arguments - but greater than 0 - are provided, then display error message if [[ $# -lt 4 ]] && [[ $# -gt 0 ]]; then echo "Error: 4 arguments are required." echo "Usage: llama