🤖 Jibay-1.5p-1M-PhD
The World's Most Efficient 1-Million Parameter Neural Network Written Entirely in Pure PHP.
Jibay-1.5p-1M-PhD is a high-performance, lightweight language model developed by Team Jibay. This model shatters the myth that AI requires heavy Python environments or expensive GPUs. It is engineered to run seamlessly on the weakest shared hosting environments and mobile devices.
🌟 Key Highlights
- Architecture: PhD Core (Advanced Tensor Processing in PHP).
- Parameters: 1,000,000+ (1M) Active Weights.
- Training: 3 Days of continuous supervised learning.
- Tokenizer: Custom-built tokenizer optimized for bilingual processing.
- Languages: Dual-support for English and Persian (Farsi).
- Compatibility: Runs on PHP 7.4+ with zero external dependencies.
📊 Technical Specifications
| Specification | Details |
|---|---|
| Model Name | Jibay-1.5p-1M-PhD |
| Developer | Jibay Team |
| Parameters | 1,000,000 |
| Core Logic | PhD Core v1.5 (Advanced Backpropagation & Adam Optimizer) |
| Runtime | Pure PHP (No Python, No C++) |
| Platform | Low-end Web Hosting, Android/iOS (Local PHP Server) |
🧠 Why "PhD Core"?
The "PhD Core" refers to the high-density neural architecture used in this model. Unlike basic chatbots, this core utilizes:
- Xavier Weight Initialization: To ensure model stability during high-parameter training.
- Leaky ReLU Activation: Prevents "Dead Neurons" and ensures precise logical reasoning.
- Full Softmax Integration: Provides a 99.9% accuracy rate for learned datasets.
🚀 Deployment
Since Jibay is written in PHP, deployment is as simple as uploading a few files:
- Upload
run.php,model.bin, andtokenizer.jsonto your server. - Access it via:
https://your-domain.com/run.php?q=Hello
📱 Mobile Execution
Jibay is so efficient that it can be hosted locally on a smartphone using apps like KSWEB or Termux, allowing you to have a private, offline AI in your pocket.
🇮🇷 نسخه فارسی (Persian Version)
🤖 Jibay-1.5p-1M-PhD
کارآمدترین شبکه عصبی ۱ میلیون پارامتری در جهان که تماماً با زبان PHP نوشته شده است.
مدل Jibay-1.5p-1M-PhD یک مدل زبانی فوق سبک و با کارایی بالاست که توسط تیم جیبای توسعه یافته است. این مدل ثابت میکند که هوش مصنوعی پیشرفته نیازی به محیطهای سنگین پایتون یا کارتهای گرافیک گرانقیمت ندارد و میتواند به راحتی روی ضعیفترین هاستهای اشتراکی و گوشیهای هوشمند اجرا شود.
🌟 ویژگیهای برجسته
- معماری: هسته PhD (پردازش پیشرفته تنسور در پیاچپی).
- پارامترها: بیش از ۱,۰۰۰,۰۰۰ (۱ میلیون) وزن فعال.
- آموزش: ۳ روز آموزش مداوم و متمرکز.
- توکنیزر: توکنیزر اختصاصی بهینهشده برای پردازش دو زبانه.
- زبانها: پشتیبانی کامل از انگلیسی و فارسی.
- سازگاری: اجرا روی PHP 7.4 به بالا بدون نیاز به هیچ پیشنیاز خارجی.
📊 مشخصات فنی
| مشخصه | جزئیات |
|---|---|
| نام مدل | Jibay-1.5p-1M-PhD |
| توسعهدهنده | تیم جیبای (Jibay Team) |
| تعداد پارامترها | ۱,۰۰۰,۰۰۰ |
| منطق هسته | PhD Core v1.5 (بهینهساز Adam و انتشار معکوس پیشرفته) |
| زبان پایه | Pure PHP (بدون پایتون، بدون ++C) |
| پلتفرم | هاستهای ضعیف، اندروید و iOS (از طریق سرور داخلی) |
🧠 مفهوم "PhD Core" چیست؟
عبارت "PhD Core" به معماری عصبی با چگالی بالا در این مدل اشاره دارد. برخلاف چتباتهای ساده، این هسته از موارد زیر استفاده میکند: ۱. مقداردهی Xavier: برای تضمین ثبات مدل در آموزش با پارامترهای بالا. ۲. فعالساز Leaky ReLU: جلوگیری از مرگ نورونها و تضمین استدلال منطقی دقیق. ۳. ادغام کامل Softmax: ایجاد نرخ دقت ۹۹.۹ درصدی برای دادههای آموزش دیده.
🚀 راه اندازی
از آنجایی که جیبای با PHP نوشته شده، راهاندازی آن به سادگی آپلود چند فایل است:
۱. فایلهای run.php ، model.bin و tokenizer.json را روی سرور آپلود کنید.
۲. از طریق آدرس روبرو از آن سوال بپرسید: https://your-domain.com/run.php?q=سلام
📱 اجرا روی موبایل
جیبای به قدری بهینه است که میتواند به صورت محلی روی گوشیهای هوشمند (با استفاده از اپلیکیشنهایی مثل KSWEB یا Termux) میزبانی شود و یک هوش مصنوعی خصوصی و آفلاین را در جیب شما فراهم کند.
Developed with ❤️ by Jibay Team
- Downloads last month
- 29
