Kürasyon ekibi tarafından derlendi — her gün güncellenir19 Nisan 2026 · 196 içerik
Kürasyon yapay zeka içerik arşivi
Kürasyon, yapay zeka haberlerini, LLM modellerini, araçları, araştırmaları, etik ve politika başlıklarını Türkçe açıklamalarla kategorize eden bir içerik akışıdır.
Kürasyon arşivinde şu anda 196 yapay zeka içeriği bulunur ve içerikler LLM, görüntü, video, araçlar, araştırma, sektör, etik, politika ve geliştirici odaklı başlıklara ayrılır.
Bu sayfa; yapay zeka haberleri, AI araçları, generative AI araştırmaları, LLM gelişmeleri ve geliştirici odaklı içerikleri hızlı keşif için düzenler.
Klasorler
Akisi konu basliklarina gore daralt.
196 icerik
ℏεsam@Hesamation · 17 Nis
Google DeepMind araştırmacısı, LLM'lerin asla bilinçli olamayacağını, ne 10 yılda ne de 100 yılda, savunuyor.
"Bir algoritmik tanımın, haritaladığı niteliği somutlaştırmasını beklemek, yerçekimi formülünün fiziksel olarak ağırlık uygulamasını beklemeye benzer."
SON DAKİKA: Stanford, yapay zeka API'lerinde 28 katlık bir fiyat tersine dönüşü tespit etti.
Gemini 3 Flash'ın listelenen fiyatı, Claude Haiku 4.5'ten 1,7 kat daha ucuz.
MMLUPro'daki gerçek maliyeti ise 28 kat daha yüksek.
Ekibinizin model seçimi için kullandığı tüm yapay zeka maliyet sıralaması, 5'te 1 oranında yanlış.
Stanford ve Berkeley, 9 kıyaslama ve 11.872 sorgu üzerinden 8 öncü yapay zeka modelini denetledi.
Amaç basitti: Listelenen API fiyatları gerçekten ödeyeceğiniz tutarı tahmin ediyor mu?
Cevap hayır.
Model çifti karşılaştırmalarının %21,8'inde, yaklaşık 5'te 1 oranında, daha düşük listelenen fiyata sahip modelin çalıştırılması daha pahalıya mal oluyor. Tersine dönüş bir yuvarlama hatası değil. En kötü durum 28 kata ulaşıyor.
MMLUPro'da Gemini 3 Flash, milyon token başına 3,50 dolardan listeleniyor. GPT-5.2'nin liste fiyatı 15,75 dolar. Gemini 3 Flash'ın bu kıyaslamadaki gerçek maliyeti, GPT-5.2'ninkinden 6 kat daha yüksek. "Ucuz" model aslında pahalı olan model.
Temel neden, mantık modellerinin nihai bir cevap üretmeden önce oluşturduğu görünmez akıl yürütme adımları olan düşünme belirteçleridir. Bunlar, tam çıktı belirteç oranı üzerinden faturalandırılır. Listelenen fiyatta görünmezler. Ve aynı sorguda modeller arasında %900'e varan oranda değişiklik gösterirler.
Tek bir AIME matematik probleminde:
→ GPT-5.2 562 düşünme belirteci kullandı. Doğru cevap.
→ Gemini 3 Flash 11.749 düşünme belirteci kullandı. Aynı doğru cevap.
→ 20 kat daha fazla düşünme. 2,5 kat daha yüksek gerçek maliyet. Gemini 3 Flash'ın daha düşük listelenen fiyatına rağmen.
Stanford, nedenselliği ablasyon yoluyla doğruladı. Token maliyetleri kaldırıldığında:
→ Sıralama tersine dönmeleri %70 oranında düşüyor
→ Fiyat-maliyet korelasyonu 0,563'ten 0,873'e yükseliyor
→ MMLUPro'da bazı modeller çıktı tokenlerinin %97,9'una kadarını yalnızca düşünmeye harcıyor
Tüm modellerin tam kıyaslama paketi için gerçek maliyeti:
→ Gemini 3.1 Pro: Liste fiyatı 14$/MTok, gerçek maliyet 1.169$, genel olarak en pahalı model
→ Claude Opus 4.6: Liste fiyatı 30$/MTok, gerçek maliyet Gemini 3.1 Pro'dan 768$ daha ucuz, liste fiyatı 2 kat daha yüksek olmasına rağmen
→ Gemini 3 Flash: Liste fiyatı 3,50$/MTok, gerçek maliyet GPT-5.2'den 643$ daha pahalı
→ GPT-5.2: Liste fiyatı 15,75$/MTok, gerçek maliyet her iki Gemini modelinden de 527$ daha ucuz
→ GPT-5 Mini: Liste fiyatı 2,25$/MTok, gerçek maliyet 53$
→ Claude Haiku 4.5: Listelenen fiyat 6$/MTok, gerçek fiyat 37$, çalıştırılması en ucuz olanlardan biri
→ Tüm 252 karşılaştırmada tersine çevirme oranı: %21,8
→ Özellikle MMLUPro'da tersine çevirme oranı: %32,1, neredeyse her 3 karşılaştırmadan 1'i tersine döndü
→ En kötü tek tersine çevirme: Gemini 3 Flash ile Claude Haiku 4.5 karşılaştırması, listelenen fiyat 1,7 kat daha ucuz, gerçek fiyat 28 kat daha pahalı
Maliyet tahmin problemi daha da kötü.
Stanford, gömülü vektörler, komut satırı uzunluğu ve geçmiş benzerlik kullanarak sorgu göndermeden önce gerçek maliyeti tahmin edip edemeyeceğinizi test etti.
En iyi tahminci, ortalamayı tahmin etmeye kıyasla hatayı yalnızca %23 oranında azalttı.
Gemini 3.1 Pro gibi yüksek varyanslı modellerde, en iyi tahminci bile işe yaramazdı.
Sebep: Varyansın bir kısmı sorguyla ilgili değil.
Aynı AIME problemini GPT-5 Mini üzerinde altı kez çalıştırmak, maliyetlerde 9,7 kata varan farklılıklar ortaya çıkardı.
Aynı komut. Aynı model. Farklı çalıştırmalar.
Düşünme süreci rastgeledir. Fatura rastgeledir. Hiçbir tahminci, modelin içinde yaşayan rastgeleliği düzeltemez.
Fiyatlandırma sayfasındaki fiyat, sizin maliyetiniz değildir.
Akıl yürütme modelleri için, bu durum gerçek maliyete hiç yaklaşmıyor bile.
Hala aklındaki mobil uygulamayı yayınlamadın mı?
- 650 TL’ye Apple developer hesabını aç.
- Ana özelliği iyi çalışan, tek sayfa olmayan appini yayınla
- Subscription ve reklam ekle.
- Download veya gelir gelmezse tekrar 2. adıma dön ve yeni bir app dene
LLM Knowledge Bases
Something I'm finding very useful recently: using LLMs to build personal knowledge bases for various topics of research interest. In this way, a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge (stored as markdown and images). The latest LLMs are quite good at it. So:
Data ingest:
I index source documents (articles, papers, repos, datasets, images, etc.) into a raw/ directory, then I use an LLM to incrementally "compile" a wiki, which is just a collection of .md files in a directory structure. The wiki includes summaries of all the data in raw/, backlinks, and then it categorizes data into concepts, writes articles for them, and links them all. To convert web articles into .md files I like to use the Obsidian Web Clipper extension, and then I also use a hotkey to download all the related images to local so that my LLM can easily reference them.
IDE:
I use Obsidian as the IDE "frontend" where I can view the raw data, the the compiled wiki, and the derived visualizations. Important to note that the LLM writes and maintains all of the data of the wiki, I rarely touch it directly. I've played with a few Obsidian plugins to render and view data in other ways (e.g. Marp for slides).
Q&A:
Where things get interesting is that once your wiki is big enough (e.g. mine on some recent research is ~100 articles and ~400K words), you can ask your LLM agent all kinds of complex questions against the wiki, and it will go off, research the answers, etc. I thought I had to reach for fancy RAG, but the LLM has been pretty good about auto-maintaining index files and brief summaries of all the documents and it reads all the important related data fairly easily at this ~small scale.
Output:
Instead of getting answers in text/terminal, I like to have it render markdown files for me, or slide shows (Marp format), or matplotlib images, all of which I then view again in Obsidian. You can imagine many other visual output formats depending on the query. Often, I end up "filing" the outputs back into the wiki to enhance it for further queries. So my own explorations and queries always "add up" in the knowledge base.
Linting:
I've run some LLM "health checks" over the wiki to e.g. find inconsistent data, impute missing data (with web searchers), find interesting connections for new article candidates, etc., to incrementally clean up the wiki and enhance its overall data integrity. The LLMs are quite good at suggesting further questions to ask and look into.
Extra tools:
I find myself developing additional tools to process the data, e.g. I vibe coded a small and naive search engine over the wiki, which I both use directly (in a web ui), but more often I want to hand it off to an LLM via CLI as a tool for larger queries.
Further explorations:
As the repo grows, the natural desire is to also think about synthetic data generation + finetuning to have your LLM "know" the data in its weights instead of just context windows.
TLDR: raw data from a given number of sources is collected, then compiled by an LLM into a .md wiki, then operated on by various CLIs by the LLM to do Q&A and to incrementally enhance the wiki, and all of it viewable in Obsidian. You rarely ever write or edit the wiki manually, it's the domain of the LLM. I think there is room here for an incredible new product instead of a hacky collection of scripts.
Tüm bu kalıplar, bir örnek olarak, sadece “kuruluş kodu” meseleleridir. IDE, bunları oluşturmanıza, çalıştırmanıza ve yönetmenize yardımcı olur. Klasik kuruluşları (örn. Microsoft) çatallayamazsınız ancak ajans tabanlı kuruluşları çatallayabileceksiniz.
Yazı tipi eşleştirmesi zor bir iş. Google Fonts'ta 12 sekme açıkken 45 dakika derinlemesine araştırma yapıp hala klasik 'inter'de takılıp kalana kadar basit görünen sorunlardan biri. Size bir başlangıç sağlamak için typevibe'ı geliştirdim.
Ne inşa ettiğinizi söyleyin, o da size o yazı tiplerinin gerçekte nasıl göründüğünü anında gösteren 32 tasarım şablonuyla birlikte benzersiz yazı tipi eşleştirmeleri önerir. Editöryaller. Posterler. Menü kartları. Veri panoları. Farklı eşleştirmeleri keşfederken hepsi canlı olarak güncellenir.
https://
typevibe.vercel.app
Herhangi bir URL'den bir DESIGN.md oluşturan ve siteyi oldukça doğru bir şekilde yeniden yaratan bir araç yaptım.
Bu istemleri, tasarım sistemlerini öğrenmek, tutarlı kalmak ve mor gradyanlardan kaçınmak için bir başlangıç noktası olarak yeniden kullanabilirsiniz.
bu, film yapımcılığını tamamen değiştiriyor
Seedance 2.0 artık yeşil ekranı hassas bir şekilde anahtarlayabiliyor ve.. film sahnesini katman katman ayrı ayrı düzenleyebiliyor.. Yapay zeka, aylarca süren işi tek tıklamayla halletti..
OpenArt'ta tam eğitim + istemler:
örneğin, küçük bir Türk bağımsız stüdyo
GPT sarmalayıcıları + iPhone temizleyiciden yılda 300-500 milyon dolar. bağımsız bir geliştirici olarak başka neye ihtiyacın var ki
yapay zeka sohbetleri 2023-2024'te ilk 3'teydi
bu yıllar boyunca Ask AI sohbetinden elde ettikleri geliri bir şekilde düşürmeyi başardılar, ancak toplam geliri birkaç kat artırdılar
inanılmaz
Anthropic'in OpenClaw ve üçüncü taraf eklentilerini kesmesinden bu yana Claude Code'daki ilk iş günü.
%5 oturum kullanımı. %23 haftalık.
Claude Opus 4.6, v2.1.92 üzerinde. Şimdilik her şey yolunda.
Asıl test bugün.
Hafta sonları kolaydır.
Pazartesi günü yoğun saatler, hız limitlerinin gerçekten düzeltilip düzeltilmediğini veya Anthropic'in sadece daha düşük trafikle şanslı olup olmadığını bize söyleyecek.
Bütün gün kod yazıyor olacağım ve geri bildirimde bulunacağım.
Eğer daha önce olduğu gibi bir saat içinde %100'e ulaşırsam, bunu duyacaksınız.
Takipte kalın.
New Anthropic research: Emotion concepts and their function in a large language model.
All LLMs sometimes act like they have emotions. But why? We found internal representations of emotion concepts that can drive Claude’s behavior, sometimes in surprising ways.
Skip your daily nap, shrink your brain.
A study by researchers from University College London and the University of the Republic in Uruguay has found that people who habitually take daytime naps tend to have significantly larger total brain volume—a key indicator of brain health that typically declines with age and is associated with reduced dementia risk.
The team used Mendelian randomization, a method that leverages genetic variants (present from birth) that make people more likely to nap regularly. By analyzing brain MRI scans and health records from more than 35,000 participants in the UK Biobank, they discovered that those genetically inclined to nap had brain volumes corresponding to 2.6 to 6.5 fewer years of aging.
While this doesn’t definitively prove that napping itself enlarges the brain, the genetic approach helps rule out many lifestyle-related confounding factors, providing stronger evidence of a potential causal relationship than traditional observational studies.
Notably, the researchers found no link between napping predisposition and performance on tests of reaction time, memory, or visual processing. However, previous studies have shown that short naps can deliver immediate cognitive benefits.
The study lacked specific data on nap duration, but prior research suggests naps of 30 minutes or less provide the greatest advantages while minimizing disruption to nighttime sleep.
This is the largest study to date linking regular napping with brain structure. Although further research is needed in more diverse populations, the findings bolster the idea that a brief daytime rest may help preserve brain volume and support long-term cognitive health.
VAY! Birisi, gittiğiniz her yeri hatırlatan bir seyahat günlüğünü açık kaynaklı hale getirdi. %100 AÇIK KAYNAK
Her ülke. Her bölge. Her macera. Kendi sunucunuzda.
Adı AdventureLog.
Tamamen size ait olan güzel bir seyahat takip uygulaması. Abonelik yok. Anılarınızı elinde tutan bir şirket yok. Fotoğraflarınız ve hikayeleriniz arasında reklam yok.
Seyahat blogu değil.
Bir elektronik tablo değil.
Yaşamınızı yaşadıkça dolan canlı bir dünya haritası.
İşte neler yapıyor:
→ Ziyaret ettiğiniz her yer, tarih, fotoğraflar, puanlar ve kendi notlarınızla birlikte etkileşimli bir dünya haritasına işaretleniyor.
→ Kontrol paneliniz, canlı bir dünya seyahat puan tablosuyla tam olarak kaç ülke ve bölgeyi keşfettiğinizi gösteriyor.
→ Uçuşlar, kontrol listeleri, notlar ve bağlantılar dahil olmak üzere eksiksiz seyahat planlarıyla gelecekteki seyahatlerinizi gün gün planlayın.
→ Arkadaşlarınızı ve ailenizi aynı seyahatte gerçek zamanlı olarak birlikte planlamaya davet edin.
→ Haritanın sadece bir işaret değil, gerçek rotanızı göstermesi için yürüyüş parkurlarınızı ve aktivite dosyalarınızı yükleyin.
→ Herhangi bir macerayı veya seyahati herkese açık bir bağlantı aracılığıyla paylaşın veya tamamen gizli tutun.
→ Gittiğiniz her yere 3 boyutlu bir bakış için uydu görünümüne geçin.
İşte en çılgın kısmı:
Bir üniversite öğrencisi bunu geliştirdi çünkü denediği her seyahat uygulaması ya çok pahalıydı, ya çok çirkindi ya da verilerini bir şirketin sunucularının arkasına kilitlemişti.
Bu yüzden kendi uygulamasını geliştirdi.
Şu anda 57 katkıda bulunanı, bir Discord topluluğu, bir kurumsal sponsoru ve 23 sürümü var. Tek bir kişinin kendi seyahatlerini takip etmesiyle başlayan şey, binlerce insanın beklediği seyahat uygulamasına dönüştü.
2.8K GitHub yıldızı.
GNU GPL v3 Lisansı.
Holy smokes... Google Drive's doc scanner is wild.
> multi-page real-time scanning
> auto/continuous capture
> duplicate page detection
> redesigned beta UI
Doc scanning will never be the same...
This feels like cheating.
People pay $30-$50 for custom city map posters on Etsy.
Someone just open-sourced the exact same thing for free.
It's called TerraInk.
Its a cartographic poster engine built on OpenStreetMap data.
Type a city. Customize everything. Download and print.
What you get:
→ Any city on Earth via OpenStreetMap
→ Roads, water, parks, building outlines
→ Full theme and color control
→ Custom fonts via Google Fonts
→ PNG export, print-ready
The whole thing runs in your browser.
No account. No subscription. No checkout.
Self-host it with one Docker command if you want it completely yours.
100% Open Source. MIT License.
Live app:
http://
terraink.app
Introducing Adaptive Computer.
We put AI inside of an always-on personal computer that it uses to get work done.
Schedule agents. Create software. Automate anything.
As part of the launch, we’re giving one free month of Adaptive to users.
Retweet, like, and comment ‘Adaptive’
Today, we're taking Manus out of the cloud and putting it on your desktop.
Introducing My Computer, the core feature of the new Manus Desktop app. It’s your AI agent, now on your local machine.
Everyone's excited about Karpathy's autoresearch that automates the experiment loop.
We automated the whole damn thing.
Meet AutoResearchClaw: one message in, full conference paper out. Real experiments. Real citations. Real code. No human in the loop.
One message in → full paper out. Here's what happens in between:
Raids arXiv & Semantic Scholar, digests 50+ papers in minutes
Three AI agents FIGHT over the best hypothesis (one swings big, one sanity-checks, one tries to kill every idea)
Writes experiment code from scratch, adapts to your hardware
Code crashes at 3am? It reads the stack trace, rewrites the fix, keeps going
Results weak? It pivots to entirely new hypotheses and starts over
Drafts a full paper with citations, every single one verified against live databases
No babysitting. No Slack messages. No "hey can you re-run this."
Karpathy built the experiment loop. We built the whole lab.
Chat an idea. Get a paper.
Try it :
https://
github.com/aiming-lab/Aut
oResearchClaw
…
Kudos to the team
@JiaqiLiu835914
,
@richardxp888
,
@lillianwei423
,
@StephenQS0710
,
@Xinyu2ML
,
@HaoqinT
,
@zhengop
,
@cihangxie
,
@dingmyu
, and we are looking for more contributors.
if you have unused weekly limits the best way to burn them is just spamming fan-out deep research in cc/codex:
- 0 review cycles needed
- context-dense files you reuse forever
- no slop generated (it's source material, not final output)
- feeds into content, product, marketing
How it Works
Attention Residuals (AttnRes) replace the fixed accumulation used in standard PreNorm residual connections with a dynamic, attention‑based mechanism.
• – learned pseudo‑query vector for layer l
The softmax attention lets each layer selectively aggregate earlier representations based on the current input, rather than treating all prior layers equally.
Variants
•Full AttnRes – every layer attends to allprevious layer outputs. Memory: O(Ld) ( L = number of layers).
•Block AttnRes – layers are grouped into N blocks (e.g., ~8 blocks).
•Within a block: standard residual accumulation.
•Across blocks: attention is applied only to block‑level summaries plus any partial sum from the current incomplete block. Memory: O(Nd).
Both variants are drop‑in replacements that keep the two‑phase transformer computation (attention → MLP) and typically use RMSNorm for stability.
Why It Matters
Uniform residuals in deep PreNorm transformers cause:
•Gradient dilution – earlier layers receive weaker updates.
•Uncontrolled hidden‑state growth – magnitudes explode with depth.
AttnRes introduces learned, input‑dependent depth selection, which:
•Keeps output norms bounded.
•Distributes gradients uniformly across layers.
•Improves training dynamics and scaling efficiency.
Empirical Gains
On a 48 B‑parameter Kimi Linear MoE model (3 B activated, 1.4 T tokens):
> be uk government
> make web portal for doing taxes
> companieshouse
> click file for different company
> enter company number
> prompt for auth
> hit back button 3 times
> authentication bypassed
> ???
> full information leaked
> can modify company details for uk gov
> ???
Hold up, here is the prompt:
works with almost any model. enjoy :)
Role & Objective:
Act as an Elite UI/UX Front-End Engineer specializing in Apple-tier micro-interactions and advanced CSS. Your task is to program a perfectly centered navigation bar in a strictly SINGLE HTML file containing all HTML, vanilla CSS, and vanilla JavaScript. No external libraries or frameworks (No Tailwind, React, etc.).
Design Concept - "True Liquid Glass":
CRITICAL INSTRUCTION: Do NOT generate standard, flat "glassmorphism" or basic frosted glass. I require a physically accurate "Liquid Glass" aesthetic. It must look like wet, poured clear resin, combining the high-gloss specular highlights of classic macOS Aqua with the volumetric spatial depth of modern Apple VisionOS.
1. The Liquid Glass Material & Lighting (CSS):
- Deep Refraction: Use `backdrop-filter` with extreme blur (e.g., 50px) and over-saturation (200%).
- Specular Highlight: Create a curved, semi-transparent white gradient on the top half using a pseudo-element (`::before`) to simulate a hard light reflection on a wet, rounded 3D surface.
- Caustics & Volume: Use multi-layered inner and outer `box-shadow` properties to simulate light refracting at the bottom edge and casting a realistic ambient drop shadow.
- Interactive Glare: Implement a soft radial-gradient spotlight inside the glass that dynamically tracks the user's mouse cursor (X/Y coordinates) using JavaScript and CSS variables (`mix-blend-mode: overlay`).
2. Navigation Layout & Elements:
- Center the pill-shaped navigation bar perfectly in the middle of the viewport.
- Include 3 main navigation items with minimalist, inline SVG stroke icons and text labels: "Home", "Call", and "List".
- Add a subtle vertical divider line after the main buttons.
- Next to the divider, add a Dark/Light Mode toggle button containing inline SVG Sun and Moon icons.
3. Animations & "Apple Magic":
- Sliding Active Pill: Create a solid background "pill" that sits *behind* the active navigation item's text/icon. When a different item is clicked, this pill must dynamically recalculate its width and slide to the new position.
- Spring Physics: The sliding transition MUST use an exact Apple-style bouncy spring easing curve (e.g., `transition: all 0.5s cubic-bezier(0.34, 1.2, 0.64, 1)`).
- Tactile Feedback: Buttons and icons must physically press down slightly (`transform: scale(0.92)`) when clicked (`:active`).
- Theme Switch: The Sun and Moon icons must smoothly rotate, scale, and cross-fade during the transition.
4. Background Environment (Crucial):
- Glass needs light and color to refract! Create a full-viewport, smoothly animated mesh gradient background using 3 large, heavily blurred, floating color blobs.
- Implement full Dark/Light mode logic using CSS variables (`:root` and `[data-theme="dark"]`). Toggling the theme must seamlessly transition the background blob colors, glass opacity, shadow intensity, and text colors.
Output ONLY the pristine, production-ready code. Prioritize maximum visual fidelity and silky-smooth 60fps animations.
Veri Görselleştirme Kataloğu, Severino Ribecca tarafından farklı bilgi görselleştirme türlerinden oluşan bir kütüphane oluşturmak için geliştirilen bir proje. Üstelik Türkçe dil seçeneği de mevcut.
Veri ile ilgilenen herkes mutlaka bakmalı.
http://
datavizcatalogue.com/index.html
BREAKING: Someone just open-sourced a headless browser that runs 11x faster than Chrome and uses 9x less memory.
It's called Lightpanda and it's built from scratch specifically for AI agents, scraping, and automation.
Not a Chromium fork. Not a hack. A completely new browser
"OpenClaw-RL: Train Any Agent Simply by Talking"
OpenClaw-RL’s big idea is that every time an AI agent gets a reply, error, test result, or tool output, it’s already receiving free feedback.
So instead of wasting those signals, this paper turns everyday use into live
Meet GLM-4.7-Flash-Claude-Opus-4.5-High-Reasoning-Distill: a distilled powerhouse that brings elite reasoning to local machines. This GGUF model packs Claude-level thinking into a format you can run on your own hardware. The community is buzzing about this one!
Releasing meetscribe — a fully local, open source meeting transcription tool.
Records any meeting app, diarizes speakers with WhisperX + pyannote, generates AI summaries via Ollama, and outputs professional PDFs.
No cloud, no subscriptions, everything runs on your GPU.
BREAKING: MIT just dropped an AI model that converts photos into fully editable CAD programs and it quietly kills the $150/hour CAD modeling industry.
It's called GenCAD.
You give it an image. It gives you the complete parametric command sequence lines, arcs, extrusions ready
API Deposu'na 7 yeni Dil & Yapay Zeka API'si eklendi!
Uygulama geliştirirken dil desteğine mi ihtiyacın var? İşte ücretsiz kullanabileceğin API'ler:
Free Dictionary API
→ İngilizce kelime tanımı, IPA telaffuz, MP3 ses, örnek cümle
→ Tamamen ücretsiz, API key yok, limit
Sora 2 Character Creation is now available on fal!
Create consistent characters for your Sora 2 videos
Same character across multiple scenes
Build narratives with character continuity
16:9 - 9:16 exports, clips up to 20 seconds and 1080P outputs
Update for Google AI Pro users
Antigravity just reverted back to the 5 hour reset for all Gemini models including Gemini 3.1 Pro
The Claude models are showing a 1 week reset now and that is okay
This is much better Google
Looks like they listened to the feedback on X today
Ya şimdi herkes vibe coding yapıyom diyor sonra hosting için 15-20 dolar veriyor ayda.
Abi dur bir saniye.
GitHubda ripienaar/free-for-dev diye bir repo var. 119 bin yıldız almış. İçinde ne var biliyor musun? Bedava olan HER ŞEY. Cloud bedava. Database bedava. CI/CD bedava. Hosting bedava. API bedava.
Adam resmen internetteki tüm free tier servisleri tek listeye toplamış.
Sen hala Vercel pro alsam mı yoksa Railway mı diye düşünüyorsun. Kardeşim henüz ilk kullanıcın yok neyin parasını veriyorsun?
Vibe codingin asıl vibeı bu. Sıfır maliyetle başla, Claude Code ile kodu yaz, free-for-dev reposundan altyapını kur, canlıya al. Paran olmadan prototip çıkar. Kullanıcı gelirse zaten parayı bulursun.
Bu repoyu bilmeden vibe coding yapıyorum demek cüzdanı açık gezmeye benziyor. Önce şu linke gir sonra konuşalım.
Defuddle now returns Youtube transcripts!
Paste a YouTube link into defuddle.md to get a markdown transcript with timestamps, chapters, and pretty good diarization!
...or if you just want to read it, try the new Reader mode in Obsidian Web Clipper powered by Defuddle.