Les nouveaux GPU basés sur Ampere de NVIDIA sont là et si vous avez de la chance, vous pourriez en acheter un. Au moment d'écrire ces lignes en février 2021, le stock de nouveaux GPU est encore extrêmement rare et ne devrait pas revenir à la normale avant au moins le troisième trimestre de cette année. Mais manquez-vous vraiment autant si vous ne pouvez pas mettre la main sur une nouvelle NVIDIA GeForce RTX 3 pour votre station de travail ? Il y a, bien sûr, de nombreux facteurs à connaître si vous devez effectuer une mise à niveau.
Les nouveaux GPU basés sur Ampere de NVIDIA sont là et si vous avez de la chance, vous pourriez en acheter un. Au moment d'écrire ces lignes en février 2021, le stock de nouveaux GPU est encore extrêmement rare et ne devrait pas revenir à la normale avant au moins le troisième trimestre de cette année. Mais manquez-vous vraiment autant si vous ne pouvez pas mettre la main sur une nouvelle NVIDIA GeForce RTX 3 pour votre station de travail ? Il y a, bien sûr, de nombreux facteurs à connaître si vous devez effectuer une mise à niveau.
Aujourd'hui, nous allons examiner une gamme de cas d'utilisation pour savoir si l'attente en vaut la peine. Nous examinerons des cas d'utilisation professionnels créatifs, des choses comme Blender, Davinci Resolve et LuxMark, mais nous examinerons également une référence d'apprentissage automatique basée sur la bibliothèque open source TensorFlow en Python, et un peu de jeu pour bonne mesure. Nous comparerons une NVIDIA GeForce RTX 3090 Founder's Edition à la NVIDIA Quadro RTX 8000, l'(ancien) roi de la gamme de stations de travail de NVIDIA. Alors qu'une comparaison plus appropriée serait avec la Quadro RTX 6000, car les deux cartes ont 24 Go de VRAM, les résultats seraient presque identiques, car les capacités de calcul réelles des 8000 et 6000 sont les mêmes et aucune de ces références n'utilise plus de 24 Go. de VRAM. Nous avons également quelques postes de travail OEM à titre de comparaison, y compris un Lenovo P920 que nous avons déjà examiné avec deux RTX 8000 et un nouveau Lenovo P620 emballé avec le dernier Threadripper PRO d'AMD.
Pourquoi compare-t-on une carte Quadro station de travail avec une carte GeForce grand public ? Parce que jamais auparavant NVIDIA n'avait sorti une carte grand public aussi puissante, et la proposition de valeur de dépenser un tiers de l'argent par rapport à la gamme Quadro est devenue très attrayante. En particulier parce qu'au moment de la rédaction de cet article, il n'y a pas de mot officiel sur un véritable successeur de TITAN RTX, qui a traditionnellement rempli le créneau des GPU de travail et de jeu. Il est également impossible d'ignorer l'état du monde en ce moment, les solutions de travail à domicile étant une priorité absolue pour de nombreuses personnes, et le fait d'avoir un GPU extrêmement puissant pour la CAO le jour et les jeux la nuit sonne mieux que jamais. Nous savons, nous pouvons vous entendre à travers l'écran sur les différences pour une « vraie » carte de station de travail ! Nous y arriverons, promis; continue de lire.
Les principales spécifications du système de test et du GPU sont présentées ci-dessous, y compris les versions du pilote et du BIOS.
OS | Windows 10 Professionnel (ver 20H2, octobre 2020) |
Processeur | AMD Ryzen 9 3900X |
Mémoire | 4x8Go (32Go) G.Skill TridentZ Neo 3600MHz CL16 |
Essai routier | Samsung 2 Pro 970 To |
Carte mère | ASRock X570 Taichi (BIOS v4.00, PCIe Gen4) |
GPU1 | NVIDIA RTX 3090 Founder's Edition (Pilote Studio 461.40) |
GPU2 | NVIDIA Quadro RTX 8000 (pilote de branche de production R460 U3, 461.40) |
Quadro RTX 8000 | RTX 3090 FE | |
Architecture | Turing (12 nm) | Ampère (8nm) |
Cœurs de CUDA | 4,608 | 10,496 |
Noyaux de tenseurs | 576 (2e génération) | 328 (3e génération) |
RT Cœurs | 72 (1ère génération) | 82 (2e génération) |
Mémoire GPU | 48 Go GDDR6 avec ECC | 24GB GDDR6X |
Performances FP32 | 16.3 TFLOPS | 35.6 TFLOPS |
Consommation d'énergie | 295W | 350W |
Interface PCIe | PCIe 3.0 x16 | PCIe 4.0 x16 |
glacière | Style souffleur | S'écouler à travers |
Prise en charge multi-GPU de NVLink | Oui | Oui |
Prise en charge SR-IOV | Oui | Non |
GeForce RTX 3090 contre Quadro RTX 8000 Benchmarks
Commençons par le jeu. Cela peut sembler une chose étrange à inclure dans un article sur les graphiques de poste de travail, mais avec tant de personnes travaillant à domicile ces jours-ci, il n'est pas déraisonnable de s'attendre à ce que de nombreux professionnels terminent leur travail et se mettent à jouer sur la même machine. Nous avons testé Cyberpunk 2077, Shadow of the Tomb Raider et Borderlands 3. Borderlands et Tomb Raider ont des outils d'analyse comparative intégrés, et bien que Cyberpunk ne le fasse pas, nous avons estimé que nous pouvions enregistrer une bonne quantité de données entre les deux cartes pour donner une moyenne. Tous les tests ont été effectués à 1440p ; Borderlands a été réglé sur tous les paramètres maximum sauf le flou de mouvement ; Tomb Raider était réglé sur tous les max, RTX Ultra et pas de DLSS; et Cyberpunk 2077 a été réglé sur le préréglage moyen RTX, avec DLSS réglé sur Qualité. Les titres d'esports comme League of Legends et CS:GO maintiendront facilement plus de 250 FPS avec l'une ou l'autre de ces cartes, elles n'ont donc pas été testées à fond. Pour l'anecdote, nous avons vu bien plus de 150 FPS avec les deux cartes dans Call of Duty: Warzone, mais nous ne l'avons pas suffisamment testé pour le considérer comme une véritable référence à inclure dans ce graphique.
À la surprise de personne, le RTX 3090 est le meilleur GPU de jeu sur le marché en ce moment et alors que l'AMD Radeon 6900XT ira coup pour coup avec lui dans certains titres, en ce qui concerne le ray-tracing, le 3090 n'a pas de concurrence. . Cyberpunk 2077, qu'on l'aime ou qu'on le déteste, est le titre le plus exigeant disponible actuellement et dans tous nos tests, le RTX 3090 a maintenu au moins 65 FPS, même dans des scènes très encombrées, et la plupart du temps, le FPS était au plus haut. 70 et 80 bas avec des temps de trame toujours bas. Il est sûr de dire que tout ce qui est moins exigeant peut facilement être exécuté avec des réglages maximaux et maintenir des fréquences d'images élevées. Gardez également à l'esprit que ces tests ont été effectués en février 2021, avant que NVIDIA ne publie la prise en charge de Resizable BAR pour les cartes GeForce. Cette norme PCIe, commercialisée sous le nom de Smart Access Memory sur les nouvelles cartes d'AMD, permettra aux processeurs d'accéder directement à l'ensemble de la VRAM à la fois et d'améliorer les performances dans les jeux. Les premiers résultats montrent entre 2% et 5% de gain en FPS, selon le jeu. La barre redimensionnable n'augmentera probablement pas les performances dans les tâches de calcul et, en tant que telle, ne sera probablement pas bientôt disponible sur la gamme Quadro.
Le résultat le plus intéressant ici est la compétence d'une carte de jeu avec la Quadro RTX 8000. Bien qu'il ne semble pas que cela devrait être une surprise compte tenu de sa puissance brute, sa conception et ses pilotes n'ont pas du tout été optimisés pour le jeu, mais dans tous sauf Cyberpunk 2077, il maintient bien plus de 60 FPS. Cyberpunk était au mieux saccadé, mais le rappel du lancer de rayons et le réglage de DLSS sur Performance ont considérablement amélioré les résultats, en maintenant plus de 60 FPS dans toutes les scènes sauf les plus exigeantes. Il convient de noter que nous avons rencontré de nombreux bogues liés au lancer de rayons lors de l'exécution de Cyberpunk sur le Quadro, en particulier un problème où les reflets disparaissaient complètement et les scènes devenaient sombres. Cela ne s'est pas produit sur le RTX 3090, nous allons donc le mettre sur le compte d'un problème lié au pilote Quadro et au bogue notoire de Cyberpunk.
Shadow of the Tomb Raider sur la GeForce RTX 3090, 1440p avec RTX activé et DLSS désactivé.
Ensuite, ce sont les bonnes choses ; les résultats du poste de travail que vous attendez. Ce lot de benchmarks portera sur les performances de la modélisation 3D, de l'éclairage et du travail vidéo. Nous allons commencer par LuxMark, un utilitaire de benchmarking GPU OpenCL. Nous avons utilisé la version la plus récente, v4alpha0, ainsi que l'ancienne v3 avec la LuxBall classique.
Dire que le RTX 3090 a des performances impressionnantes serait un euphémisme. Dans les applications fortement liées au GPU, la nouvelle architecture Ampere fléchit vraiment ses muscles, battant même le Lenovo P920 et ses deux RTX 8000. Dans LuxMark v3, les performances étaient plus du double et les benchmarks v4 approchaient les 150% de performances. Attendez-vous à voir beaucoup plus de graphiques qui ressemblent à celui-ci, mais (alerte spoiler) tout n'est pas aussi clair qu'il n'y paraît.
Ensuite, jetons un coup d'œil à V-Ray de Chaos Group. Cette référence concerne l'ensemble d'outils de rendu et de simulation V-Ray 3D, qui est disponible sous forme de plug-in pour une large gamme d'applications de modélisation 3D, telles que Cinema 4D, Maya, Rhino et Unreal, entre autres. Ce benchmark se concentre spécifiquement sur les performances de CUDA et RTX. Nous avons utilisé la dernière version du benchmark V-Ray (v5) ainsi qu'une version plus ancienne (v4), juste à titre de comparaison.
L'histoire ici est très similaire à LuxMark avec le RTX 3090 surpassant largement le RTX 8000, et dépassant même le Lenovo P920 et ses deux GPU. Cette référence nous permet spécifiquement de voir les améliorations massives que NVIDIA a apportées à ses cœurs de lancer de rayons de 2e génération ; les performances de CUDA sont environ doublées, tandis que les performances de RTX sont de près de 150 %.
La prochaine étape est l'omniprésent Blender, une application de modélisation 3D open-source. Ce benchmark a été exécuté à l'aide de l'utilitaire Blender Benchmark. NVIDIA OptiX a été la méthode de rendu choisie, par opposition à CUDA, car tous ces systèmes peuvent utiliser RTX.
L'histoire est à peu près la même une fois de plus, avec les cœurs RTX de nouvelle génération qui permettent un travail rapide des rendus Blender, même en brûlant le rendu BMW en moins de 10 secondes. Cette histoire continue, mais ne vous inquiétez pas, elle va bientôt devenir très intéressante. Ici, nous examinons OctaneBench, un utilitaire d'analyse comparative pour OctaneRender, un autre moteur de rendu 3D avec prise en charge RTX, similaire à V-Ray.
Ouais. Ensuite, nous examinerons les applications de montage vidéo, en particulier Davinci Resolve Studio 16.2.8 et Adobe Premiere Pro 2020. Nous utiliserons PugetBench pour Adobe CC et PugetBench pour Resolve, tous deux développés par Systèmes Puget, un fabricant de PC qui fabrique des stations de travail professionnelles pour des applications spécifiques. Ce graphique examine spécifiquement le score GPU de la référence globale, en notant les performances dans les effets accélérés par GPU.
Enfin, nous avons quelques cas d'utilisation où la proposition de valeur baisse un peu. Des applications telles que Premiere Pro et Davinci Resolve varient énormément dans leurs besoins de performances en fonction du projet et des effets, et elles sont souvent goulot d'étranglement CPU. Il y a une amélioration, en particulier dans Resolve qui a une bien meilleure optimisation GPU, mais les utilisateurs de la suite Adobe Creative Cloud trouveront plus de valeur dans les cartes GeForce bas de gamme comme la RTX 3080 où vous obtiendrez apparemment 90% des performances pour 46 % du prix (basé sur le PDSF des cartes Founder's Edition). Bien que cela ne soit pas signalé ici, les performances dans After Effects et Photoshop étaient similaires, la plupart des tests étant limités par le processeur. Il convient également de noter que les cartes Quadro et GeForce utilisent toutes deux la version de 7e génération de NVENC (l'encodeur NVIDIA), de sorte que les temps de rendu H.264 et HEVC seront similaires. Gardez à l'esprit que les cartes GeForce sont limitées à 3 tâches d'encodage simultanées (pour des choses comme le streaming et l'enregistrement), là où les Quadros n'ont pas une telle limite. Nous sommes au courant des contournements de cette limite, mais nous y reviendrons plus tard. Le RTX 3090 utilise une nouvelle génération de NVDEC (NVIDIA Decoder), il y aura donc des améliorations marginales dans le nettoyage de la chronologie lorsque vous travaillez avec des séquences HEVC et H.264.
Passons de l'application créative à quelque chose de nouveau. Nous examinerons les performances d'apprentissage automatique de ces cartes à l'aide d'un benchmark bien nommé AI-Benchmark. Il s'agit d'une bibliothèque Python open source qui exécute une série de tests d'apprentissage en profondeur à l'aide de la bibliothèque d'apprentissage automatique TensorFlow. Vous pouvez en savoir plus à ce sujet ici ainsi que les méthodologies de test spécifiques qu'il utilise.
Vos halètements collectifs ont été entendus. C'est la même histoire ici que la plupart des benchmarks créatifs, avec la carte GeForce doublant ostensiblement les performances du Quadro. Ce test a été effectué sous Windows 10, mais vous pouvez vous attendre à des résultats similaires dans la distribution Linux de votre choix. Au moment des tests, TensorFlow n'a pas été mis à jour pour prendre en charge les nouvelles cartes Ampere, mais grâce à un peu de piratage, nous avons pu le faire fonctionner en mélangeant et en faisant correspondre les composants de différents kits de développement CUDA. Nous nous attendons à ce qu'une version correctement mise à jour à l'avenir ne puisse qu'améliorer les résultats.
Enfin, mais non des moindres, nous examinerons SPECviewperf 2020, la dernière révision de l'utilitaire d'analyse comparative standard de l'industrie de la Standard Performance Evaluation Corporation. Cette référence examine les performances graphiques dans une variété d'applications professionnelles. Nous avons également inclus le Lenovo P620 équipé d'un ancien Quadro P6000 à titre de comparaison.
C'est là que les choses deviennent intéressantes. Les résultats de la modélisation 3D correspondent à ce à quoi vous vous attendiez, le RTX 3090 surpassant le RTX 8000 par une marge saine, mais des applications comme CATIA et Creo, et les tests énergétiques et médicaux, ont en fait le 3090 sous-performant d'un petit, mais significatif marge. Il a même sous-performé par rapport au Quadro P6000 nettement plus ancien de notre Lenovo P620. Mais qu'en est-il de Siemens NX ? C'est le nœud de la situation entre station de travail et consommateur, Quadro et GeForce. Vous lisez ce tableau correctement ; le 3090 a obtenu un score de 25.37 dans Siemens NX. Nous avons effectué ce test sept fois et référencé d'autres résultats d'analyse comparative sur Internet et ce résultat est absolument correct. Le RTX 3090 avait moins de 5% des performances du Lenovo P620 avec le RTX 8000 dans ce test. Explorons cela davantage dans la section suivante.
Station de travail contre GPU grand public ; Les conducteurs
La GeForce RTX 3090 est un GPU très puissant, c'est indéniable, et le Quadro RTX 8000 est également un GPU puissant, mais là où ils diffèrent est important. La RTX 3090 est avant tout une carte vidéo de jeu. Il a été conçu et est commercialisé comme le meilleur GPU absolu pour les jeux et la «première carte de jeu compatible 8K au monde». Le fait qu'il puisse surpasser le RTX 8000 dans une multitude de tâches, avec des marges extrêmes dans la plupart des cas, témoigne de sa puissance brute, se forçant essentiellement brutalement à travers ces tests. La Quadro RTX 8000 est avant tout une carte de station de travail, conçue pour être placée dans des stations de travail, entassée dans des serveurs montés en rack, reliée entre elles via NVLink, virtualisée, a fonctionné dur et rangée humide (métaphoriquement, bien sûr) et a survécu.
Cela soulève donc la question, pourquoi la GeForce RTX 3090 a-t-elle sous-performé la Quadro RTX 3 de 8000 ans dans certaines tâches, et même sous-performé la Quadro P6 de près de 6000 ans ? Plus précisément, pourquoi le RTX 8000 voit-il sur un ordre de grandeur plus de performances dans Siemens NX ? Nous sommes sûrs que vous, lecteur avisé, le savez déjà ; cela se résume aux optimisations du pilote. NVIDIA est juge, jury et bourreau en ce qui concerne les GPU qui obtiennent des optimisations de poste de travail et il est clair qu'ils ne voulaient pas que le RTX 3090 puisse absolument effacer le sol de leur précédente gamme Quadro dans chaque application. De nombreux acheteurs potentiels seront très déçus de voir leurs espoirs de performances de poste de travail de haut niveau le jour et les jeux haut de gamme la nuit ne sont pas possibles, du moins pas au PDSF de 3090 1,499 $ du RTX 3090. "Eh bien, c'est à cela que sert la ligne TITAN", nous vous entendons dire, mais il n'y a pas de remplacement TITAN RTX disponible pour le moment, et le prix du 3090 le positionne certainement comme un remplacement TITAN. NVIDIA revendique même le 3090 comme ayant des "performances de classe TITAN" dans la première ligne de ses supports marketing, mais ce résultat de Siemens NX est loin d'être proche de la "classe TITAN". Le 3080 est-il juste un 3 surdimensionné et hors de prix ? Eh bien, pas tout à fait. C'est toujours le meilleur GPU disponible pour les modélisateurs 24D et le travail vidéo, en particulier avec ses 8 Go de VRAM qui permettent aux créatifs de travailler facilement avec de grands modèles et des séquences 3090K, mais cela le place dans une assez petite niche, une niche précédemment desservie par le TITAN -cartes de classe. Si vous ne travaillez pas avec des applications de CAO comme Siemens NX, Creo ou CATIA, le RTX XNUMX est toujours attrayant, mais c'est un non-démarreur absolu si ces applications sont essentielles à votre flux de travail.
Il y a aussi d'autres considérations. Alors que les cartes Quadro et GeForce offrent toutes deux des configurations multi-GPU sur NVLink, et il convient de noter que seul le 3090 a cette capacité parmi les cartes de la série 3000, seul le Quadro peut être virtualisé avec SR-IOV. Si votre charge de travail implique de distribuer un GPU, ou deux GPU NVLinked, à plusieurs VM, le Quadro reste votre seul choix. Bien qu'il existe des moyens de contourner cela, le fait est que cette fonctionnalité est artificiellement limitée par le pilote GeForce de NVIDIA. Le même pilote qui, soit dit en passant, offre des certifications pour certaines applications créatives comme la suite Adobe et Autodesk, ainsi que la certification WHQL (Windows Hardware Quality Labs) dans sa variante Studio, compliquant davantage le point. Alors que nous prévoyons un véritable remplacement TITAN basé sur Ampère à venir de NVIDIA, les limitations artificielles imposées à la GeForce RTX 3090, y compris la limite des encodages simultanés avec NVENC, semblent déconnectées de ce que les utilisateurs professionnels recherchent en ce moment. .
Lors de la rédaction de cet article, NVIDIA a également annoncé sa nouvelle gamme de GPU spécifiques à l'extraction de crypto-monnaie et son intention de réduire de moitié les performances d'extraction du prochain RTX 3060. Cette diminution des performances d'extraction de crypto est complètement artificielle et se fait entièrement via des pilotes, ce qui renforce encore le point. que nous sommes simplement à la merci de tout ce que NVIDIA juge digne de faire nos cartes. Cette limite « impossible à pirater » sur le 3060 sera-t-elle exploitée ? Sans aucun doute, de la même manière que la limite NVENC a été dépassée. Mais pour l'instant, NVIDIA détient toutes les cartes et pour de nombreux flux de travail professionnels hautement optimisés pour CUDA, RTX, TensorFlow et d'autres plates-formes informatiques spécifiques à NVIDIA, il n'y a tout simplement pas d'autre choix que NVIDIA.
Conclusion
Décomposons un peu. Devez-vous garder vos alertes de stock pour le RTX 3090 ? Bravez les files d'attente à l'extérieur de votre MicroCenter local pour avoir la chance d'en obtenir un ? Comme pour la plupart des choses, la réponse est "ça dépend".
- Travaillez-vous exclusivement avec de grands modèles 3D dans des applications telles que Blender et Cinema 4D ou modifiez-vous régulièrement de gros fichiers vidéo 6K et 8K ? Alors oui; le RTX 3090 est le meilleur GPU professionnel créatif sur le marché pour les flux de travail accélérés CUDA et RTX.
- Avez-vous suffisamment de revenus disponibles pour une plate-forme de jeu absolument sans compromis ? Oui aussi; le RTX 3090 est le meilleur GPU de jeu que l'on puisse acheter, en particulier dans les jeux avec lancer de rayons et prise en charge de DLSS 2.0, une liste qui s'allonge chaque jour.
- Vous travaillez principalement en CAO, notamment dans les domaines scientifiques avec des applications comme Creo et CATIA ? Alors non; le RTX 3090 ne fournit pas les optimisations de pilote nécessaires fournies avec la gamme de cartes Quadro, et aucune quantité de puissance brute forcée ne peut surmonter cela. Nous travaillons pour mettre la main sur le nouveau RTX-A6000, le remplacement réel des RTX 8000, pour aider à informer les gens comme vous.
- Travaillez-vous dans le domaine de l'apprentissage automatique et de l'IA ? Celui-ci est un sac mélangé, car cela semble être un «oui» car les performances de TensorFlow sont excellentes, mais il n'y a malheureusement pas suffisamment de tests standardisés ou de points de données pour tirer une conclusion définitive par rapport à une nouvelle carte Quadro. De plus, au moment d'écrire ces lignes, TensorFlow n'a pas été mis à jour pour prendre correctement en charge les cartes Ampere. Notre réponse actuelle est un doux oui. Nous pouvons regarder MLCommons et MLperf à l'avenir en tant que suivi, en particulier pour les cas d'utilisation de l'IA et de l'apprentissage automatique.
- Possédez-vous actuellement un TITAN RTX et souhaitez-vous le mettre à niveau ? Nous vous recommandons d'attendre une annonce officielle de NVIDIA sur le TITAN basé sur Ampere, qui devrait éventuellement arriver. Si vos cas d'utilisation font bon usage du TITAN, le RTX 3090 peut finir par être rétrogradé, en fonction de votre flux de travail.
- Faites-vous beaucoup de virtualisation GPU ? C'est un non solide; le RTX 3090 ne prend pas en charge nativement SR-IOV.
Avec tout cela, nous espérons que cela pourra éclairer votre décision de mettre à niveau ou non, et si vous optez pour GeForce ou Quadro. Si le PDSF de 1,499 3090 $ du RTX 10 est trop riche pour votre sang et que vous n'avez pas besoin de plus de 3080 Go de VRAM, le RTX 20 est également une excellente option. Bien que cela n'ait pas été explicitement testé ici, nous avons constaté que nos résultats étaient généralement 30 à 3080 % meilleurs que ceux du RTX 8000 sur la base des résultats sur le Web, vous pouvez donc vous attendre à ce qu'il surpasse (et sous-performe) le Quadro RTX 3080 dans des applications similaires. Cela peut également valoir la peine d'attendre la rumeur RTX XNUMX Ti, chaque fois que cela arrivera, pour un terrain d'entente. Pour l'instant, nous garderons les yeux ouverts pour que le TITAN basé sur Ampère comble véritablement l'écart entre une carte de station de travail complète et une carte de jeu complète. Nous garderons également un œil sur le pipeline de pilotes de NVIDIA pour voir s'ils corrigent l'une des lacunes liées au travail de la carte dans les futures versions, mais nous avons des doutes. Nous aimerions connaître votre avis à ce sujet, et également s'il y avait des points de repère ou des cas d'utilisation que nous avons manqués et que vous aimeriez voir, en particulier en ce qui concerne l'IA et l'apprentissage automatique. Contactez-nous sur nos réseaux sociaux et restez à l'écoute pour plus d'avis professionnels et de postes de travail créatifs.
Lire la suite - Test du NVIDIA RTX A6000
NVIDIA Quadro RTX 8000 sur Amazon
NVIDIA GeForce RTX 3090 Founder's Edition sur Amazon
S'engager avec StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | Flux RSS