J’ai testé Dall-E

Et oui, je poursuis mes essais avec les IA et mon périple  .Donc, Dall-E, cette semaine.

DALL-E 2, l’une des IA plus connues  mise à jour. Pour accéder, il faut s’inscrire sur la liste d’attente. Ce n’est pas très long. On reçoit un mail dès que c’est accessible. Ensuite, on a droit à 50 essais gratuits (ça va, ce n’est pas trop limité, un peu mieux que Midjourney).
Dall-E offre aussi  une   fonction baptisée Outpainting  (disponible sur la version pour ordinateur de DALL-E 2). En fait, cela prend en compte les éléments visuels existants de l’image comme les ombres, les reflets et les textures afin de conserver le contexte de l’image originale. Et tout ça fonctionne  avec les photos/images qu’on propose à l’IA. En gros, la fonction ajoute des éléments visuels du même style mais ce n’est pas évident (il existe un guide).

J’avoue que cette dernière fonction ne m’a pas paru si évidente que ça ; j’ai essayé un peu mais je ne voulais pas griller tous mes essais à tâtonner.
Dall-E m’a un peu déçue dans ses résultats, même en précisant mes demandes au maximum. Je l’ai trouvée moins précise que Midjourney et parfois, complètement à côté de la plaque.

Déjà, les couleurs qui ressortent sont terriblement vives voire pétantes. Je ne suis pas une grande fan de ce genre de coloris, manque de bol.

Un exemple avec ma 1ère demande : « une atmosphère magique – peinture à l’huile »

J’ai ensuite fait une variation, pour obtenir ceci

:

Toujours en recherche pour les couvertures d’E-Books (cf. mon article précédent), j’ai donc demandé quelque chose d’un peu plus fun pour mon roman Y.A avec des ados, des jeux vidéos, un dragon et des péripéties. MAIS j’ai demandé des couleurs aquarelle 😉

J’ai l’impression d’avoir un Pokemon qui joue ! Amusant mais pas vraiment ce que je voulais. Par contre l’IA compris que j’aimais ce genre de couleurs, bien joué.

 

 

Dans une autre veine, j’ai fait aussi une recherche pour l’affiche du spectacle de contes qu’a créé mon conjoint « L’homme qui voulait mourir« . On a déjà trouvé quelque chose mais on a mis un temps fou.
J’ai donc essayé, pour voir,  mais , comment dire… Drôles de résultats !

Pour les deux autres, je peux dire que l’idée est toujours là mais le rendu laisse carrément à désirer.

 

Les deux suivants m’ont surprise puisque j’ai simplement tapé comme demande le titre du spectacle ! Et finalement, ce n’est pas si mal.

Un peu refroidie, j’ai donc tenté de changer autre chose et  d’essayer avec l’une de mes photos, pour voir.

Voici une variation de l’une des photos de Newton.

Newton - variation sur la photo avec Dall-e

La photo originale est celle-ci :

Newton

 

variation pour Newton

Pas mal.

J’ai ensuite  tenté des sorciers près d’un lac. Coucou Gandalf.

 

Une moto volante : enfin, là, c’est un scooter…

Sissi devant un palais

 

J’ai quand même eu des résultats pour « une chouette noire dans une ambiance de mystère et une forêt magique couleurs douces et sombres« . Tout ça pour refaire la couverture de cette histoire :

 

Dune

Pendant ce temps, sur Arrakis...

Renards (à la façon des maîtres hollandais)

J’ai testé Stable Diffusion

Après Midjourney (qui me plaît beaucoup), j’ai testé une autre AI,  Stable Diffusion (Dreamdiffusionbeta). Si elle fonctionne un peu de la même façon (sur Discord, en entrant la commande Dream/ + ce qu’on veut – au lieu de Imagine/, pour Midjourney), j’ai trouvé les résultats un peu moins … précis. Du moins, ça me correspond un peu moins même si c’est toujours bluffant, à partir du moment où on a fait une commande précise. Midjourney est costaud, pour ça.

Stable Diffusion fonctionne différemment et est open source donc gratuit. On peut par exemple, l’utiliser via Mage 
ou via OpenArt. Nightcafe est aussi accessible (avec rechargement gratuit des crédits). SD ne donnera pas les mêmes résultats que Midjourney qui est axée sur l’art. SD est plus « réaliste » et nécessite plus d’écriture pointue de prompts.

 

Je voulais faire une couverture d’E book avec une femme, une montagne, une ambiance brumeuse (pour l’ambiance, ça va, pour la femme, bof, bof)

J’ai tenté autre chose, mais pas mieux :

Ensuite, j’ai demandé un paysage écossais, au bord d’un lac, avec plusieurs personnages.

Pas convaincue, j’ai précisé : « 3 personnes près d’un lac écossais dans une ambiance mystérieuse, peinture à la manière de Constable » (c’est donc ce que j’ai entré comme commande)

J’ai eu aussi celle-ci comme variation :

Et comme je cherche toujours une idée d’illustration pour mon autre roman Y.A  (en fait, ça part un peu de là…), j’ai essayé « jeunes jouant aux jeux vidéo + dragons »  – et là, c’est devenu rigolo, mon erreur étant d’avoir précisé « couverture de livre » :

Après deux mois passés à explorer la « bête » , je commence à me débrouiller :

Fantasy fruits

 

Cute lighthouse

Cette vidéo explique comment on utilise Stable diffusion :

La prochaine fois, je teste l’autre AI, Dall-E, dont on entend beaucoup parler.

J’ai testé Midjourney

Donc, j’ai fait comme un peu tout le monde ces jours-ci : j’ai pris un peu de temps entre écriture,  cours en ligne, blogging, photos, et surtout activités autour de l’écriture créative (en lien avec ma formation de formatrice – ici, page FB) pour tester Midjourney.

C’est quoi Midjourney ? 

C’est  un système d’intelligence artificielle qui génère des des images à partir de textes entrés par l’utilisateur (donc, nous).
Sur le site officiel, ses créateurs se présentent comme « un laboratoire de recherche indépendant. Explorant de nouveaux mediums de pensée. Étendant les pouvoirs de l’imagination de l’espèce humaine ».
Le principe n’est pas très compliqué : on s’inscrit sur Discord (ok, je ne l’avais pas encore fait, c’est bizarre, ça). On rejoint rejoindre le serveur.  La version bêta de Midjourney est gratuite et mais limitée à 25 requêtes (que j’ai toutes utilisées). Elle fonctionne entièrement sur Discord,.
Une fois sur le serveur, il est assez facile de trouver les instructions pour débuter.
Puis, sur le canal dédié aux nouveaux venus (les fameux newbies), on écrit au robot sa demande. Pas très dur non plus : le « prompt » (c’est ainsi que ça s’appelle) commence par /imagine…. puis la description de ce qu’on souhaite comme image.
Le truc, c’est que plus la demande est spécifique, plus le résultat sera convaincant. La  réponse est assez rapide (1 mn env.).  On reçoit alors 4 images :

exemple : Harry Potter dans son bain

On nous propose alors  une  variation (V) ou une amélioration (U) d’une ou plusieurs images de l’ensemble avec le numéro de l’image). On peu aussi améliorer ou faire des variations des images des autres utilisateurs. On voit aussi les prompts des autres personnes, ce qui permet d’apprendre.

Après les 25 requêtes, on nous dit gentiment que c’est terminé et qu’il faut s’abonner : des sous, des sous !

Variation et optimisation :

Il y a des demandes assez fun :  « Terminator dans la Grèce antique », ou « Taylor Swift en sorcière ». Ou bien ce qui suit :  « Un chat avec des monocles blancs et un chapeau melon entouré par des tulipes flétries.   »

J’ai fait un essai avec des chats, arc-en-ciel, et un coucher de soleil, pour voir (mignon, mais pas assez précis)

Puis, j’ai pensé à ce que je suis en train d’écrire. L’IA a interprété ma demande assez fidèlement. Et pour inclure le  mot « meurtre » (c’est un roman policier), on voit des tombes. Pas bête…

Je vous montre d’autres résultats. Il y a de belles choses.

Voilà, si vous avez envie de tester, c’est ici : Midjourney 

Update : Midjourney en est à présent à sa 4ème version (V4)  et passera à la V5 en janvier. On peut à présent inclure le lien de photos ou de dessins que l’IA traduit. Il existe une version anime/manga (Niji) qui, après avoir fonctionné en bêta, est inclus dans MJ.