Bienvenue sur PEBKAC.fr, le site qui recense les anecdotes où l’on se moque des utilisateurs ne maîtrisant pas l’outil informatique. PEBKAC est un acronyme signifiant « Problem Exists Between Keyboard And Chair ».
Le problème se situe entre la chaise et le clavier : soumettez vos histoires, donnez votre avis !
Ce site n'est pas le site original pebkac.fr. Je publie ici la liste des PEBKAC que j'ai pu sauvegarder avant que le site original ne soit mis hors ligne.
Un ami a changé récemment l'écran de son ordinateur. Le circuit vidéo intégré à la carte mère n'était alors plus suffisamment puisant, et il choisit donc d'acheter une carte vidéo, en ajoutant qu'il l'installera par lui-même.

Deux jours plus tard, il m'explique que la qualité de l'image ne s'est pas améliorée depuis ce changement. Je vais voir son ordinateur et constate que la carte graphique est bien en place, mais que l'écran est branché sur le port VGA intégré de la carte mère. Je lui fais remarquer son erreur, et change l'emplacement du branchement.

Il intervient alors et me dit : « Ah non, il ne faut pas utiliser le port de la carte vidéo si elle est branchée a l'ordinateur !... Elle ajoute de la puissance au port intégré, et c'est lui qu'il faut utiliser. En plus, si on branche l'écran directement sur la carte vidéo, ça pourrait raccourcir sa durée de vie... ». PEBKAC.
PEBKAC #6407 proposé par greythaf le 10/12/2012 | 19 commentaires | 👍🏽 👎🏽 +280
C'est sûr que s'il n'utilise jamais sa carte vidéo, elle aura une plus longue durée de vie :)
Commentaire #68491 écrit par BUPO le 10/12/2012 à 12h39 | 👍🏽 👎🏽 +1
Bref, j'y connais rien en hardware.

D'ailleurs, on est en train de travailler pour pouvoir envoyer des baffes par le port VGA.
Commentaire #68494 écrit par ROB le 10/12/2012 à 12h45 | 👍🏽 👎🏽
À mon avis, il est plus facile d'envoyer des châtaignes ;)
Commentaire #68498 écrit par BSK le 10/12/2012 à 12h54 | 👍🏽 👎🏽
"Le circuit vidéo intégré à la carte mère n'était alors plus suffisamment puisant"

Quoi? Il a un écran POVGA (Power On VGA)?

Je comprends mal le rapport avec le nouvel écran et la carte mère pas assez puissante... Elle balance son flux vidéo, et basta.
Commentaire #68509 écrit par Link le 10/12/2012 à 13h06 | 👍🏽 👎🏽
Je demande toujours comment ils en sont arrivé là...
Commentaire #68511 écrit par X3N le 10/12/2012 à 13h12 | 👍🏽 👎🏽
J'imagine que son nouvel écran peut afficher une résolution de 1920x1080 mais que son chipset intégré est vieux et ne gère pas au delà de 1280x1024 comme il voudrait, ceci étant une supposition mais quand même assez probable.
Commentaire #68512 écrit par juu le 10/12/2012 à 13h13 | 👍🏽 👎🏽
Certains vieux chipsets graphiques ne supportaient pas plus qu'une résolution de 1600x1280 (ou un truc comme ça), si il a mis un écran HD, il se retrouve avec une image toute flou et moche qui pique les yeux.
<TROLL>ça ne m'étonerais pas que ça soit le cas ici, puisque pas besoin de changer de carte mère quand elle est vielle, il suffit de télécharger de la RAM et c'est bon. </TROLL>

edit: zut, ça m'apprendra à écrire trop lentement.
Commentaire #68513 écrit par Muphins le 10/12/2012 à 13h14 | 👍🏽 👎🏽
Et si il disait moins de bêtises, il recevrait moins de baffes, et allongerait la durée de vie de ses joues !
Commentaire #68514 écrit par Aaargh!!! le 10/12/2012 à 13h15 | 👍🏽 👎🏽
Si le chipset ne peut pas faire mieux que 1024x768, tu peut pas choisir plus haut, même si ton écran est un 4K.
Commentaire #68515 écrit par Link le 10/12/2012 à 13h17 | 👍🏽 👎🏽
Plus simple: tu lui envois un virus par mail pour le punir. Et même pas besoin de le masquer, puisque comme il sait qu'il est protégé par le firewall intégré à sa clef wifi sous open office, il risque rien.
Commentaire #68516 écrit par Muphins le 10/12/2012 à 13h17 | 👍🏽 👎🏽
Moi je soupçonne que ce soit le mec en question qui soit un POVGA !
Blague à part, j'imagine en effet que la carte graphique intégrée ne suffisait plus à exploiter pleinement les capacités de l'écran.
Commentaire #68531 écrit par Noraaj le 10/12/2012 à 15h13 | 👍🏽 👎🏽
Ça me donne envie d'écrire un scénario spécialement conçu pour ce génie:

La scène prend place dans la maison du héros.
Un beau jour d'été, il s'attèle à son travail.
Depuis quelque temps, il a fini par acheter une machine étrange, révolutionnaire même.
Un "aur-dîne-âtre-heure" !!!
L'achat de cet objet lui a pris des jours, non seulement pour réunir la somme nécessaire, mais aussi voir avec Julien, le responsable du rayon "un-fort-mât-tique" à la F**C qui est super sympa parce qu'il utilise aucun mot compliqué pour parler de "harde-where", quelle machine choisir.

Il a finit par se la faire livrer et après l'avoir déballé, et essayé de lire la notice, il a fini par réussir à la brancher.
Voilà donc quelque jour qu'il l'utilise, mais il ne trouve pas que ça améliore beaucoup sa productivité.
Il vient donc en parler à Julien qui, par amitié, accepte de venir chez lui pour tenter de voir le problème.

Notre héros tout fier de montrer sa machine et plein d'espoir quant à l'aide inespérée de Julien, s'installe à son bureau, allume son ordinateur, ouvre le dossier sur lequel il travaille, prend sa calculatrice et remplis consciencieusement ses fiches avec les résultats donnés par la calculatrice ...

(Vous pouvez finir l'histoire vous-mêmes, et de la manière qui vous plaira: poney mâchonneur qui apparaît dans un grand éclair de lumière, ordinateur qui explose d'incompréhension, calculette qui se tord de rire, ....)

PS: Les maisons de productions Gnome&Co assurent qu'aucun ordinateur est resté inutilisé durant le tournage; seul la SPA s'est plainte des lésions cérébrales qu'a subis chaque animal ayant vu le film, en raison du néant absolu qui tient lieu de cerveau au héros du film.
Commentaire #68532 écrit par Le gome le 10/12/2012 à 15h17 | 👍🏽 👎🏽
Techniquement, une carte vidéo non utilisée aura une durée de vie plus longue... ça semble cohérent. :D

EDIT: Oui, j'avais la flemme de lire les précédents messages. Ceux qui l'ont remarqué: je vous emmerde et je rentre à ma maison.
Commentaire #68533 écrit par Cartman34 le 10/12/2012 à 15h51 | 👍🏽 👎🏽
Je n'ai qu'une chose à dire face à tant de co^Wméconnaissances crades : d'oh !
Commentaire #68540 écrit par cpn42 le 10/12/2012 à 17h30 | 👍🏽 👎🏽
Elle n'a pas complètement tort, technologie Hybrid SLI chez nVidia...
La technologie Hybrid SLI®, qui repose sur la technologie SLI leader de NVIDIA, permet de bénéficier des avantages de plusieurs GPU en associant un GPU intégré à une carte mère NVIDIA® à un GPU additionnel NVIDIA. Le Hybrid SLI augmente la performance graphique grâce à GeForce® Boost et assure une gestion intelligente de la consommation grâce à la technologie HybridPower(tm).
Commentaire #68546 écrit par G-Rom le 10/12/2012 à 18h45 | 👍🏽 👎🏽
Et si on traduit de "Marketing bullshit" ---> "français" ça donne ça :

Tu prends une carte mère Nvidia
Tu mets une carte graphique Nvidia
Tu branche ton écran dans le port VGA intégré
Le système utilise le circuit graphique intégré ou la carte graphique selon la puissance requise.

L'ancêtre d'Optimus =)

Mais ça a toujours été réservé aux configurations bureautiques, on ne pouvait jamais avoir de performances ahurissantes avec le Hybrid SLI.
Commentaire #68558 écrit par hr0 le 10/12/2012 à 20h09 | 👍🏽 👎🏽
tite question: si le héros du post utilise son cerveau, est ce qu'il aura une durée de vie plus courte??
Commentaire #68580 écrit par achille le 11/12/2012 à 00h58 | 👍🏽 👎🏽
Tu t'ennuies un peu non ? Et c'est quoi un gome, à part une faute de frappe ?
Commentaire #68582 écrit par Lynn le 11/12/2012 à 04h33 | 👍🏽 👎🏽
En effet, c'est une belle faute de frappe.
Et pour répondre à ta première question, je ne m'ennuie pas forcément pour écrire ce genre de post, mais parfois devant certaines situations, je ne peux m'empêcher de devenir caustique.
Mais apparemment ce n'est pas au goût de tous. Je vais essayer de limiter ces remontées d'humour noir avant de me prendre des baffes. :)
Commentaire #68601 écrit par Le gnome le 11/12/2012 à 10h04 | 👍🏽 👎🏽