AnglaisFrançaisEspagnol

Ad


Icône de favori OnWorks

ffplay-all - En ligne dans le Cloud

Exécutez ffplay-all dans le fournisseur d'hébergement gratuit OnWorks sur Ubuntu Online, Fedora Online, l'émulateur en ligne Windows ou l'émulateur en ligne MAC OS

Il s'agit de la commande ffplay-all qui peut être exécutée dans le fournisseur d'hébergement gratuit OnWorks en utilisant l'un de nos multiples postes de travail en ligne gratuits tels que Ubuntu Online, Fedora Online, l'émulateur en ligne Windows ou l'émulateur en ligne MAC OS

PROGRAMME:

Nom


ffplay - lecteur multimédia FFplay

SYNOPSIS


ffjouer [Options] [fichier_entrée]

DESCRIPTION


FFplay est un lecteur multimédia très simple et portable utilisant les bibliothèques FFmpeg et le SDL
une bibliothèque. Il est principalement utilisé comme banc d'essai pour les différentes API FFmpeg.

OPTIONS


Toutes les options numériques, sauf indication contraire, acceptent une chaîne représentant un
nombre en entrée, qui peut être suivi de l'un des préfixes d'unité SI, par exemple : 'K',
« M » ou « G ».

Si 'i' est ajouté au préfixe d'unité SI, le préfixe complet sera interprété comme un
préfixe d'unité pour les multiples binaires, qui sont basés sur des puissances de 1024 au lieu de puissances de
1000. L'ajout de « B » au préfixe d'unité SI multiplie la valeur par 8. Cela permet d'utiliser,
par exemple : 'KB', 'MiB', 'G' et 'B' comme suffixes numériques.

Les options qui ne prennent pas d'arguments sont des options booléennes et définissent la valeur correspondante
à vrai. Ils peuvent être définis sur false en préfixant le nom de l'option avec "no". Par exemple
l'utilisation de "-nofoo" définira l'option booléenne avec le nom "foo" sur false.

Discussions spécificateurs
Certaines options sont appliquées par flux, par exemple le débit binaire ou le codec. Les spécificateurs de flux sont utilisés pour
spécifier précisément à quel(s) flux une option donnée appartient.

Un spécificateur de flux est une chaîne généralement ajoutée au nom de l'option et séparée de celui-ci
par un côlon. Par exemple, "-codec:a:1 ac3" contient le spécificateur de flux "a:1", qui correspond au
deuxième flux audio. Par conséquent, il sélectionnerait le codec ac3 pour le deuxième flux audio.

Un spécificateur de flux peut correspondre à plusieurs flux, de sorte que l'option est appliquée à tous
eux. Par exemple, le spécificateur de flux dans "-b:a 128k" correspond à tous les flux audio.

Un spécificateur de flux vide correspond à tous les flux. Par exemple, "-codec copy" ou "-codec :
copy" copierait tous les flux sans réencodage.

Les formes possibles de spécificateurs de flux sont :

index_flux
Correspond au flux avec cet index. Par exemple, "-threads:1 4" définira le nombre de threads pour
le deuxième flux à 4.

type_flux[:index_flux]
type_flux est l'un des suivants : 'v' ou 'V' pour vidéo, 'a' pour audio, 's' pour
sous-titre, « d » pour les données et « t » pour les pièces jointes. 'v' correspond à tous les flux vidéo, 'V'
correspond uniquement aux flux vidéo qui ne sont pas des images jointes, des vignettes vidéo ou une couverture
arts. Si index_flux est donné, alors il correspond au numéro de flux index_flux de cette
taper. Sinon, il correspond à tous les flux de ce type.

p:id_programme[:index_flux]
If index_flux est donné, alors il correspond au flux avec le numéro index_flux dans l'
programme avec l'identifiant id_programme. Sinon, il correspond à tous les flux du programme.

#id_flux or i:id_flux
Faites correspondre le flux par identifiant de flux (par exemple, PID dans le conteneur MPEG-TS).

m:key[:Plus-value]
Correspond aux flux avec la balise de métadonnées key ayant la valeur spécifiée. Si Plus-value n'est pas
donné, correspond aux flux qui contiennent la balise donnée avec n'importe quelle valeur.

u Correspond aux flux avec une configuration utilisable, le codec doit être défini et l'essentiel
des informations telles que la dimension vidéo ou la fréquence d'échantillonnage audio doivent être présentes.

Notez que dans ffmpeg, la correspondance par métadonnées ne fonctionnera correctement que pour les fichiers d'entrée.

Générique Options
Ces options sont partagées entre les outils ff*.

-L Afficher la licence.

-h, - ?, -aider, --Aidez-moi [arg]
Afficher l'aide. Un paramètre facultatif peut être spécifié pour imprimer l'aide sur un élément spécifique.
Si aucun argument n'est spécifié, seules les options d'outil de base (non avancées) sont affichées.

Valeurs possibles de arg sont:

Long
Imprimer des options d'outils avancées en plus des options d'outils de base.

plein
Imprimer la liste complète des options, y compris les options partagées et privées pour les encodeurs,
décodeurs, démultiplexeurs, multiplexeurs, filtres, etc.

décodeur=nom_décodeur
Imprimer des informations détaillées sur le décodeur nommé nom_décodeur. Utilisez le -décodeurs
option pour obtenir une liste de tous les décodeurs.

encodeur=nom_encodeur
Imprimer des informations détaillées sur l'encodeur nommé nom_encodeur. Utilisez le -encodeurs
option pour obtenir une liste de tous les encodeurs.

démultiplexeur=nom_démultiplexeur
Imprimer des informations détaillées sur le démultiplexeur nommé nom_démultiplexeur. Utilisez le - mise en forme
option pour obtenir une liste de tous les démultiplexeurs et multiplexeurs.

multiplexeur=nom_muxer
Imprimer des informations détaillées sur le multiplexeur nommé nom_muxer. Utilisez le - mise en forme
option pour obtenir une liste de tous les multiplexeurs et démultiplexeurs.

filtre=nom_filtre
Imprimer des informations détaillées sur le nom du filtre nom_filtre. Utilisez le -filtres
option pour obtenir une liste de tous les filtres.

-version
Afficher la version.

- mise en forme
Afficher les formats disponibles (y compris les appareils).

-dispositifs
Afficher les appareils disponibles.

-codecs
Afficher tous les codecs connus de libavcodec.

Notez que le terme 'codec' est utilisé tout au long de cette documentation comme raccourci pour
ce qu'on appelle plus correctement un format de flux binaire multimédia.

-décodeurs
Afficher les décodeurs disponibles.

-encodeurs
Afficher tous les encodeurs disponibles.

-bsfs
Afficher les filtres de flux de bits disponibles.

-protocoles
Afficher les protocoles disponibles.

-filtres
Afficher les filtres libavfilter disponibles.

-pix_fmts
Afficher les formats de pixels disponibles.

-sample_fmts
Afficher les exemples de formats disponibles.

-mises en page
Afficher les noms de canaux et les dispositions de canaux standard.

-couleurs
Afficher les noms de couleurs reconnus.

-sources dispositif[,opt1=val1[,opt2=val2(...)...]
Afficher les sources détectées automatiquement du périphérique d'entrée. Certains appareils peuvent fournir des
les noms de source dépendants qui ne peuvent pas être détectés automatiquement. La liste renvoyée ne peut pas être
supposée toujours complète.

ffmpeg -sources impulsion, serveur = 192.168.0.4

-les puits dispositif[,opt1=val1[,opt2=val2(...)...]
Afficher les récepteurs détectés automatiquement du périphérique de sortie. Certains appareils peuvent fournir des
les noms de récepteurs dépendants qui ne peuvent pas être détectés automatiquement. La liste renvoyée ne peut pas être supposée
être toujours complet.

ffmpeg -sinks pulse, server=192.168.0.4

-niveau de journalisation [répéter+]loglevel | -v [répéter+]loglevel
Définissez le niveau de journalisation utilisé par la bibliothèque. L'ajout de « repeat+ » indique que répété
la sortie du journal ne doit pas être compressée sur la première ligne et le "Dernier message répété n
times" sera omise. "repeat" peut également être utilisé seul. Si "repeat" est utilisé
seul et sans aucun niveau de journalisation défini, le niveau de journalisation par défaut sera utilisé. Si plusieurs
les paramètres de niveau de journalisation sont fournis, l'utilisation de 'repeat' ne changera pas le niveau de journalisation. loglevel
est une chaîne ou un nombre contenant l'une des valeurs suivantes :

silencieux, -8
Ne rien montrer du tout ; soit silencieux.

panique, 0
Afficher uniquement les erreurs fatales qui pourraient entraîner le blocage du processus, telles que et assert
échec. Ce n'est actuellement utilisé pour rien.

mortel, 8
Afficher uniquement les erreurs fatales. Ce sont des erreurs après lesquelles le processus ne peut absolument pas
continuer après.

Erreur, 16
Afficher toutes les erreurs, y compris celles qui peuvent être récupérées.

Attention, 24
Afficher tous les avertissements et erreurs. Tout message lié à des informations éventuellement incorrectes ou
les événements inattendus seront affichés.

Info, 32
Afficher des messages informatifs pendant le traitement. Ceci s'ajoute aux avertissements et
les erreurs. Ceci est la valeur par défault.

verbeux, 40
Identique à "info", sauf plus détaillé.

déboguer, 48
Tout afficher, y compris les informations de débogage.

tracer, 56

Par défaut, le programme se connecte à stderr, si la coloration est prise en charge par le terminal,
les couleurs sont utilisées pour marquer les erreurs et les avertissements. La coloration du journal peut être désactivée en définissant le
variable d'environnement AV_LOG_FORCE_NOCOLOR or SANS COULEUR, ou peut être forcé à régler le
variable d'environnement AV_LOG_FORCE_COLOR. L'utilisation de la variable d'environnement SANS COULEUR
est obsolète et sera supprimé dans une version FFmpeg suivante.

-rapport
Videz la ligne de commande complète et la sortie de la console dans un fichier nommé
"programme-AAAAMMJJ-HHMMSS.log" dans le répertoire courant. Ce fichier peut être utile pour
rapports de bogues. Cela implique également "-loglevel verbose".

Définition de la variable d'environnement FFRAPPORT à n'importe quelle valeur a le même effet. Si la
la valeur est une séquence clé=valeur séparée par ':', ces options affecteront le rapport ;
les valeurs d'option doivent être échappées si elles contiennent des caractères spéciaux ou les options
délimiteur ':' (voir la section ``Citation et échappement'' dans le manuel ffmpeg-utils).

Les options suivantes sont reconnues :

filet
définir le nom de fichier à utiliser pour le rapport ; %p est étendu au nom du
programme, %t est étendu à un horodatage, "%%" est étendu à un simple "%"

niveau
définir le niveau de verbosité du journal à l'aide d'une valeur numérique (voir "-loglevel").

Par exemple, pour générer un rapport dans un fichier nommé ffreport.log en utilisant un niveau de journalisation de 32
(alias pour le niveau de journal "info") :

FFREPORT=file=ffreport.log:level=32 ffmpeg -i entrée sortie

Les erreurs d'analyse de la variable d'environnement ne sont pas fatales et n'apparaîtront pas dans le
signaler.

-hide_banner
Supprimer la bannière d'impression.

Tous les outils FFmpeg afficheront normalement un avis de droit d'auteur, des options de construction et une bibliothèque
versions. Cette option peut être utilisée pour supprimer l'impression de ces informations.

-cpuflags drapeaux (de défis)
Permet de définir et d'effacer les drapeaux du processeur. Cette option est destinée aux tests. Ne pas utiliser
à moins que vous ne sachiez ce que vous faites.

ffmpeg -cpuflags -sse+mmx ...
ffmpeg -cpuflags mmx ...
ffmpeg -cpuflags 0 ...

Les drapeaux possibles pour cette option sont :

x86
mmx
mmxext
sse
sse2
sse2lent
sse3
sse3lent
ssse3
atome
sse4.1
sse4.2
avx
avx2
xop
fma3
fma4
3dmaintenant
3dnowext
imc1
imc2
cmov
BRAS
armv5te
armv6
armv6t2
VFP
vfpv3
néon
régler
AAArch64
armv8
VFP
néon
PowerPC
altivec
Autres ingrédients Processeurs
pentium2
pentium3
pentium4
k6
k62
athlon
athlonxp
k8
-opencl_bench
Cette option est utilisée pour comparer tous les périphériques OpenCL disponibles et imprimer les résultats.
Cette option n'est disponible que lorsque FFmpeg a été compilé avec "--enable-opencl".

Lorsque FFmpeg est configuré avec "--enable-opencl", les options pour l'OpenCL global
le contexte est défini via -opencl_options. Voir la section "Options OpenCL" dans le ffmpeg-
manuel utils pour la liste complète des options prises en charge. Entre autres, ces options
inclure la possibilité de sélectionner une plate-forme et un appareil spécifiques pour exécuter le code OpenCL
au. Par défaut, FFmpeg s'exécutera sur le premier appareil de la première plate-forme. Tandis que le
les options pour le contexte OpenCL global offrent une flexibilité à l'utilisateur dans la sélection du
périphérique OpenCL de leur choix, la plupart des utilisateurs voudront probablement sélectionner le plus rapide
périphérique OpenCL pour leur système.

Cette option aide à sélectionner la configuration la plus efficace en identifiant
l'appareil approprié pour le système de l'utilisateur. Le benchmark intégré est exécuté sur tous les
appareils OpenCL et les performances sont mesurées pour chaque appareil. Les appareils de la
la liste des résultats est triée en fonction de leurs performances avec l'appareil le plus rapide répertorié
premier. L'utilisateur peut ensuite invoquer ffmpeg en utilisant l'appareil considéré comme le plus
approprié via -opencl_options pour obtenir les meilleures performances pour l'OpenCL
code accéléré.

L'utilisation typique pour utiliser le périphérique OpenCL le plus rapide implique les étapes suivantes.

Exécutez la commande:

ffmpeg -opencl_bench

Notez l'ID de la plate-forme (pidx) et l'identifiant de l'appareil (didx) du premier appareil, c'est-à-dire le plus rapide
dans la liste. Sélectionnez la plate-forme et l'appareil à l'aide de la commande :

ffmpeg -opencl_options platform_idx= :périphérique_idx= ...

-opencl_options Options (de défis)
Définissez les options de l'environnement OpenCL. Cette option n'est disponible que lorsque FFmpeg a été
compilé avec "--enable-opencl".

Options doit être une liste de key=Plus-value paires d'options séparées par ':'. Voir le ``OpenCL
Section "Options" dans le manuel ffmpeg-utils pour la liste des options prises en charge.

Options AV
Ces options sont fournies directement par libavformat, libavdevice et libavcodec
bibliothèques. Pour voir la liste des AVOptions disponibles, utilisez le -Aide option. Elles sont
séparés en deux catégories :

générique
Ces options peuvent être définies pour n'importe quel conteneur, codec ou périphérique. Les options génériques sont
répertorié sous AVFormatContext options pour les conteneurs/périphériques et sous AVCodecContext
options pour les codecs.

Privé
Ces options sont spécifiques au conteneur, périphérique ou codec donné. Options privées
sont répertoriés sous leurs conteneurs/périphériques/codecs correspondants.

Par exemple, pour écrire un en-tête ID3v2.3 au lieu d'un ID3v2.4 par défaut dans un fichier MP3, utilisez
le id3v2_version option privée du multiplexeur MP3 :

ffmpeg -i input.flac -id3v2_version 3 out.mp3

Tous les codecs AVOptions sont par flux, et donc un spécificateur de flux doit être attaché à
Eux.

Noter la -pas d'option la syntaxe ne peut pas être utilisée pour les AVOptions booléennes, utilisez -Option 0/-Option 1.

Remarque : l'ancienne façon non documentée de spécifier les AVOptions par flux en ajoutant v/a/s à
le nom des options est désormais obsolète et sera bientôt supprimé.

Entrée Options
-x largeur
Force l'affichage de la largeur.

-y la taille
Forcer la hauteur affichée.

-s taille
Définir la taille du cadre (LxH ou abréviation), nécessaire pour les vidéos qui ne contiennent pas d'en-tête
avec la taille du cadre comme YUV brut. Cette option a été dépréciée au profit du privé
options, essayez -video_size.

-fs Démarrez en mode plein écran.

-un Désactivez le son.

-vn Désactiver la vidéo.

- sn Désactiver les sous-titres.

-ss poster
Chercher à poster. Notez que dans la plupart des formats, il n'est pas possible de rechercher exactement, donc ffplay
cherchera jusqu'au point de recherche le plus proche de poster.

poster doit être une spécification de durée, voir le Temps durée in le
ffmpeg-utils(1) Manuel.

-t durée
Jouez durée secondes d'audio/vidéo.

durée doit être une spécification de durée, voir le Temps durée in le
ffmpeg-utils(1) Manuel.

-octets
Recherche par octets.

-nodisp
Désactiver l'affichage graphique.

-f fmt
Forcer le formatage.

-titre_fenêtre titre
Définir le titre de la fenêtre (la valeur par défaut est le nom du fichier d'entrée).

-boucle nombre
Lecture de film en boucle fois. 0 signifie pour toujours.

-mode d'affichage mode
Définissez le mode d'affichage à utiliser. Valeurs disponibles pour mode sont:

0, vidéo
montrer la vidéo

1, vagues
afficher les ondes audio

2, rdft
afficher la bande de fréquence audio à l'aide de RDFT ((Inverse) Real Discrete Fourier Transform)

La valeur par défaut est "vidéo", si la vidéo n'est pas présente ou ne peut pas être lue, "rdft" est
automatiquement sélectionné.

Vous pouvez faire défiler de manière interactive les modes d'affichage disponibles en appuyant sur la touche w.

-vf graphique de filtre
Créer le filtergraph spécifié par graphique de filtre et l'utiliser pour filtrer le flux vidéo.

graphique de filtre est une description du filtergraph à appliquer au flux, et doit avoir
une seule entrée vidéo et une seule sortie vidéo. Dans le filtergraph, l'entrée est
associée au label "in", et la sortie au label "out". Voir le ffmpeg-
Filtres manuel pour plus d'informations sur la syntaxe filtergraph.

Vous pouvez spécifier ce paramètre plusieurs fois et parcourir les
filtergraphs ainsi que les modes d'affichage en appuyant sur la touche w.

-un F graphique de filtre
graphique de filtre est une description du filtergraph à appliquer à l'audio d'entrée. Utilisez le
option "-filters" pour afficher tous les filtres disponibles (y compris les sources et les récepteurs).

-i fichier_entrée
Lire fichier_entrée.

Avancé Options
-pix_fmt le format
Définir le format des pixels. Cette option a été dépréciée au profit des options privées, essayez
-format_pixel.

-Statistiques
Imprimer plusieurs statistiques de lecture, en particulier afficher la durée du flux, le codec
paramètres, la position actuelle dans le flux et la synchronisation audio/vidéo
dérive. Il est activé par défaut, pour le désactiver explicitement, vous devez spécifier "-nostats".

-vite
Optimisations non conformes aux spécifications.

-genpts
Générer des points.

-sync type
Réglez l'horloge maître sur audio ("type=audio"), vidéo ("type=video") ou externe
("type=ext"). La valeur par défaut est audio. L'horloge mère est utilisée pour contrôler l'audio-vidéo
synchronisation. La plupart des lecteurs multimédias utilisent l'audio comme horloge principale, mais dans certains cas
(streaming ou diffusion de haute qualité) il est nécessaire de changer cela. Cette option est
principalement utilisé à des fins de débogage.

-as audio_stream_specifier
Sélectionnez le flux audio souhaité à l'aide du spécificateur de flux donné. Le flux
les spécificateurs sont décrits dans le Discussions spécificateurs chapitre. Si cette option n'est pas
spécifié, le "meilleur" flux audio est sélectionné dans le programme du déjà sélectionné
flux vidéo.

-vst video_stream_specifier
Sélectionnez le flux vidéo souhaité à l'aide du spécificateur de flux donné. Le flux
les spécificateurs sont décrits dans le Discussions spécificateurs chapitre. Si cette option n'est pas
spécifié, le "meilleur" flux vidéo est sélectionné.

-sst sous-titre_stream_specifier
Sélectionnez le flux de sous-titres souhaité à l'aide du spécificateur de flux donné. Le flux
les spécificateurs sont décrits dans le Discussions spécificateurs chapitre. Si cette option n'est pas
spécifié, le "meilleur" flux de sous-titres est sélectionné dans le programme du déjà
flux vidéo ou audio sélectionné.

-sortie automatique
Quittez lorsque la lecture de la vidéo est terminée.

-exitonkeydown
Quittez si une touche est enfoncée.

-sortir de la souris
Quittez si un bouton de la souris est enfoncé.

-codec :spécificateur_média nom_codec
Forcer une implémentation de décodeur spécifique pour le flux identifié par spécificateur_média,
qui peut prendre les valeurs "a" (audio), "v" (vidéo) et "s" sous-titre.

-codec nom_codec
Forcer un décodeur audio spécifique.

-vcodec nom_codec
Forcer un décodeur vidéo spécifique.

-scodec nom_codec
Forcer un décodeur de sous-titres spécifique.

-rotation automatique
Faites pivoter automatiquement la vidéo en fonction des métadonnées du fichier. Activé par défaut, utilisez
-pas d'autorotation pour le désactiver.

-framedrop
Supprimez les images vidéo si la vidéo n'est pas synchronisée. Activé par défaut si l'horloge mère est
pas réglé sur vidéo. Utilisez cette option pour activer la suppression d'images pour toutes les horloges principales
sources, utiliser -noframedrop pour le désactiver.

-infbuf
Ne limitez pas la taille du tampon d'entrée, lisez autant de données que possible à partir de l'entrée comme
dès que possible. Activé par défaut pour les flux en temps réel, où les données peuvent être supprimées
sinon lu à temps. Utilisez cette option pour activer des tampons infinis pour toutes les entrées, utilisez
-noinfbuf pour le désactiver.

Tandis que jouer
q, ESC
Quittez.

f Basculer en plein écran.

p, CPS
Pause.

a Cycle audio canal dans le programme en cours.

v Cycle de canal vidéo.

t Cycle de canal de sous-titres dans le programme en cours.

c Programme cyclable.

w Faites défiler les filtres vidéo ou les modes d'affichage.

s Passez à l'image suivante.

Faites une pause si le flux n'est pas déjà en pause, passez à l'image vidéo suivante et faites une pause.

gauche / droite
Recherche en arrière/avant de 10 secondes.

bas/haut
Recherche arrière/avant 1 minute.

page bas/page up
Recherche au chapitre précédent/suivant. ou s'il n'y a pas de chapitres Rechercher en arrière/en avant
minutes 10.

souris cliquez
Recherche de pourcentage dans le fichier correspondant à la fraction de largeur.

SYNTAXE


Cette section documente la syntaxe et les formats utilisés par les bibliothèques et outils FFmpeg.

Citant ainsi que échapper
FFmpeg adopte le mécanisme de citation et d'échappement suivant, sauf indication contraire.
Les règles suivantes sont appliquées :

· ' ainsi que \ sont des caractères spéciaux (respectivement utilisés pour les guillemets et les échappements). Dans
En plus d'eux, il peut y avoir d'autres caractères spéciaux selon les spécificités
syntaxe où l'échappement et les guillemets sont utilisés.

· Un caractère spécial est échappé en le préfixant d'un \.

· Tous les caractères compris entre '' sont inclus littéralement dans la chaîne analysée. Les
caractère de citation ' lui-même ne peut pas être cité, vous devrez peut-être fermer le devis et
y échapper.

· Les espaces blancs de début et de fin, à moins qu'ils ne soient échappés ou entre guillemets, sont supprimés de la
chaîne analysée.

Notez que vous devrez peut-être ajouter un deuxième niveau d'échappement lors de l'utilisation de la ligne de commande ou d'un
script, qui dépend de la syntaxe du langage shell adopté.

La fonction "av_get_token" définie dans libavutil/avstring.h peut être utilisé pour analyser un jeton
cotés ou échappés selon les règles définies ci-dessus.

L'outil outils/ffescape dans l'arborescence des sources FFmpeg peut être utilisé pour citer ou
échapper une chaîne dans un script.

Exemples

· Echappez à la chaîne "Crime d'Amour" contenant le caractère spécial "'" :

Crime d\'Amour

· La chaîne ci-dessus contient un guillemet, donc le "'" doit être échappé lors de la citation :

'Crime d'\''''Amour''

· Incluez les espaces blancs de début ou de fin en utilisant des guillemets :

' cette chaîne commence et se termine par des espaces '

· L'échappement et la citation peuvent être mélangés :

' La chaîne '\'chaîne\'' est une chaîne '

· Pour inclure un littéral \ vous pouvez utiliser soit un échappement, soit un guillemet :

'c:\foo' peut être écrit comme c:\\foo

Date
La syntaxe acceptée est :

[(AAAA-MM-JJ|AAAAMMJJ)[T|t| ]]((HH:MM:SS[.m...]]])|(HHMMSS[.m...]]]))[Z]
maintenant

Si la valeur est "maintenant", cela prend l'heure actuelle.

L'heure est l'heure locale à moins que Z ne soit ajouté, auquel cas elle est interprétée comme UTC. Si la
la partie année-mois-jour n'est pas spécifiée, elle prend l'année-mois-jour en cours.

Temps durée
Il existe deux syntaxes acceptées pour exprimer la durée.

[-][ :] : [. ...]

HH exprime le nombre d'heures, MM le nombre de minutes pour un maximum de 2 chiffres, et
SS le nombre de secondes pour un maximum de 2 chiffres. Les m à la fin exprime décimal
la valeur pour SS.

or

[-] +[. ...]

S exprime le nombre de secondes, avec la partie décimale facultative m.

Dans les deux expressions, l'optionnel - indique une durée négative.

Exemples

Les exemples suivants sont tous des durées valides :

55 en 55 secondes

12:03:45
12 heures, 03 minutes et 45 secondes

23.189
en 23.189 secondes

Vidéo taille
Précisez la taille de la vidéo sourcée, il peut s'agir d'une chaîne de la forme largeurxla tailleou de la
nom d'une abréviation de taille.

Les abréviations suivantes sont reconnues :

NTSC
Assistance

copain Assistance

qntsc
Assistance

qpal
Assistance

sntsc
Assistance

SPAL
Assistance

film
Assistance

film-ntsc
Assistance

sqcf
Assistance

qcif
Assistance

caf Assistance

4caf
Assistance

16caf
Assistance

qqvga
Assistance

qvga
Assistance

vga Assistance

svga
Assistance

xga Assistance

Uxga
Assistance

qxga
Assistance

sxga
Assistance

qsxga
Assistance

hsxga
Assistance

Ouah
Assistance

wxga
Assistance

wsxga
Assistance

wuxga
Assistance

woxga
Assistance

wqsxga
Assistance

wquxga
Assistance

whsxga
Assistance

whuxga
Assistance

cga Assistance

ega Assistance

hd480
Assistance

hd720
Assistance

hd1080
Assistance

2k Assistance

2kplat
Assistance

2kscope
Assistance

4k Assistance

4kplat
Assistance

4kscope
Assistance

Nhd Assistance

hqvga
Assistance

wqvga
Assistance

fwqvga
Assistance

hvga
Assistance

QHD Assistance

2kdci
Assistance

4kdci
Assistance

euhd2160
Assistance

euhd4320
Assistance

Vidéo taux
Spécifiez la fréquence d'images d'une vidéo, exprimée en nombre d'images générées par seconde.
Il doit s'agir d'une chaîne au format frame_rate_num/frame_rate_den, un nombre entier, un
nombre flottant ou une abréviation de fréquence d'images vidéo valide.

Les abréviations suivantes sont reconnues :

NTSC
30000/1001

copain 25/1

qntsc
30000/1001

qpal
25/1

sntsc
30000/1001

SPAL
25/1

film
24/1

film-ntsc
24000/1001

Ratio
Un rapport peut être exprimé sous forme d'expression ou sous la forme numérateur:dénominateur.

Notez qu'un rapport avec une valeur infinie (1/0) ou négative est considéré comme valide, vous devriez donc
vérifiez la valeur renvoyée si vous souhaitez exclure ces valeurs.

La valeur non définie peut être exprimée à l'aide de la chaîne "0:0".

Couleur
Il peut s'agir du nom d'une couleur telle que définie ci-dessous (correspondance insensible à la casse) ou d'un
Séquence "[0x|#]RRGGBB[AA]", éventuellement suivie de @ et d'une chaîne représentant l'alpha
composant.

La composante alpha peut être une chaîne composée de "0x" suivi d'un nombre hexadécimal ou
un nombre décimal compris entre 0.0 et 1.0, qui représente la valeur d'opacité (Assistance or 0.0
signifie complètement transparent, 0xff or 1.0 complètement opaque). Si la composante alpha est
pas spécifié alors 0xff est assumé.

La corde aléatoire donnera une couleur aléatoire.

Les noms de couleurs suivants sont reconnus :

AliceBlue
0xF0F8FF

Blanc antique
0xFAEBD7

Aqua
0x00FFFF

Aigue-marine
0x7FFFD4

Azure
0xF0FFFF

Beige
0xF5F5DC

Bisque
0xFFE4C4

Noir
Assistance

BlanchedAlmond
0xFFEBCD

Bleu
0x0000FF

BlueViolet
0x8A2BE2

Marron
0xA52A2A

Bois bohu
0xDEB887

CadetBleu
0x5F9EA0

Chartreuse
0x7FFF00

le chocolat
0xD2691E

Coral
0xFF7F50

Bleuet
0x6495ED

Soie de maïs
0xFFF8DC

Crimson
0xDC143C

Cyan
0x00FFFF

Bleu foncé
0x00008B

DarkCyan
0x008B8B

SombreGoldenRod
0xB8860B

Gris foncé
0xA9A9A9

DarkGreen
Assistance

DarkKhaki
0xBDB76B

Magenta foncé
0x8B008B

DarkOliveGreen
0x556B2F

Orange sombre
0xFF8C00

DarkOrchid
0x9932CC

Rouge foncé
0x8B0000

DarkSalmon
0xE9967A

DarkSeaGreen
0x8FBC8F

DarkSlateBlue
0x483D8B

DarkSlateGray
0x2F4F4F

Turquoise foncé
0x00CED1

DarkViolet
0x9400D3

Rose profond
0xFF1493

DeepSkyBlue
0x00BFFF

DimGray
Assistance

DodgerBlue
0x1E90FF

Brique De Feu
0xB22222

FloralBlanc
0xFFFAF0

Forêt verte
0x228B22

Fuchsia
0xFF00FF

Gainsboro
0xDCDCDC

GhostWhite
0xF8F8FF

Or
0xFFD700

verge d'or
0xDAA520

Gris
Assistance

Vert
Assistance

Vert jaune
0xADFF2F

Melon miel
0xF0FFF0

Rose vif
0xFF69B4

IndianRed
0xCD5C5C

Indigo
0x4B0082

Ivoire
0xFFFFF0

Kaki
0xF0E68C

Lavande
0xE6E6FA

LavenderBlush
0xFFF0F5

LawnGreen
0x7CFC00

LemonChiffon
0xFFFACD

Bleu clair
0xADD8E6

LightCoral
0xF08080

Cyan clair
0xE0FFFF

LightGoldenRodJaune
0xFAFAD2

Vert Clair
0x90EE90

Gris clair
0xD3D3D3

Rose clair
0xFFB6C1

LightSalmon
0xFFA07A

LightSeaGreen
0x20B2AA

LightSkyBlue
0x87CEFA

LightSlateGray
Assistance

LightSteelBlue
0xB0C4DE

Jaune clair
0xFFFFE0

de citron vert
0x00FF00

LimeGreen
0x32CD32

Lin
0xFAF0E6

Magenta
0xFF00FF

Bordeaux
Assistance

MediumAquaMarine
0x66CDAA

MediumBlue
0x0000CD

MediumOrchid
0xBA55D3

MediumPurple
0x9370D8

MediumSeaGreen
0x3CB371

MediumSlateBlue
0x7B68EE

MediumSpringVert
0x00FA9A

MediumTurquoise
0x48D1CC

Rouge moyen
0xC71585

Bleu nuit
Assistance

MentheCrème
0xF5FFFA

MistyRose
0xFFE4E1

Mocassin
0xFFE4B5

NavajoWhite
0xFFDEAD

Marine
Assistance

Vieille dentelle
0xFDF5E6

Olive
Assistance

OliveDrab
0x6B8E23

Orange
0xFFA500

Rouge-orange
0xFF4500

Orchidée
0xDA70D6

PâleGoldenRod
0xEEE8AA

Vert pâle
0x98FB98

PaleTurquoise
0xAFEEEE

PaleVioletRed
0xD87093

Papaye
0xFFEFD5

PeachPuff
0xFFDAB9

Pérou
0xCD853F

Rose
0xFFC0CB

Prune
0xDDA0DD

Poudre bleue
0xB0E0E6

Violet
Assistance

Rouge 0xFF0000

RosyBrown
0xBC8F8F

Bleu royal
0x4169E1

Selle brune
0x8B4513

de saumon
0xFA8072

SandyBrown
0xF4A460

SeaGreen
0x2E8B57

Coquillage
0xFFF5EE

Sienna
0xA0522D

Argent
0xC0C0C0

Bleu ciel
0x87CEEB

SlateBlue
0x6A5ACD

Gris ardoise
Assistance

Neige
0xFFFAFA

Vert printanier
0x00FF7F

Steelblue
0x4682B4

Tan 0xD2B48C

Sarcelle
Assistance

Chardon
0xD8BFD8

Tomate
0xFF6347

Turquoise
0x40E0D0

Violet
0xEE82EE

Blé
0xF5DEB3

Blanc
0xFFFFFF

Fumée blanche
0xF5F5F5

Jaune
0xFFFF00

Vert jaunâtre
0x9ACD32

Développement Disposition
Une disposition des canaux spécifie la disposition spatiale des canaux dans un multicanal
flux audio. Pour spécifier une disposition de canal, FFmpeg utilise une syntaxe spéciale.

Les canaux individuels sont identifiés par un identifiant, comme indiqué dans le tableau ci-dessous :

FL avant gauche

FR avant droit

FC avant au centre

LFE à basse fréquence

BL arrière gauche

BR arrière droit

FLC avant gauche du centre

FRC avant droit du centre

BC centre du dos

SL côté gauche

SR côté droit

TC centre supérieur

TFL en haut avant gauche

TFC en haut au centre

TFR en haut à droite

TBL en haut à gauche

TBC haut du dos au centre

TBR en haut à droite

DL downmix à gauche

DR downmix à droite

WL large gauche

WR large droite

SDL surround direct gauche

DTS surround direct à droite

LFE2
basse fréquence 2

Les compositions de disposition de canal standard peuvent être spécifiées à l'aide des identifiants suivants :

mono
FC

stéréo
FL+FR

2.1 FL+FR+LFE

3.0 FL+FR+FC

3.0(retour)
FL+FR+CB

4.0 FL+FR+FC+CB

quad
FL+FR+BL+BR

quad (côté)
FL+FR+SL+SR

3.1 FL+FR+FC+LFE

5.0 FL+FR+FC+BL+BR

5.0 (côté)
FL+FR+FC+SL+SR

4.1 FL+FR+FC+LFE+CB

5.1 FL+FR+FC+LFE+BL+BR

5.1 (côté)
FL+FR+FC+LFE+SL+SR

6.0 FL+FR+FC+BC+SL+SR

6.0 (avant)
FL+FR+FLC+FRC+SL+SR

hexagonal
FL+FR+FC+BL+BR+CB

6.1 FL+FR+FC+LFE+BC+SL+SR

6.1 FL+FR+FC+LFE+BL+BR+CB

6.1 (avant)
FL+FR+LFE+FLC+FRC+SL+SR

7.0 FL+FR+FC+BL+BR+SL+SR

7.0 (avant)
FL+FR+FC+FLC+FRC+SL+SR

7.1 FL+FR+FC+LFE+BL+BR+SL+SR

7.1 (large)
FL+FR+FC+LFE+BL+BR+FLC+FRC

7.1 (côté large)
FL+FR+FC+LFE+FLC+FRC+SL+SR

octogonal
FL+FR+FC+BL+BR+BC+SL+SR

sous-mixer
DL+DR

Une disposition de canal personnalisée peut être spécifiée sous la forme d'une séquence de termes, séparés par « + » ou « | ».
Chaque terme peut être :

· le nom d'une disposition de canal standard (par ex. mono, stéréo, 4.0, quad, 5.0, Etc)

· le nom d'un seul canal (par exemple FL, FR, FC, LFE, Etc)

· un certain nombre de canaux, en décimal, éventuellement suivis de 'c', donnant la valeur par défaut
disposition des canaux pour ce nombre de canaux (voir la fonction
"av_get_default_channel_layout")

· un masque de disposition des canaux, en hexadécimal commençant par "0x" (voir les macros "AV_CH_*" dans
libavutil/channel_layout.h.

À partir de la version 53 de libavutil, le caractère de fin "c" pour spécifier un nombre de
canaux seront requis, tandis qu'un masque de disposition de canal pourrait également être spécifié comme un
nombre décimal (si et seulement s'il n'est pas suivi de "c").

Voir aussi la fonction "av_get_channel_layout" définie dans libavutil/channel_layout.h.

EXPRESSION ÉVALUATION


Lors de l'évaluation d'une expression arithmétique, FFmpeg utilise un évaluateur de formule interne,
mis en œuvre à travers le libavutil/eval.h interface.

Une expression peut contenir des opérateurs unaires, binaires, des constantes et des fonctions.

Deux expressions expression1 ainsi que expression2 peuvent être combinés pour former une autre expression "expression1;expression2".
expression1 ainsi que expression2 sont évalués à leur tour, et la nouvelle expression est évaluée à la valeur de
expression2.

Les opérateurs binaires suivants sont disponibles : "+", "-", "*", "/", "^".

Les opérateurs unaires suivants sont disponibles : "+", "-".

Les fonctions suivantes sont disponibles :

abs (x)
Calculer la valeur absolue de x.

acos (x)
Calculer l'arccosinus de x.

asin (x)
Calculer l'arc sinus de x.

atan (x)
Calculer l'arctangente de x.

entre (x, min max)
Renvoie 1 si x est supérieur ou égal à m. et inférieur ou égal à max0
autrement.

bitand(x, y)
biteur(x, y)
Calcul au niveau du bit et/ou opération sur x ainsi que y.

Les résultats de l'évaluation de x ainsi que y sont convertis en nombres entiers avant l'exécution
l'opération au niveau du bit.

Notez que la conversion en nombre entier et la conversion en virgule flottante peuvent
perdre en précision. Méfiez-vous des résultats inattendus pour les grands nombres (généralement 2^53 et
plus grand).

plafond(expression)
Arrondir la valeur de l'expression expr vers le haut jusqu'à l'entier le plus proche. Par exemple,
"plafond(1.5)" est "2.0".

couper (x, min max)
Renvoie la valeur de x coupé entre m. ainsi que max.

cos (x)
Calculer le cosinus de x.

coche(x)
Calculer le cosinus hyperbolique de x.

éq(x, y)
Renvoie 1 si x ainsi que y sont équivalents, 0 sinon.

exp (x)
Calculer l'exponentielle de x (avec la base "e", le nombre d'Euler).

étage(expression)
Arrondir la valeur de l'expression expr vers le bas jusqu'à l'entier le plus proche. Par exemple,
"plancher (-1.5)" est "-2.0".

gauss(x)
Calculer la fonction de Gauss de x, correspondant à "exp(-x*x/2) / sqrt(2*PI)".

pgcd(x, y)
Renvoie le plus grand commun diviseur de x ainsi que y. Si les deux x ainsi que y sont 0 ou l'un ou l'autre ou les deux
sont inférieurs à zéro, le comportement n'est pas défini.

gt(x, y)
Renvoie 1 si x est supérieure y, 0 sinon.

gîte(x, y)
Renvoie 1 si x est supérieur ou égal à y, 0 sinon.

hypot(x, y)
Cette fonction est similaire à la fonction C du même nom ; il renvoie "sqrt(x*x +
y*y)", la longueur de l'hypoténuse d'un triangle rectangle dont les côtés sont de longueur x ainsi que y,
ou la distance du point (x, y) de l'origine.

si(x, y)
Évaluer x, et si le résultat est non nul renvoie le résultat de l'évaluation de y,
renvoie 0 sinon.

si(x, y, z)
Évaluer x, et si le résultat est différent de zéro, renvoie le résultat de l'évaluation de y, Autrement
le résultat de l'évaluation de z.

sinon (x, y)
Évaluer x, et si le résultat est nul renvoie le résultat de l'évaluation de y, revenir
0 sinon.

sinon (x, y, z)
Évaluer x, et si le résultat est zéro renvoie le résultat de l'évaluation de y, sinon le
résultat de l'évaluation de z.

isinf(x)
Renvoie 1.0 si x est +/-INFINITY, 0.0 sinon.

isnan (x)
Renvoie 1.0 si x est NAN, 0.0 sinon.

ld(var)
Charger la valeur de la variable interne avec le numéro var, qui était auparavant stocké
avec st(var, expr). La fonction renvoie la valeur chargée.

log (x)
Calculer le logarithme népérien de x.

lt(x, y)
Renvoie 1 si x est inférieur à y, 0 sinon.

lte(x, y)
Renvoie 1 si x est inférieur ou égal à y, 0 sinon.

maximum(x, y)
Renvoie le maximum entre x ainsi que y.

friponne, y)
Renvoie le maximum entre x ainsi que y.

mod(x, y)
Calculer le reste de la division de x by y.

non (expression)
Renvoie 1.0 si expr vaut zéro, 0.0 sinon.

puissance(x, y)
Calculer la puissance de x élevée y, il équivaut à "(x)^(y). "

imprimer(t)
imprimer(t, l)
Imprimer la valeur de l'expression t avec niveau de journalisation l. Si l n'est pas spécifié alors une valeur par défaut
le niveau de journalisation est utilisé. Renvoie la valeur de l'expression imprimée.

Imprime t avec le niveau de journalisation l

aléatoire(x)
Renvoie une valeur pseudo-aléatoire entre 0.0 et 1.0. x est l'indice de l'interne
variable qui sera utilisée pour enregistrer la graine/l'état.

racine(expression, max)
Trouver une valeur d'entrée pour laquelle la fonction représentée par expr avec argument ld(0) is
0 dans l'intervalle 0..max.

L'expression dans expr doit désigner une fonction continue ou le résultat n'est pas défini.

ld(0) est utilisé pour représenter la valeur d'entrée de la fonction, ce qui signifie que la valeur donnée
expression sera évaluée plusieurs fois avec diverses valeurs d'entrée que le
expression peut accéder via ld(0). Lorsque l'expression est évaluée à 0, le
la valeur d'entrée correspondante sera renvoyée.

péché (x)
Calculer le sinus de x.

naissance(x)
Calculer le sinus hyperbolique de x.

sqrt(expression)
Calculer la racine carrée de expr. Cela équivaut à "(expr)^.5".

écraser (x)
Calculer l'expression "1/(1 + exp(4*x))".

er(var, expression)
Stocker la valeur de l'expression expr dans une variable interne. var précise le
numéro de la variable où stocker la valeur, et c'est une valeur allant de 0 à
9. La fonction renvoie la valeur stockée dans la variable interne. Remarque, variables
ne sont actuellement pas partagés entre les expressions.

tan (x)
Calculer la tangente de x.

louche (x)
Calculer la tangente hyperbolique de x.

taylor(expression, x)
taylor(expression, x, id)
Évaluer une série de Taylor à x, étant donné une expression représentant le "ld(id)"-th
dérivée d'une fonction à 0.

Lorsque la série ne converge pas, le résultat est indéfini.

ld(id) est utilisé pour représenter l'ordre dérivé dans expr, ce qui signifie que la donnée
expression sera évaluée plusieurs fois avec diverses valeurs d'entrée que le
expression peut accéder via "ld(id)". Si id n'est pas spécifié, alors 0 est supposé.

Notez que lorsque vous avez les dérivées à y au lieu de 0, "taylor(expr, xy)" peut être
utilisé.

fiable(0)
Renvoie l'heure actuelle (horloge murale) en secondes.

tronc(expr)
Arrondir la valeur de l'expression expr vers zéro à l'entier le plus proche. Par exemple,
"trunc(-1.5)" est "-1.0".

tandis que (cond, expression)
Évaluer l'expression expr tandis que l'expression cond est différent de zéro et renvoie la valeur
du dernier expr évaluation, ou NAN si cond était toujours faux.

Les constantes suivantes sont disponibles :

PI surface du disque de l'unité, environ 3.14

E exp(1) (nombre d'Euler), environ 2.718

PHI nombre d'or (1+sqrt(5))/2, environ 1.618

En supposant qu'une expression est considérée comme « vraie » si elle a une valeur non nulle, notez que :

"*" fonctionne comme ET

"+" fonctionne comme OU

Par exemple la construction :

si (A ET B) alors C

est équivalent à:

si(A*B,C)

Dans votre code C, vous pouvez étendre la liste des fonctions unaires et binaires, et définir
constantes reconnues, afin qu'elles soient disponibles pour vos expressions.

L'évaluateur reconnaît également les préfixes d'unité du système international. Si 'i' est ajouté
après le préfixe, des préfixes binaires sont utilisés, qui sont basés sur des puissances de 1024 au lieu de
puissances de 1000. Le suffixe 'B' multiplie la valeur par 8, et peut être ajouté après un
préfixe d'unité ou utilisé seul. Cela permet d'utiliser par exemple 'KB', 'MiB', 'G' et 'B' comme
suffixe numérique.

La liste des préfixes du système international disponibles suit, avec l'indication du
puissances correspondantes de 10 et de 2.

y 10^-24 / 2^-80

z 10^-21 / 2^-70

a 10^-18 / 2^-60

f 10^-15 / 2^-50

p 10^-12 / 2^-40

n 10^-9 / 2^-30

u 10^-6 / 2^-20

m 10^-3 / 2^-10

c 10 ^ -2

d 10 ^ -1

h 10 ^ 2

k 10 ^ 3 / 2 ^ 10

K 10 ^ 3 / 2 ^ 10

M 10 ^ 6 / 2 ^ 20

G 10 ^ 9 / 2 ^ 30

T 10 ^ 12 / 2 ^ 40

P 10 ^ 15 / 2 ^ 40

E 10 ^ 18 / 2 ^ 50

Z 10 ^ 21 / 2 ^ 60

Y 10 ^ 24 / 2 ^ 70

OUVRIRCL OPTIONS


Lorsque FFmpeg est configuré avec "--enable-opencl", il est possible de définir les options pour
le contexte global OpenCL.

La liste des options prises en charge est la suivante :

options_de_construction
Définissez les options de construction utilisées pour compiler les noyaux enregistrés.

Voir la référence "OpenCL Specification Version: 1.2 chapitre 5.6.4".

plateforme_idx
Sélectionnez l'index de la plate-forme pour exécuter le code OpenCL.

L'index spécifié doit être l'un des index de la liste des appareils qui peut être
obtenu avec "ffmpeg -opencl_bench" ou "av_opencl_get_device_list()".

périphérique_idx
Sélectionnez l'index du périphérique utilisé pour exécuter le code OpenCL.

L'index spécifié doit être l'un des index de la liste des appareils qui peut être
obtenu avec "ffmpeg -opencl_bench" ou "av_opencl_get_device_list()".

CODEC OPTIONS


libavcodec fournit des options globales génériques, qui peuvent être définies sur tous les encodeurs et
décodeurs. De plus, chaque codec peut prendre en charge des options dites privées, qui sont spécifiques
pour un codec donné.

Parfois, une option globale peut n'affecter qu'un type spécifique de codec et peut être
absurde ou ignoré par un autre, vous devez donc être conscient de la signification du spécifié
option. De plus, certaines options ne sont destinées qu'au décodage ou à l'encodage.

Les options peuvent être définies en spécifiant -option Plus-value dans les outils FFmpeg, ou en définissant le
valeur explicitement dans les options "AVCodecContext" ou en utilisant le libavutil/opt.h API pour
utilisation programmatique.

La liste des options prises en charge suit :

b entier (encodage, audio, vidéo)
Définir le débit en bits/s. La valeur par défaut est 200K.

ab entier (encodage, son)
Définir le débit binaire audio (en bits/s). La valeur par défaut est 128K.

bt entier (encodage, vidéo)
Définir la tolérance de débit vidéo (en bits/s). En mode 1 passe, la tolérance de débit spécifie
dans quelle mesure le contrôle de débit est prêt à s'écarter de la valeur de débit binaire moyen cible. Cette
n'est pas lié au débit binaire min/max. Abaisser trop la tolérance a un effet négatif
sur la qualité.

drapeaux drapeaux (décodage/encodage, audio, vidéo, sous-titres)
Définissez des indicateurs génériques.

Valeurs possibles:

mv4 Utilisez quatre vecteurs de mouvement par macrobloc (mpeg4).

qpel
Utilisez la compensation de mouvement 1/4 pel.

boucle
Utilisez un filtre de boucle.

échelle q
Utilisez une échelle de q fixe.

gmc Utilisez gmc.

mv0 Essayez toujours un mb avec mv=<0,0>.

entrée_préservée
pass1
Utilisez le contrôle de débit interne à 2 passages en mode premier passage.

pass2
Utilisez le contrôle de débit interne à 2 passes en mode deuxième passe.

gris
Décode/encode uniquement les niveaux de gris.

emu_edge
Ne dessinez pas de bords.

psnr
Définissez les variables error[?] lors de l'encodage.

tronqué
Naq Normaliser la quantification adaptative.

ildct
Utilisez le DCT entrelacé.

faible_délai
Forcer un délai faible.

global_header
Placez les en-têtes globaux dans extradata au lieu de chaque image clé.

bitexact
N'écrivez que des données indépendantes de la plate-forme, de la construction et du temps. (sauf (I)DCT). Cette
garantit que les sommes de contrôle des fichiers et des données sont reproductibles et correspondent entre les plates-formes.
Son utilisation principale est pour les tests de régression.

aic Appliquer le codage intra avancé H263 / prédiction ac mpeg4.

cbp Obsolète, utilisez plutôt les options privées mpegvideo.

qprd
Obsolète, utilisez plutôt les options privées mpegvideo.

nœud coulant
Appliquer une estimation de mouvement entrelacé.

cgop
Utilisez gop fermé.

moi_méthode entier (encodage, vidéo)
Définir la méthode d'estimation de mouvement.

Valeurs possibles:

zéro
estimation de mouvement nul (le plus rapide)

plein
estimation de mouvement complet (le plus lent)

epz
Estimation de mouvement EPZS (par défaut)

qui estimation de mouvement esa (alias pour complet)

bord
Estimation de mouvement tesa

jour estimation de mouvement dia (alias pour epzs)

enregistrer estimation du mouvement logarithmique

Phods
estimation de mouvement de phods

x1 Estimation du mouvement X1

hex estimation de mouvement hexadécimal

euh euh estimation de mouvement

iter
iter estimation de mouvement

extradata_size entier
Définir la taille des données supplémentaires.

base_temps rationnel nombre
Définir la base de temps du codec.

Il s'agit de l'unité de temps fondamentale (en secondes) en termes d'horodatage des trames
représentée. Pour le contenu à fps fixe, la base de temps doit être "1 / frame_rate" et l'horodatage
les incréments doivent être identiques à 1.

g entier (encodage, vidéo)
Définissez le groupe de taille d'image. La valeur par défaut est 12.

ar entier (décodage/encodage, audio)
Réglez le taux d'échantillonnage audio (en Hz).

ac entier (décodage/encodage, audio)
Définir le nombre de canaux audio.

coupure entier (encodage, son)
Définir la bande passante de coupure.

taille du cadre entier (encodage, son)
Définir la taille de l'image audio.

Chaque trame soumise, à l'exception de la dernière, doit contenir exactement des échantillons frame_size par
canaliser. Peut être 0 lorsque le codec a CODEC_CAP_VARIABLE_FRAME_SIZE défini, dans ce cas
la taille du cadre n'est pas limitée. Il est défini par certains décodeurs pour indiquer une constante
taille du cadre.

Numéro de cadre entier
Définissez le numéro de trame.

retarder entier
qcomp flotter (encodage, vidéo)
Réglez la compression d'échelle de quantificateur vidéo (VBR). Il est utilisé comme constante dans le
équation de contrôle du débit. Plage recommandée pour le rc_eq par défaut : 0.0-1.0.

qflou flotter (encodage, vidéo)
Réglez le flou d'échelle du quantificateur vidéo (VBR).

q min entier (encodage, vidéo)
Définir l'échelle de quantification vidéo minimale (VBR). Doit être compris entre -1 et 69, valeur par défaut
est 2.

qmax entier (encodage, vidéo)
Définissez l'échelle de quantification vidéo maximale (VBR). Doit être compris entre -1 et 1024, valeur par défaut
la valeur est 31.

qdiff entier (encodage, vidéo)
Définissez la différence maximale entre l'échelle de quantification (VBR).

bf entier (encodage, vidéo)
Définissez le nombre maximum d'images B entre les images non B.

Doit être un entier compris entre -1 et 16. 0 signifie que les images B sont désactivées. Si une valeur
de -1 est utilisé, il choisira une valeur automatique en fonction de l'encodeur.

La valeur par défaut est 0.

b_qfacteur flotter (encodage, vidéo)
Définissez le facteur qp entre les images P et B.

stratégie_rc entier (encodage, vidéo)
Définir la méthode de contrôle du taux.

b_stratégie entier (encodage, vidéo)
Définir la stratégie pour choisir entre les images I/P/B.

ps entier (encodage, vidéo)
Définissez la taille de la charge utile RTP en octets.

mv_bits entier
en-tête_bits entier
i_tex_bits entier
p_tex_bits entier
Je compte entier
p_compte entier
skip_count entier
misc_bits entier
frame_bits entier
balise_codec entier
bug drapeaux (décodage, vidéo)
La solution de contournement n'a pas détecté automatiquement les bogues d'encodeur.

Valeurs possibles:

AutoDetect
ancien_msmpeg4
certains anciens fichiers msmpeg4v3 générés par lavc (pas de détection automatique)

xvid_ilace
Bug d'entrelacement Xvid (autodétecté si fourcc==XVIX)

ump4
(autodétecté si fourcc==UMP4)

pas de rembourrage
bug de remplissage (autodétecté)

amv
ac_vlc
bogue vlc illégal (détecté automatiquement par fourcc)

QPEL_CHROMA
std_qpel
ancien qpel standard (autodétecté par fourcc/version)

qpel_chroma2
direct_blocksize
bogue direct-qpel-blocksize (autodétecté par fourcc/version)

bord
bug de rembourrage des bords (autodétecté par fourcc/version)

hpel_chroma
dc_clip
ms Solution de contournement de divers bogues dans les décodeurs cassés de Microsoft.

tronc
cadres tranchés

lélim entier (encodage, vidéo)
Définir un seuil d'élimination de coefficient unique pour la luminance (les valeurs négatives sont également
considérer le coefficient DC).

célim entier (encodage, vidéo)
Définir un seuil d'élimination de coefficient unique pour la chrominance (les valeurs négatives sont également
considérer le coefficient cc)

strict entier (décodage/encodage, audio, vidéo)
Précisez dans quelle mesure suivre strictement les normes.

Valeurs possibles:

très
se conformer strictement à une ancienne version plus stricte de la spécification ou du logiciel de référence

strict
se conformer strictement à toutes les choses dans la spécification, quelles que soient les conséquences

Ordinaire
non officiel
autoriser les extensions non officielles

expérimental
autoriser des choses expérimentales non standardisées, expérimentales (inachevé/travail en
progrès/pas bien testé) décodeurs et encodeurs. Remarque : les décodeurs expérimentaux peuvent
posent un risque pour la sécurité, ne l'utilisez pas pour décoder des entrées non fiables.

b_qoffset flotter (encodage, vidéo)
Réglez le décalage QP entre les images P et B.

erreur_détection drapeaux (décodage, audio, vidéo)
Définir des indicateurs de détection d'erreur.

Valeurs possibles:

vérifier
vérifier les CRC intégrés

flux binaire
détecter les écarts de spécification de flux binaire

tampon
détecter une longueur de flux binaire incorrecte

exploser
abandonner le décodage en cas de détection d'erreur mineure

ignorer_err
ignorer les erreurs de décodage et continuer le décodage. Ceci est utile si vous voulez
analyser le contenu d'une vidéo et ainsi vouloir que tout soit décodé peu importe
Quel. Cette option ne donnera pas une vidéo agréable à regarder en cas de
erreurs.

prudent
considérer les choses qui violent les spécifications et qui n'ont pas été vues dans la nature comme des erreurs


considérer toutes les non-conformités aux spécifications comme des erreurs

agressif
considérer les choses qu'un encodeur sensé ne devrait pas faire comme une erreur

a_b_frames entier
block_align entier
mpeg_quant entier (encodage, vidéo)
Utilisez des quantificateurs MPEG au lieu de H.263.

qsquish flotter (encodage, vidéo)
Comment garder le quantificateur entre qmin et qmax (0 = clip, 1 = utiliser différentiable
fonction).

rc_qmod_amp flotter (encodage, vidéo)
Réglez la modulation expérimentale du quantificateur.

rc_qmod_freq entier (encodage, vidéo)
Réglez la modulation expérimentale du quantificateur.

rc_override_count entier
rc_eq un magnifique (encodage, vidéo)
Définir l'équation de contrôle de débit. Lors du calcul de l'expression, outre la norme
fonctions définies dans la section « Évaluation d'expression », les fonctions suivantes sont
disponible : bits2qp(bits), qp2bits(qp). Les constantes suivantes sont également disponibles :
iTex pTex tex mv fCode iCount mcVar var isI isP isB avgQP qComp avgIITex avgPITex
avgPPTex avgBPTex avgTex.

taux max entier (encodage, audio, vidéo)
Définir la tolérance de débit binaire maximum (en bits/s). Nécessite que bufsize soit défini.

miner entier (encodage, audio, vidéo)
Définir la tolérance de débit binaire minimum (en bits/s). Le plus utile pour configurer un encodage CBR. Il est
de peu d'utilité sinon.

taille buf entier (encodage, audio, vidéo)
Définir la taille du tampon de contrôle de débit (en bits).

rc_buf_agressivité flotter (encodage, vidéo)
Actuellement inutile.

i_qfactor flotter (encodage, vidéo)
Définissez le facteur QP entre les images P et I.

i_qoffset flotter (encodage, vidéo)
Réglez le décalage QP entre les images P et I.

rc_init_cplx flotter (encodage, vidéo)
Définissez la complexité initiale pour l'encodage en une seule passe.

dct entier (encodage, vidéo)
Définir l'algorithme DCT.

Valeurs possibles:

auto
sélectionner automatiquement un bon (par défaut)

rapide
entier rapide

int entier précis

mmx
altivec
faan
virgule flottante AAN DCT

lumi_masque flotter (encodage, vidéo)
Compresse les zones claires plus fortement que les moyennes.

tcplx_mask flotter (encodage, vidéo)
Définir le masquage de complexité temporelle.

scplx_mask flotter (encodage, vidéo)
Définir le masquage de la complexité spatiale.

masque_p flotter (encodage, vidéo)
Définir le masquage inter.

masque_noir flotter (encodage, vidéo)
Compresse les zones sombres plus fortement que les moyennes.

IDCT entier (décodage/encodage, vidéo)
Sélectionnez la mise en œuvre IDCT.

Valeurs possibles:

auto
int
simple
simplemmx
simpleauto
Choisissez automatiquement un IDCT compatible avec le simple

Bras
altivec
sh4
bras simple
simplearmv5te
arme simplev6
simplenéon
alpha simple
ipp
xvidmmx
faani
virgule flottante AAN IDCT

slice_count entier
ec drapeaux (décodage, vidéo)
Définir la stratégie de masquage des erreurs.

Valeurs possibles:

deviner_mvs
recherche itérative de vecteur de mouvement (MV) (lent)

débloquer
utiliser un filtre de déblocage puissant pour les MB endommagés

faveur_inter
privilégier la prédiction à partir de l'image précédente au lieu de l'actuelle

bits_per_coded_sample entier
pred entier (encodage, vidéo)
Définir la méthode de prédiction.

Valeurs possibles:

à gauche
avion
médiane
d'aspect rationnel nombre (encodage, vidéo)
Définir le rapport hauteur/largeur de l'échantillon.

déboguer drapeaux (décodage/encodage, audio, vidéo, sous-titres)
Imprimer des informations de débogage spécifiques.

Valeurs possibles:

pict
informations sur l'image

rc contrôle de taux

flux binaire
type_mb
type de macrobloc (MB)

qp paramètre de quantification par bloc (QP)

mv vecteur de mouvement

dct_coeff
green_metadata
afficher les métadonnées de complexité pour la trame à venir, le GoP ou pour une durée donnée.

sauter
code de démarrage
pts
er Reconnaissance d'erreur

mmco
opérations de contrôle de gestion de mémoire (H.264)

bogues
vis_qp
visualiser le paramètre de quantification (QP), les QP inférieurs sont teintés plus vert

vis_mb_type
visualiser les types de blocs

tampons
allocations de tampon d'image

fil_ops
opérations de filetage

nomm
sauter la compensation de mouvement

vismv entier (décodage, vidéo)
Visualisez les vecteurs de mouvement (MV).

Cette option est obsolète, consultez plutôt le filtre codecview.

Valeurs possibles:

pf MV prédites vers l'avant des images P

bf MV prédites vers l'avant des trames B

bb MV prédites en arrière des images B

cmp entier (encodage, vidéo)
Définir la fonction de comparaison complète.

Valeurs possibles:

triste somme des différences absolues, rapide (par défaut)

sse somme des erreurs au carré

triste
somme des différences absolues transformées par Hadamard

dct somme des différences absolues transformées en DCT

psnr
somme des erreurs de quantification au carré (à éviter, mauvaise qualité)

Bits nombre de bits nécessaires pour le bloc

rd taux de distorsion optimal, lent

zéro
0

vsad
somme des différences verticales absolues

vssse
somme des différences verticales au carré

NSSE
somme des différences au carré préservant le bruit

w53 5/3 ondelettes, utilisé uniquement dans la neige

w97 9/7 ondelettes, utilisé uniquement dans la neige

dctmax
chroma
sous-cmp entier (encodage, vidéo)
Définir la fonction de comparaison de sous-pelage.

Valeurs possibles:

triste somme des différences absolues, rapide (par défaut)

sse somme des erreurs au carré

triste
somme des différences absolues transformées par Hadamard

dct somme des différences absolues transformées en DCT

psnr
somme des erreurs de quantification au carré (à éviter, mauvaise qualité)

Bits nombre de bits nécessaires pour le bloc

rd taux de distorsion optimal, lent

zéro
0

vsad
somme des différences verticales absolues

vssse
somme des différences verticales au carré

NSSE
somme des différences au carré préservant le bruit

w53 5/3 ondelettes, utilisé uniquement dans la neige

w97 9/7 ondelettes, utilisé uniquement dans la neige

dctmax
chroma
mbcmp entier (encodage, vidéo)
Définir la fonction de comparaison de macroblocs.

Valeurs possibles:

triste somme des différences absolues, rapide (par défaut)

sse somme des erreurs au carré

triste
somme des différences absolues transformées par Hadamard

dct somme des différences absolues transformées en DCT

psnr
somme des erreurs de quantification au carré (à éviter, mauvaise qualité)

Bits nombre de bits nécessaires pour le bloc

rd taux de distorsion optimal, lent

zéro
0

vsad
somme des différences verticales absolues

vssse
somme des différences verticales au carré

NSSE
somme des différences au carré préservant le bruit

w53 5/3 ondelettes, utilisé uniquement dans la neige

w97 9/7 ondelettes, utilisé uniquement dans la neige

dctmax
chroma
ildctcmp entier (encodage, vidéo)
Définir la fonction de comparaison dct entrelacé.

Valeurs possibles:

triste somme des différences absolues, rapide (par défaut)

sse somme des erreurs au carré

triste
somme des différences absolues transformées par Hadamard

dct somme des différences absolues transformées en DCT

psnr
somme des erreurs de quantification au carré (à éviter, mauvaise qualité)

Bits nombre de bits nécessaires pour le bloc

rd taux de distorsion optimal, lent

zéro
0

vsad
somme des différences verticales absolues

vssse
somme des différences verticales au carré

NSSE
somme des différences au carré préservant le bruit

w53 5/3 ondelettes, utilisé uniquement dans la neige

w97 9/7 ondelettes, utilisé uniquement dans la neige

dctmax
chroma
dia_taille entier (encodage, vidéo)
Définissez le type et la taille du diamant pour l'estimation du mouvement.

dernier_pred entier (encodage, vidéo)
Définir la quantité de prédicteurs de mouvement de l'image précédente.

prime entier (encodage, vidéo)
Définir l'estimation de pré-mouvement.

précmp entier (encodage, vidéo)
Définir la fonction de comparaison d'estimation de pré-mouvement.

Valeurs possibles:

triste somme des différences absolues, rapide (par défaut)

sse somme des erreurs au carré

triste
somme des différences absolues transformées par Hadamard

dct somme des différences absolues transformées en DCT

psnr
somme des erreurs de quantification au carré (à éviter, mauvaise qualité)

Bits nombre de bits nécessaires pour le bloc

rd taux de distorsion optimal, lent

zéro
0

vsad
somme des différences verticales absolues

vssse
somme des différences verticales au carré

NSSE
somme des différences au carré préservant le bruit

w53 5/3 ondelettes, utilisé uniquement dans la neige

w97 9/7 ondelettes, utilisé uniquement dans la neige

dctmax
chroma
pre_dia_size entier (encodage, vidéo)
Définissez le type et la taille du diamant pour le pré-passage d'estimation de mouvement.

sous-q entier (encodage, vidéo)
Définir la qualité de l'estimation du mouvement des sous-pixels.

dtg_active_format entier
moi_plage entier (encodage, vidéo)
Définir la plage de vecteurs de mouvement limite (1023 pour le lecteur DivX).

ibis entier (encodage, vidéo)
Définir le biais intra quant.

pbiais entier (encodage, vidéo)
Définir le biais inter quantitatif.

couleur_table_id entier
qualité_globale entier (encodage, audio, vidéo)
codeur entier (encodage, vidéo)
Valeurs possibles:

vlc codeur à longueur variable / codeur huffman

ac codeur arithmétique

brut brut (pas d'encodage)

rle codeur de longueur de course

dégonfler
codeur basé sur le dégonflement

contexte entier (encodage, vidéo)
Définir le modèle de contexte.

tranche_flags entier
xvmc_accélération entier
MBD entier (encodage, vidéo)
Définir l'algorithme de décision de macrobloc (mode haute qualité).

Valeurs possibles:

simple
utiliser mbcmp (par défaut)

les bits
utiliser le moins de bits

rd utiliser le meilleur taux de distorsion

stream_codec_tag entier
sc_seuil entier (encodage, vidéo)
Définir le seuil de changement de scène.

lmin entier (encodage, vidéo)
Définir le facteur de décalage minimal (VBR).

Imax entier (encodage, vidéo)
Définir le facteur de décalage maximum (VBR).

nr entier (encodage, vidéo)
Réglez la réduction du bruit.

rc_init_occupation entier (encodage, vidéo)
Définit le nombre de bits qui doivent être chargés dans le tampon rc avant le début du décodage.

flags2 drapeaux (décodage/encodage, audio, vidéo)
Valeurs possibles:

vite
Autoriser les astuces d'accélération non conformes aux spécifications.

bonjour
Obsolète, utilisez plutôt les options privées mpegvideo.

non
Ignorer l'encodage du flux binaire.

ignorer la récolte
Ignorer les informations de recadrage de sps.

en-tête_local
Placez des en-têtes globaux à chaque image clé au lieu de dans extradata.

morceaux
Les données de trame peuvent être divisées en plusieurs morceaux.

Afficher tout
Afficher toutes les images avant la première image clé.

sauter
Obsolète, utilisez plutôt les options privées mpegvideo.

export_mvs
Exporter les vecteurs de mouvement dans les données latérales du cadre (voir "AV_FRAME_DATA_MOTION_VECTORS")
pour les codecs qui le prennent en charge. Voir également doc/exemples/export_mvs.c.

erreur entier (encodage, vidéo)
qn entier (encodage, vidéo)
Obsolète, utilisez plutôt les options privées mpegvideo.

discussions entier (décodage/encodage, vidéo)
Valeurs possibles:

auto
détecter un bon nombre de threads

moi_seuil entier (encodage, vidéo)
Définir le seuil d'estimation de mouvement.

mb_seuil entier (encodage, vidéo)
Définir le seuil de macrobloc.

dc entier (encodage, vidéo)
Définissez intra_dc_precision.

cousu entier (encodage, vidéo)
Définir le poids nsse.

sauter_top entier (décodage, vidéo)
Définissez le nombre de lignes de macrobloc en haut qui sont ignorées.

sauter_bas entier (décodage, vidéo)
Définissez le nombre de lignes de macrobloc en bas qui sont ignorées.

profil entier (encodage, audio, vidéo)
Valeurs possibles:

inconnu
aac_main
aac_low
aac_ssr
aac_ltp
aac_he
aac_he_v2
aac_ld
aac_eld
mpeg2_aac_low
mpeg2_aac_he
mpeg4_sp
mpeg4_core
mpeg4_main
mpeg4_asp
dts
dts_es
dts_96_24
dts_hd_hra
dts_hd_ma
niveau entier (encodage, audio, vidéo)
Valeurs possibles:

inconnu
basse resolution entier (décodage, audio, vidéo)
Décodage à 1= 1/2, 2=1/4, 3=1/8 résolutions.

sauter_seuil entier (encodage, vidéo)
Définir le seuil de saut de trame.

skip_factor entier (encodage, vidéo)
Définir le facteur de saut d'image.

sauter_exp entier (encodage, vidéo)
Définir l'exposant de saut d'image. Les valeurs négatives se comportent de manière identique aux valeurs correspondantes
positifs, sauf que le score est normalisé. Les valeurs positives existent principalement
pour des raisons de compatibilité et ne sont pas si utiles.

sautercmp entier (encodage, vidéo)
Définir la fonction de comparaison de saut de trame.

Valeurs possibles:

triste somme des différences absolues, rapide (par défaut)

sse somme des erreurs au carré

triste
somme des différences absolues transformées par Hadamard

dct somme des différences absolues transformées en DCT

psnr
somme des erreurs de quantification au carré (à éviter, mauvaise qualité)

Bits nombre de bits nécessaires pour le bloc

rd taux de distorsion optimal, lent

zéro
0

vsad
somme des différences verticales absolues

vssse
somme des différences verticales au carré

NSSE
somme des différences au carré préservant le bruit

w53 5/3 ondelettes, utilisé uniquement dans la neige

w97 9/7 ondelettes, utilisé uniquement dans la neige

dctmax
chroma
masque_frontière flotter (encodage, vidéo)
Augmentez le quantificateur pour les macroblocs proches des bordures.

mblmin entier (encodage, vidéo)
Définir le facteur de lagrange du macrobloc minimal (VBR).

mblmax entier (encodage, vidéo)
Définissez le facteur de décalage maximal du macrobloc (VBR).

mepc entier (encodage, vidéo)
Définir la compensation de pénalité de débit binaire d'estimation de mouvement (1.0 = 256).

skip_loop_filter entier (décodage, vidéo)
skip_idct entier (décodage, vidéo)
sauter_frame entier (décodage, vidéo)
Faire en sorte que le décodeur rejette le traitement en fonction du type de trame sélectionné par l'option
valeur.

skip_loop_filter saute le filtrage de boucle de trame, skip_idct saute le cadre
IDCT/déquantification, sauter_frame saute le décodage.

Valeurs possibles:

aucun
Ne jetez aucun cadre.

défaut
Jetez les cadres inutiles comme les cadres de taille 0.

Noref
Jeter tous les cadres de non-référence.

bidir
Jeter toutes les trames bidirectionnelles.

non clé
Ignorez toutes les images à l'exception des images clés.

TOUTE Jeter tous les cadres.

La valeur par défaut est défaut.

bidir_affiner entier (encodage, vidéo)
Affiner les deux vecteurs de mouvement utilisés dans les macroblocs bidirectionnels.

échelle_brd entier (encodage, vidéo)
Des images à échelle réduite pour une décision dynamique d'image B.

keyint_min entier (encodage, vidéo)
Définir l'intervalle minimum entre les trames IDR.

réfs entier (encodage, vidéo)
Définissez les images de référence à prendre en compte pour la compensation de mouvement.

décalage chromatique entier (encodage, vidéo)
Définir le décalage qp de la chrominance par rapport à la luminance.

treillis entier (encodage, audio, vidéo)
Définir la quantification optimale de taux-distorsion.

sc_facteur entier (encodage, vidéo)
Définir la valeur multipliée par qscale pour chaque image et ajoutée à scene_change_score.

mv0_seuil entier (encodage, vidéo)
b_sensibilité entier (encodage, vidéo)
Ajustez la sensibilité de b_frame_strategy 1.

niveau_compression entier (encodage, audio, vidéo)
min_prediction_order entier (encodage, son)
max_prediction_order entier (encodage, son)
timecode_frame_start entier (encodage, vidéo)
Définissez le numéro de début de l'image du timecode GOP, au format non drop frame.

requête_canaux entier (décodage, son)
Définissez le nombre souhaité de canaux audio.

bits_per_raw_sample entier
canal_layout entier (décodage/encodage, audio)
Valeurs possibles:

requête_channel_layout entier (décodage, son)
Valeurs possibles:

rc_max_vbv_use flotter (encodage, vidéo)
rc_min_vbv_use flotter (encodage, vidéo)
ticks_per_frame entier (décodage/encodage, audio, vidéo)
color_primaires entier (décodage/encodage, vidéo)
couleur_trc entier (décodage/encodage, vidéo)
espace de couleurs entier (décodage/encodage, vidéo)
gamme de couleurs entier (décodage/encodage, vidéo)
S'il est utilisé comme paramètre d'entrée, il sert d'indice au décodeur, quelle color_range le
entrée a.

chroma_sample_location entier (décodage/encodage, vidéo)
log_level_offset entier
Définissez le décalage de niveau de journal.

tranches entier (encodage, vidéo)
Nombre de tranches, utilisé dans l'encodage parallélisé.

type_thread drapeaux (décodage/encodage, vidéo)
Sélectionnez les méthodes de multithreading à utiliser.

L'utilisation de cadre augmentera le délai de décodage d'une trame par thread, de sorte que les clients qui
ne peut pas fournir de futures trames ne doit pas l'utiliser.

Valeurs possibles:

tranche
Décodez plus d'une partie d'une même image à la fois.

Le multithreading à l'aide de tranches ne fonctionne que lorsque la vidéo a été encodée avec des tranches.

cadre
Décodez plus d'une image à la fois.

La valeur par défaut est tranche+cadre.

type_service_audio entier (encodage, son)
Définir le type de service audio.

Valeurs possibles:

ma Service audio principal

ef Effets

vi Malvoyant

hi Malentendant

di Dialogue

co Commentaire

em Urgence Dentaire

vo Voice Over

ka Karaoke

requête_sample_fmt échantillon_fmt (décodage, son)
Définir le format d'échantillon que les décodeurs audio devraient préférer. La valeur par défaut est "aucun".

pkt_timebase rationnel nombre
sous_charenc codage (décodage, sous-titres)
Définissez l'encodage des caractères des sous-titres d'entrée.

field_order field_order (vidéo)
Définir/remplacer l'ordre des champs de la vidéo. Valeurs possibles:

progressif
Vidéo progressive

tt Vidéo entrelacée, champ supérieur codé et affiché en premier

bb Vidéo entrelacée, champ inférieur codé et affiché en premier

tb Vidéo entrelacée, codée en haut en premier, affichée en bas en premier

bt Vidéo entrelacée, le bas codé en premier, le haut affiché en premier

sauter_alpha entier (décodage, vidéo)
Réglez sur 1 pour désactiver le traitement alpha (transparence). Cela fonctionne comme le gris drapeau dans
le drapeaux option qui ignore les informations de chrominance au lieu de l'alpha. La valeur par défaut est 0.

codec_whitelist liste (contribution)
"," séparé Liste des décodeurs autorisés. Par défaut, tous sont autorisés.

dump_separator un magnifique (contribution)
Séparateur utilisé pour séparer les champs imprimés sur la ligne de commande concernant le Stream
paramètres. Par exemple pour séparer les champs avec des sauts de ligne et un retrait :

ffprobe -dump_separator "
" -je ~/videos/matrixbench_mpeg2.mpg

DÉCODEUR


Les décodeurs sont des éléments configurés dans FFmpeg qui permettent le décodage de flux multimédia.

Lorsque vous configurez votre build FFmpeg, tous les décodeurs natifs pris en charge sont activés par
défaut. Les décodeurs nécessitant une bibliothèque externe doivent être activés manuellement via le
option "--enable-lib" correspondante. Vous pouvez lister tous les décodeurs disponibles en utilisant le
configurez l'option "--list-decoders".

Vous pouvez désactiver tous les décodeurs avec l'option de configuration "--disable-decoders" et
activer/désactiver sélectivement les décodeurs uniques avec les options "--enable-decoder=DECODEUR" /
"--disable-decoder=DECODEUR".

L'option "-decoders" des outils ff* affichera la liste des décodeurs activés.

VIDÉO DÉCODEUR


Une description de certains des décodeurs vidéo actuellement disponibles suit.

Hevc
Décodeur HEVC/H.265.

Noter la skip_loop_filter L'option n'a d'effet qu'au niveau "tout".

vidéo brute
Décodeur vidéo brut.

Ce décodeur décode les flux vidéo bruts.

Options

top top_field_first
Spécifiez le type de champ supposé de la vidéo d'entrée.

-1 la vidéo est supposée progressive (par défaut)

0 bottom-field-first est supposé

1 top-field-first est supposé

AUDIO DÉCODEUR


Une description de certains des décodeurs audio actuellement disponibles suit.

ac3
Décodeur audio AC-3.

Ce décodeur implémente une partie de l'ATSC A/52:2010 et de l'ETSI TS 102 366, ainsi que le
RealAudio 3 (alias dnet) sans papiers.

AC-3 Décodeur Options

-drc_scale Plus-value
Facteur d'échelle de plage dynamique. Le facteur à appliquer aux valeurs de plage dynamique de l'AC-3
flux. Ce facteur est appliqué de façon exponentielle. Il y a 3 facteurs d'échelle notables
gammes:

drc_scale == 0
RDC désactivé. Produit une gamme audio complète.

0 < drc_scale <= 1
RDC activé. Applique une fraction de la valeur DRC du flux. La reproduction audio est
entre la gamme complète et la compression complète.

drc_scale > 1
RDC activé. Applique drc_scale de manière asymétrique. Les sons forts sont entièrement compressés.
Les sons doux sont améliorés.

flac
Décodeur audio FLAC.

Ce décodeur vise à implémenter la spécification FLAC complète de Xiph.

FLAC Décodeur Options

-use_buggy_lpc
L'encodeur lavc FLAC utilisé pour produire des flux buggy avec des valeurs lpc élevées (comme le
valeur par défaut). Cette option permet de décoder correctement de tels flux en
en utilisant l'ancienne logique buggy lpc de lavc pour le décodage.

ffwavesynth
Synthétiseur d'ondes interne.

Ce décodeur génère des motifs d'ondes selon des séquences prédéfinies. Son utilisation est purement
interne et le format des données qu'il accepte n'est pas publiquement documenté.

Libcelt
wrapper de décodeur libcelt.

libcelt permet à libavcodec de décoder le codec audio à retard ultra-faible Xiph CELT. A besoin
la présence des en-têtes et de la bibliothèque libcelt lors de la configuration. Vous devez
configurer explicitement la construction avec "--enable-libcelt".

libgsm
wrapper de décodeur libgsm.

libgsm permet à libavcodec de décoder le codec audio GSM à plein débit. Nécessite la présence de
les en-têtes et la bibliothèque libgsm lors de la configuration. Vous devez explicitement configurer le
construire avec "--enable-libgsm".

Ce décodeur prend en charge à la fois le GSM ordinaire et la variante Microsoft.

liblbc
wrapper de décodeur libilbc.

libilbc permet à libavcodec de décoder le codec audio Internet Low Bitrate Codec (iLBC).
Nécessite la présence des en-têtes et de la bibliothèque libilbc lors de la configuration. Vous devez
configurer explicitement la construction avec "--enable-libilbc".

Options

L'option suivante est prise en charge par le wrapper libilbc.

de renforcer
Activer l'amélioration de l'audio décodé lorsqu'il est défini sur 1. La valeur par défaut est 0
(désactivée).

libopencore-amrnb
wrapper de décodeur libopencore-amrnb.

libopencore-amrnb permet à libavcodec de décoder l'audio Adaptive Multi-Rate Narrowband
codec. Son utilisation nécessite la présence des en-têtes et de la bibliothèque libopencore-amrnb pendant
configuration. Vous devez explicitement configurer le build avec
"--enable-libopencore-amrnb".

Un décodeur natif FFmpeg pour AMR-NB existe, donc les utilisateurs peuvent décoder AMR-NB sans cela
bibliothèque.

libopencore-amrwb
wrapper de décodeur libopencore-amrwb.

libopencore-amrwb permet à libavcodec de décoder l'audio large bande multi-débit adaptatif
codec. Son utilisation nécessite la présence des en-têtes et de la bibliothèque libopencore-amrwb pendant
configuration. Vous devez explicitement configurer le build avec
"--enable-libopencore-amrwb".

Un décodeur natif FFmpeg pour AMR-WB existe, donc les utilisateurs peuvent décoder AMR-WB sans cela
bibliothèque.

Libopus
wrapper de décodeur libopus.

libopus permet à libavcodec de décoder le codec audio interactif Opus. Nécessite le
présence des en-têtes et de la bibliothèque libopus lors de la configuration. Vous devez explicitement
configurer la construction avec "--enable-libopus".

Un décodeur natif FFmpeg pour Opus existe, donc les utilisateurs peuvent décoder Opus sans cette bibliothèque.

LES SOUS-TITRES DÉCODEUR


dvbsub
Options

calcul_clut
-1 Calculer le clut si aucun CLUT correspondant n'est dans le flux.

0 Ne jamais calculer CLUT

1 Calculez toujours CLUT et remplacez celui fourni dans le flux.

dvb_substream
Sélectionne le sous-flux dvb, ou tous les sous-flux si -1 qui est la valeur par défaut.

DVDSub
Ce codec décode les sous-titres bitmap utilisés dans les DVD ; les mêmes sous-titres peuvent également être trouvés
dans les paires de fichiers VobSub et dans certains fichiers Matroska.

Options

palette
Spécifiez la palette globale utilisée par les bitmaps. Lorsqu'elle est stockée dans VobSub, la palette est
normalement spécifié dans le fichier d'index ; dans Matroska, la palette est stockée dans le codec
extra-data dans le même format que dans VobSub. Dans les DVD, la palette est stockée dans l'IFO
fichier, et n'est donc pas disponible lors de la lecture à partir de fichiers VOB sous-évalués.

Le format de cette option est une chaîne contenant 16 nombres hexadécimaux de 24 bits
(sans préfixe 0x) séparés par des virgules, par exemple "0d00ee, ee450d, 101010, eaeaea,
0ce60b, ec14ed, ebff0b, 0d617a, 7b7b7b, d1d1d1, 7b2a0e, 0d950c, 0f007b, cf0dec,
cfa80c, 7c127b".

ifo_palette
Spécifiez le fichier IFO à partir duquel la palette globale est obtenue. (expérimental)

forcé_sous_seulement
Ne décodez que les entrées de sous-titres marquées comme forcées. Certains titres ont forcé et non forcé
sous-titres dans la même piste. Définir ce drapeau sur 1 ne conservera que le forçage
Les sous-titres. La valeur par défaut est 0.

libzvbi-télétexte
Libzvbi permet à libavcodec de décoder les pages de télétexte DVB et les sous-titres de télétexte DVB.
Nécessite la présence des en-têtes et de la bibliothèque libzvbi lors de la configuration. Vous devez
configurez explicitement la construction avec "--enable-libzvbi".

Options

page_txt
Liste des numéros de page télétexte à décoder. Vous pouvez utiliser la chaîne spéciale * pour faire correspondre tous
pages. Les pages qui ne correspondent pas à la liste spécifiée sont supprimées. La valeur par défaut est *.

txt_chop_top
Ignore la ligne télétexte supérieure. La valeur par défaut est 1.

format_txt
Spécifie le format des sous-titres décodés. Le décodeur télétexte est capable de
décoder les pages de télétexte en bitmaps ou en texte simple, vous devez utiliser "bitmap" pour
pages de télétexte, car certains graphiques et couleurs ne peuvent pas être exprimés en
texte. Vous pouvez utiliser "texte" pour les sous-titres basés sur le télétexte si votre application peut gérer
sous-titres basés sur du texte simple. La valeur par défaut est bitmap.

txt_gauche
Décalage X des bitmaps générés, la valeur par défaut est 0.

txt_top
Décalage Y des bitmaps générés, la valeur par défaut est 0.

txt_chop_spaces
Coupe les espaces de début et de fin et supprime les lignes vides du texte généré.
Cette option est utile pour les sous-titres basés sur le télétexte où des espaces vides peuvent être présents
au début ou à la fin des lignes ou des lignes vides peuvent être présentes entre les
lignes de sous-titres à cause des caractères télétexte de taille double. La valeur par défaut est 1.

txt_durée
Définit la durée d'affichage des pages de télétexte décodées ou des sous-titres en millisecondes.
La valeur par défaut est 30000, soit 30 secondes.

txt_transparent
Force l'arrière-plan transparent des bitmaps de télétexte générés. La valeur par défaut est 0
ce qui signifie un fond opaque (noir).

FLUX BITS FILTRES


Lorsque vous configurez votre build FFmpeg, tous les filtres de flux binaire pris en charge sont activés par
défaut. Vous pouvez lister tous ceux disponibles en utilisant l'option de configuration "--list-bsfs".

Vous pouvez désactiver tous les filtres de flux binaire en utilisant l'option de configuration "--disable-bsfs", et
activez sélectivement n'importe quel filtre de flux binaire en utilisant l'option "--enable-bsf=BSF", ou vous pouvez
désactiver un filtre de flux binaire particulier à l'aide de l'option "--disable-bsf=BSF".

L'option "-bsfs" des outils ff* affichera la liste de tous les bitstream supportés
filtres inclus dans votre build.

Les outils ff* ont une option -bsf appliquée par flux, prenant une liste séparée par des virgules de
les filtres, dont les paramètres suivent le nom du filtre après un '='.

ffmpeg -i INPUT -c:v copy -bsf:v filter1[=opt1=str1/opt2=str2][,filter2] SORTIE

Vous trouverez ci-dessous une description des filtres de flux binaire actuellement disponibles, avec leurs
paramètres, le cas échéant.

aac_adtstoasc
Convertir MPEG-2/4 AAC ADTS en filtre de flux binaire de configuration audio MPEG-4 spécifique.

Ce filtre crée un MPEG-4 AudioSpecificConfig à partir d'un en-tête MPEG-2/4 ADTS et supprime
l'en-tête ADTS.

Ceci est requis par exemple lors de la copie d'un flux AAC d'un conteneur ADTS AAC brut vers un
FLV ou un fichier MOV/MP4.

chomp
Supprimer le remplissage zéro à la fin d'un paquet.

dump_extra
Ajoutez des données supplémentaires au début des paquets filtrés.

L'argument supplémentaire spécifie quels paquets doivent être filtrés. Il accepte le
valeurs:

a ajouter des données supplémentaires à tous les paquets clés, mais seulement si en-tête_local est situé dans le flags2 codec
champ de contexte

k ajouter des données supplémentaires à tous les paquets clés

e ajouter des données supplémentaires à tous les paquets

Si non spécifié, il est supposé k.

Par exemple ce qui suit ffmpeg commande force un en-tête global (désactivant ainsi
en-têtes de paquets) dans les paquets H.264 générés par l'encodeur "libx264", mais les corrige
en ajoutant l'en-tête stocké dans extradata aux paquets clés :

ffmpeg -i INPUT -map 0 -flags:v +global_header -c:v libx264 -bsf:v dump_extra out.ts

h264_mp4toannexb
Convertissez un flux binaire H.264 du mode préfixé de longueur pour démarrer le mode préfixé de code (comme
défini dans l'annexe B de la spécification UIT-T H.264).

Ceci est requis par certains formats de streaming, généralement le format de flux de transport MPEG-2
("mpegts").

Par exemple pour remixer un fichier MP4 contenant un flux H.264 au format mpegts avec ffmpeg,
tu peux utiliser la commande :

ffmpeg -i INPUT.mp4 -copie du codec -bsf:v h264_mp4toannexb OUTPUT.ts

imxdump
Modifie le flux binaire pour qu'il s'adapte au MOV et soit utilisable par le décodeur Final Cut Pro. Cette
le filtre ne s'applique qu'au codec mpeg2video et n'est probablement pas nécessaire pour Final Cut Pro 7
et plus récent avec le -balise:v.

Par exemple, pour remixer 30 Mo/s NTSC IMX en MOV :

ffmpeg -i input.mxf -c copy -bsf:v imxdump -tag:v mx3n output.mov

mjpeg2jpeg
Convertissez les paquets MJPEG/AVI1 en paquets JPEG/JFIF complets.

MJPEG est un codec vidéo dans lequel chaque image vidéo est essentiellement une image JPEG. Les
des trames individuelles peuvent être extraites sans perte, par ex.

ffmpeg -i ../some_mjpeg.avi -c:v copie frames_%d.jpg

Malheureusement, ces morceaux sont des images JPEG incomplètes, car il leur manque le segment DHT
nécessaire au décodage. Citation de
<http://www.digitalpreservation.gov/formats/fdd/fdd000063.shtml>:

Avery Lee, écrivant dans le groupe de discussion rec.video.desktop en 2001, a déclaré que « MJPEG, ou
au moins le MJPEG dans les AVI ayant le MJPG fourcc, est restreint JPEG avec un fixe -- et
*omis* -- table de Huffman. Le JPEG doit être un espace colorimétrique YCbCr, il doit être de 4:2:2, et il
doit utiliser l'encodage Huffman de base, pas arithmétique ou progressif. . . . Vous pouvez en effet
extraire les images MJPEG et les décoder avec un décodeur JPEG ordinaire, mais vous devez
ajoutez-leur le segment DHT, sinon le décodeur n'aura aucune idée de comment décompresser
les données. La table exacte nécessaire est donnée dans la spécification OpenDML."

Ce filtre bitstream corrige l'en-tête des trames extraites d'un flux MJPEG
(portant l'ID d'en-tête AVI1 et sans segment DHT) pour produire un JPEG entièrement qualifié
images.

ffmpeg -i mjpeg-movie.avi -c:v copie -bsf:v mjpeg2jpeg frame_%d.jpg
exiftran -i -9 cadre*.jpg
ffmpeg -i frame_%d.jpg -c:v copie tournée.avi

mjpega_dump_header
movsub
mp3_header_decompress
mpeg4_unpack_bframes
Déballez les images B compressées de style DivX.

Les images B compressées de style DivX ne sont pas des MPEG-4 valides et n'étaient qu'une solution de contournement pour les
Vidéo pour le sous-système Windows. Ils utilisent plus d'espace, peuvent causer des problèmes mineurs de synchronisation AV, nécessitent
plus de puissance CPU pour décoder (à moins que le lecteur n'ait une file d'attente d'images décodées pour compenser
le style de trame 2,0,2,0 par paquet) et causer des problèmes s'il est copié dans un conteneur standard
comme mp4 ou mpeg-ps/ts, car les décodeurs MPEG-4 peuvent ne pas être en mesure de les décoder, car ils
ne sont pas valides MPEG-4.

Par exemple pour réparer un fichier AVI contenant un flux MPEG-4 avec des images B compressées de style DivX
en utilisant ffmpeg, vous pouvez utiliser la commande :

ffmpeg -i INPUT.avi -copie du codec -bsf:v mpeg4_unpack_bframes OUTPUT.avi

bruit
Endommage le contenu des paquets sans endommager le conteneur. Peut être utilisé pour le fuzzing ou
tester la résilience/dissimulation des erreurs.

Paramètres : une chaîne numérique, dont la valeur est liée à la fréquence à laquelle les octets de sortie seront
modifié. Par conséquent, les valeurs inférieures ou égales à 0 sont interdites, et plus
les octets fréquents seront modifiés, avec 1 signifiant que chaque octet est modifié.

ffmpeg -i INPUT -c copie -bsf bruit[=1] sortie.mkv

applique la modification à chaque octet.

supprimer_extra

Format OPTIONS


La bibliothèque libavformat fournit des options globales génériques, qui peuvent être définies sur tous les
multiplexeurs et démultiplexeurs. De plus, chaque multiplexeur ou démultiplexeur peut prendre en charge les soi-disant privés
options, qui sont spécifiques à ce composant.

Les options peuvent être définies en spécifiant -option Plus-value dans les outils FFmpeg, ou en définissant le
valeur explicitement dans les options "AVFormatContext" ou en utilisant le libavutil/opt.h API pour
utilisation programmatique.

La liste des options prises en charge est la suivante :

drapeaux aviateurs drapeaux (entrée sortie)
Valeurs possibles:


Réduire la mise en mémoire tampon.

taille de la sonde entier (contribution)
Définir la taille de sondage en octets, c'est-à-dire la taille des données à analyser pour obtenir le flux
informations. Une valeur plus élevée permettra de détecter plus d'informations au cas où
dispersé dans le flux, mais augmentera la latence. Doit être un nombre entier non inférieur
que 32. C'est 5000000 par défaut.

taille de paquet entier (sortie)
Définir la taille du paquet.

drapeaux drapeaux (entrée sortie)
Définir des indicateurs de format.

Valeurs possibles:

ignidx
Ignorer l'index.

recherche rapide
Activez les recherches rapides mais inexactes pour certains formats.

Genpts
Générer PTS.

pas de remplissage
Ne remplissez pas les valeurs manquantes qui peuvent être calculées exactement.

pas d'analyse
Désactivez AVParsers, cela nécessite également "+nofillin".

igndts
Ignorer DTS.

jetercorrompu
Jeter les images corrompues.

trier
Essayez d'entrelacer les paquets de sortie par DTS.

donjon
Ne fusionnez pas les données secondaires.

latitude
Activez la charge utile RTP MP4A-LATM.

pas de tampon
Réduire la latence introduite par la mise en mémoire tampon facultative

bitexact
N'écrivez que des données indépendantes de la plate-forme, de la construction et du temps. Cela garantit que le fichier
et les sommes de contrôle des données sont reproductibles et correspondent entre les plates-formes. Son utilisation principale
est pour les tests de régression.

chercher2tout entier (contribution)
Autoriser la recherche d'images non-clés au niveau du démultiplexeur lorsqu'il est pris en charge s'il est défini sur 1. Par défaut
est 0.

durée analysée entier (contribution)
Spécifiez combien de microsecondes sont analysées pour sonder l'entrée. Une valeur plus élevée sera
permettre de détecter des informations plus précises, mais augmentera la latence. Il est par défaut
5,000,000 5 XNUMX microsecondes = XNUMX secondes.

clé de chiffrement hexadécimal un magnifique (contribution)
Définir la clé de déchiffrement.

indexmem entier (contribution)
Définir la mémoire maximale utilisée pour l'index d'horodatage (par flux).

rtbufsize entier (contribution)
Définissez la mémoire maximale utilisée pour la mise en mémoire tampon des trames en temps réel.

fdebug drapeaux (entrée sortie)
Imprimer des informations de débogage spécifiques.

Valeurs possibles:

ts
délai_max entier (entrée sortie)
Définissez le délai de multiplexage ou de démultiplexage maximal en microsecondes.

fpsrobesize entier (contribution)
Définir le nombre d'images utilisées pour sonder les fps.

audio_preload entier (sortie)
Définissez les microsecondes auxquelles les paquets audio doivent être entrelacés plus tôt.

durée_morceau entier (sortie)
Définissez des microsecondes pour chaque morceau.

taille_morceau entier (sortie)
Définir la taille en octets pour chaque morceau.

err_detect, f_err_detect drapeaux (contribution)
Définir des indicateurs de détection d'erreur. "f_err_detect" est obsolète et ne doit être utilisé que via
le ffmpeg outil.

Valeurs possibles:

vérifier
Vérifiez les CRC intégrés.

flux binaire
Détectez les écarts de spécification du flux binaire.

tampon
Détecter une longueur de flux binaire incorrecte.

exploser
Abandonner le décodage en cas de détection d'erreur mineure.

prudent
Considérez les choses qui violent les spécifications et n'ont pas été vues dans la nature comme
erreurs.


Considérez toutes les non-conformités aux spécifications comme des erreurs.

agressif
Considérez les choses qu'un encodeur sensé ne devrait pas faire comme une erreur.

max_interleave_delta entier (sortie)
Définir la durée maximale de mise en mémoire tampon pour l'entrelacement. La durée est exprimée en
microsecondes et par défaut à 1000000 (1 seconde).

Pour s'assurer que tous les flux sont correctement entrelacés, libavformat attendra jusqu'à ce qu'il
a au moins un paquet pour chaque flux avant d'écrire réellement des paquets dans le
fichier de sortie. Lorsque certains cours d'eau sont « clairsemés » (c'est-à-dire qu'il y a de grands écarts entre
paquets successifs), cela peut entraîner une mise en mémoire tampon excessive.

Ce champ spécifie la différence maximale entre les horodatages du premier et
le dernier paquet dans la file d'attente de multiplexage, au-dessus duquel libavformat produira un paquet
indépendamment du fait qu'il ait mis en file d'attente un paquet pour tous les flux.

S'il est défini sur 0, libavformat continuera à mettre les paquets en mémoire tampon jusqu'à ce qu'il ait un paquet pour
chaque flux, quelle que soit la différence d'horodatage maximale entre les
paquets.

use_wallclock_as_timestamps entier (contribution)
Utilisez l'horloge murale comme horodatage.

éviter_negative_ts entier (sortie)
Valeurs possibles:

make_non_negative
Décalez les horodatages pour les rendre non négatifs. Notez également que cela n'affecte que
des horodatages négatifs en tête et non des horodatages négatifs non monotones.

make_zéro
Décalez les horodatages de sorte que le premier horodatage soit 0.

auto (Par défaut)
Permet le décalage lorsque requis par le format cible.

handicapé
Désactive le décalage de l'horodatage.

Lorsque le décalage est activé, tous les horodatages de sortie sont décalés du même montant. L'audio,
la désynchronisation de la vidéo et des sous-titres et les différences d'horodatage relatives sont préservées
par rapport à ce qu'ils auraient été sans changement.

skip_initial_bytes entier (contribution)
Définissez le nombre d'octets à ignorer avant de lire l'en-tête et les trames s'il est défini sur 1. La valeur par défaut est
0.

correct_ts_overflow entier (contribution)
Corrigez les dépassements d'horodatage unique s'il est défini sur 1. La valeur par défaut est 1.

flush_packets entier (sortie)
Videz le flux d'E/S sous-jacent après chaque paquet. La valeur par défaut 1 l'active et a le
effet de réduction de la latence ; 0 le désactive et peut légèrement augmenter les performances dans
certains cas.

sortie_ts_offset compenser (sortie)
Réglez le décalage de temps de sortie.

compenser doit être une spécification de durée, voir le Temps durée in le
ffmpeg-utils(1) Manuel.

Le décalage est ajouté par le multiplexeur aux horodatages de sortie.

Spécifier un décalage positif signifie que les flux correspondants sont retardés par le
durée spécifiée dans compenser. La valeur par défaut est 0 (ce qui signifie qu'aucun décalage n'est
appliqué).

format_liste blanche liste (contribution)
"," séparé Liste des démultiplexeurs autorisés. Par défaut, tous sont autorisés.

dump_separator un magnifique (contribution)
Séparateur utilisé pour séparer les champs imprimés sur la ligne de commande concernant le Stream
paramètres. Par exemple pour séparer les champs avec des sauts de ligne et un retrait :

ffprobe -dump_separator "
" -je ~/videos/matrixbench_mpeg2.mpg

Format courant spécificateurs
Les spécificateurs de flux de format permettent de sélectionner un ou plusieurs flux qui correspondent à des
.

Les formes possibles de spécificateurs de flux sont :

index_flux
Correspond au flux avec cet index.

type_flux[:index_flux]
type_flux est l'un des suivants : « v » pour la vidéo, « a » pour l'audio, « s » pour les sous-titres, « d »
pour les données et 't' pour les pièces jointes. Si index_flux est donné, alors il correspond à la
numéro de flux index_flux de ce type. Sinon, il correspond à tous les flux de ce
type.

p:id_programme[:index_flux]
If index_flux est donné, alors il correspond au flux avec le numéro index_flux dans l'
programme avec l'identifiant id_programme. Sinon, il correspond à tous les flux du programme.

#id_flux
Correspond au flux par un ID spécifique au format.

La sémantique exacte des spécificateurs de flux est définie par le
Fonction "avformat_match_stream_specifier()" déclarée dans le libavformat/avformat.h
en-tête.

DEMUXER


Les démultiplexeurs sont des éléments configurés dans FFmpeg qui peuvent lire les flux multimédias à partir d'un
type de fichier particulier.

Lorsque vous configurez votre build FFmpeg, tous les démultiplexeurs pris en charge sont activés par défaut.
Vous pouvez lister tous ceux disponibles en utilisant l'option de configuration "--list-demuxers".

Vous pouvez désactiver tous les démultiplexeurs en utilisant l'option de configuration "--disable-demuxers", et
activer sélectivement un seul démultiplexeur avec l'option "--enable-demuxer=DEMUXER", ou désactiver
avec l'option "--disable-demuxer=DEMUXER".

L'option "-formats" des outils ff* affichera la liste des démultiplexeurs activés.

La description de certains des démultiplexeurs actuellement disponibles suit.

aa
Démultiplexeur Audible Format 2, 3 et 4.

Ce démultiplexeur est utilisé pour démultiplexer les fichiers Audible Format 2, 3 et 4 (.aa).

pommehttp
Démultiplexeur Apple HTTP Live Streaming.

Ce démultiplexeur présente tous les AVStreams de toutes les variantes de flux. Le champ id est défini sur le
numéro d'index de variante de débit binaire. En définissant les drapeaux de suppression sur AVStreams (en appuyant sur « a »
ou 'v' dans ffplay), l'appelant peut décider quelles variantes de flux recevoir réellement. Les
le débit binaire total de la variante à laquelle appartient le flux est disponible dans une clé de métadonnées
nommé "variant_bitrate".

apng
Démultiplexeur de graphiques réseau portables animés.

Ce démultiplexeur est utilisé pour démultiplexer les fichiers APNG. Tous les en-têtes, sauf la signature PNG, jusqu'à (mais
non compris) le premier bloc fcTL est transmis en tant que données supplémentaires. Les cadres sont ensuite divisés
comme étant tous les morceaux entre deux fcTL, ou entre les derniers morceaux fcTL et IEND.

-ignorer_loop bool
Ignorez la variable de boucle dans le fichier si elle est définie.

-max_fps int
Fréquence d'images maximale en images par seconde (0 pour aucune limite).

-default_fps int
Fréquence d'images par défaut en images par seconde lorsqu'aucune n'est spécifiée dans le fichier (0 signifiant
aussi vite que possible).

asf
Démultiplexeur Advanced Systems Format.

Ce démultiplexeur est utilisé pour démultiplexer les fichiers ASF et les flux réseau MMS.

-no_resync_search bool
N'essayez pas de resynchroniser en recherchant un certain code de démarrage facultatif.

concat
Démultiplexeur de script de concaténation virtuel.

Ce démultiplexeur lit une liste de fichiers et d'autres directives à partir d'un fichier texte et les démultiplexe
l'un après l'autre, comme si tout leur paquet avait été mêlé.

Les horodatages dans les fichiers sont ajustés de sorte que le premier fichier commence à 0 et chaque suivant
le fichier commence là où le précédent se termine. Notez que cela est fait globalement et peut causer
lacunes si tous les flux n'ont pas exactement la même longueur.

Tous les fichiers doivent avoir les mêmes flux (mêmes codecs, même base de temps, etc.).

La durée de chaque fichier permet d'ajuster les horodatages du fichier suivant : si le
la durée est incorrecte (parce qu'elle a été calculée en utilisant le débit binaire ou parce que le fichier est
tronqué, par exemple), il peut provoquer des artefacts. La directive "duration" peut être utilisée pour
remplacer la durée stockée dans chaque fichier.

Syntaxe

Le script est un fichier texte en ASCII étendu, avec une directive par ligne. Lignes vides,
les espaces et les lignes commençant par '#' sont ignorés. La directive suivante est
reconnu:

"déposer chemin"
Chemin d'accès à un fichier à lire ; les caractères spéciaux et les espaces doivent être échappés avec une barre oblique inverse
ou des guillemets simples.

Toutes les directives ultérieures relatives au fichier s'appliquent à ce fichier.

"ffconcat version 1.0
Identifiez le type et la version du script. Il définit également le des option à 1 si c'était à
sa valeur par défaut -1.

Pour que FFmpeg reconnaisse automatiquement le format, cette directive doit apparaître exactement
tel quel (pas d'espace supplémentaire ni de marque d'ordre d'octet) sur la toute première ligne du script.

"durée majeur"
Durée du fichier. Ces informations peuvent être spécifiées à partir du fichier ; en le précisant
ici peut être plus efficace ou aider si les informations du fichier ne sont pas disponibles
ou précis.

Si la durée est fixée pour tous les fichiers, alors il est possible de chercher dans l'ensemble
vidéo concaténée.

" indiquer horodatage"
Au point du fichier. Lorsque le démultiplexeur ouvre le fichier, il recherche instantanément le
horodatage spécifié. La recherche est effectuée afin que tous les flux puissent être présentés avec succès
au point In.

Cette directive fonctionne mieux avec les codecs intra-trame, car pour ceux qui ne sont pas intra-trame
vous obtiendrez généralement des paquets supplémentaires avant le point d'entrée réel et le contenu décodé
contiendra très probablement des images avant le point In aussi.

Pour chaque fichier, les paquets avant le point d'entrée du fichier auront des horodatages inférieurs au
horodatage de début calculé du fichier (négatif dans le cas du premier fichier), et le
la durée des fichiers (si non spécifiée par la directive "duration") sera réduite
en fonction de leur point In spécifié.

En raison des paquets potentiels avant le point d'entrée spécifié, les horodatages des paquets peuvent
chevauchement entre deux fichiers concaténés.

"point de sortie horodatage"
Point de sortie du fichier. Lorsque le démultiplexeur atteint l'horodatage de décodage spécifié dans
l'un des flux, il le traite comme une condition de fin de fichier et ignore le courant
et tous les paquets restants de tous les flux.

Le point de sortie est exclusif, ce qui signifie que le démultiplexeur ne produira pas de paquets avec un
horodatage de décodage supérieur ou égal au point de sortie.

Cette directive fonctionne mieux avec les codecs et formats intra-trame où tous les flux sont
étroitement imbriqué. Pour les codecs non intra-frame, vous obtiendrez généralement des
paquets avec l'horodatage de présentation après le point de sortie, donc le contenu décodé sera
contiennent probablement aussi des images après le point de sortie. Si vos flux ne sont pas étroitement
entrelacé, vous ne pouvez pas obtenir tous les paquets de tous les flux avant le point de sortie et vous
may ne pourra décoder que le premier flux jusqu'au point de sortie.

La durée des fichiers (si elle n'est pas spécifiée par la directive "duration") sera
réduit en fonction de leur point de sortie spécifié.

"file_packet_metadata key ="
Métadonnées des paquets du fichier. Les métadonnées spécifiées seront définies pour chaque fichier
paquet. Vous pouvez spécifier cette directive plusieurs fois pour ajouter plusieurs métadonnées
entrées.

"flux"
Introduisez un flux dans le fichier virtuel. Toutes les directives ultérieures liées au flux
s'appliquent au dernier flux introduit. Certaines propriétés de flux doivent être définies afin de
permettent d'identifier les flux correspondants dans les sous-fichiers. Si aucun flux n'est défini dans
le script, les flux du premier fichier sont copiés.

"exact_stream_id id"
Définissez l'identifiant du flux. Si cette directive est donnée, la chaîne avec le
L'identifiant correspondant dans les sous-fichiers sera utilisé. Ceci est particulièrement utile pour MPEG-PS
(VOB), où l'ordre des flux n'est pas fiable.

Options

Ce démultiplexeur accepte l'option suivante :

des
S'il est défini sur 1, rejetez les chemins de fichiers non sécurisés. Un chemin de fichier est considéré comme sûr s'il ne
contiennent une spécification de protocole et sont relatifs et tous les composants ne contiennent que
caractères du jeu de caractères portable (lettres, chiffres, point, trait de soulignement et
trait d'union) et n'ont pas de point au début d'un composant.

S'il est défini sur 0, tout nom de fichier est accepté.

La valeur par défaut est -1, elle équivaut à 1 si le format a été automatiquement sondé et 0
autrement.

conversion_auto
S'il est défini sur 1, essayez d'effectuer des conversions automatiques sur les données par paquets pour rendre les flux
concaténable. La valeur par défaut est 1.

Actuellement, la seule conversion consiste à ajouter le filtre de flux binaire h264_mp4toannexb à
Flux H.264 au format MP4. Ceci est nécessaire en particulier s'il y a résolution
changements.

flv
Démultiplexeur Adobe Flash Video Format.

Ce démultiplexeur est utilisé pour démultiplexer les fichiers FLV et les flux réseau RTMP.

-flv_metadonnées bool
Allouez les flux en fonction du contenu du tableau onMetaData.

libgme
La bibliothèque Game Music Emu est une collection d'émulateurs de fichiers musicaux de jeux vidéo.

Voirhttp://code.google.com/p/game-music-emu/> pour plus d'informations.

Certains fichiers ont plusieurs pistes. Le démultiplexeur choisira la première piste par défaut. Les
track_index L'option peut être utilisée pour sélectionner une piste différente. Les index de piste commencent à 0. Le
demuxer exporte le nombre de pistes comme vos titres saisie de métadonnées.

Pour les fichiers très volumineux, le taille max l'option peut devoir être ajustée.

libquvi
Lisez des médias à partir de services Internet à l'aide du projet quvi.

Le démultiplexeur accepte un le format possibilité de demander une qualité spécifique. Il est défini par défaut sur
les meilleurs.

Voirhttp://quvi.sourceforge.net/> pour plus d'informations.

FFmpeg doit être construit avec "--enable-libquvi" pour que ce démultiplexeur soit activé.

gif
Démultiplexeur GIF animé.

Il accepte les options suivantes :

délai_min
Définissez le délai minimum valide entre les images en centièmes de secondes. La plage est de 0 à
6000. La valeur par défaut est 2.

max_gif_delay
Définissez le délai maximum valide entre les images en centièmes de seconde. La plage est de 0 à
65535. La valeur par défaut est 65535 (près de onze minutes), la valeur maximale autorisée par
la spécification.

délai_par défaut
Définissez le délai par défaut entre les images en centièmes de secondes. La plage est de 0 à 6000.
La valeur par défaut est 10.

ignorer_loop
Les fichiers GIF peuvent contenir des informations à boucler un certain nombre de fois (ou à l'infini).
If ignorer_loop est défini sur 1, alors le paramètre de boucle de l'entrée sera ignoré et
la boucle ne se produira pas. S'il est défini sur 0, une boucle se produira et fera cycler le nombre
de fois selon le GIF. La valeur par défaut est 1.

Par exemple, avec le filtre de superposition, placez un GIF en boucle infinie sur une autre vidéo :

ffmpeg -i input.mp4 -ignore_loop 0 -i input.gif -filter_complex overlay=shortest=1 out.mkv

Notez que dans l'exemple ci-dessus, l'option la plus courte pour le filtre de superposition est utilisée pour terminer le
sortie vidéo à la longueur du fichier d'entrée le plus court, qui dans ce cas est entrée.mp4 as
le GIF dans cet exemple boucle à l'infini.

image2
Démultiplexeur de fichiers image.

Ce démultiplexeur lit à partir d'une liste de fichiers image spécifiés par un modèle. La syntaxe et
la signification du motif est spécifiée par l'option Type de motif.

Le modèle peut contenir un suffixe qui est utilisé pour déterminer automatiquement le format de
les images contenues dans les fichiers.

La taille, le format de pixel et le format de chaque image doivent être les mêmes pour tous les
fichiers dans la séquence.

Ce démultiplexeur accepte les options suivantes :

framerate
Définissez la fréquence d'images pour le flux vidéo. La valeur par défaut est 25.

boucle
S'il est défini sur 1, boucle sur l'entrée. La valeur par défaut est 0.

Type de motif
Sélectionnez le type de modèle utilisé pour interpréter le nom de fichier fourni.

Type de motif accepte l'une des valeurs suivantes.

aucun
Désactivez la correspondance de modèle, donc la vidéo ne contiendra que le spécifié
image. Vous devez utiliser cette option si vous ne souhaitez pas créer de séquences à partir de
plusieurs images et vos noms de fichiers peuvent contenir des caractères de motif spéciaux.

séquence
Sélectionnez un type de modèle de séquence, utilisé pour spécifier une séquence de fichiers indexés par
numéros séquentiels.

Un modèle de séquence peut contenir la chaîne "%d" ou "%0Nd", qui précise le
position des caractères représentant un numéro séquentiel dans chaque nom de fichier
correspond au motif. Si la forme "%d0Nd" est utilisé, la chaîne représentant le
le numéro dans chaque nom de fichier est complété par 0 et N est le nombre total de chiffres complétés par 0
représentant le nombre. Le caractère littéral '%' peut être spécifié dans le modèle
avec la chaîne "%%".

Si le modèle de séquence contient "%d" ou "%0Nd", le premier nom de fichier du fichier
la liste spécifiée par le modèle doit contenir un nombre compris entre
numéro_début ainsi que numéro_début+start_number_range-1, et tous les nombres suivants
doit être séquentiel.

Par exemple, le modèle "img-%03d.bmp" correspondra à une séquence de noms de fichiers du
formulaire img-001.bmp, img-002.bmp, ..., img-010.bmp, etc.; le motif
"i%%m%%g-%d.jpg" loading="lazy" correspondra à une séquence de noms de fichiers de la forme je%m%g-1.jpg,
je%m%g-2.jpg, ..., je%m%g-10.jpg, etc.

Notez que le motif ne doit pas nécessairement contenir "%d" ou "%0Nd", par exemple pour
convertir un seul fichier image img.jpeg vous pouvez utiliser la commande :

ffmpeg -i img.jpeg img.png

glob
Sélectionnez un type de motif générique glob.

Le motif est interprété comme un motif "glob()". Ceci n'est sélectionnable que si
libavformat a été compilé avec le support du globbing.

glob_séquence (obsolète, sera be supprimé)
Sélectionnez un modèle mixte de caractère générique/séquence.

Si votre version de libavformat a été compilée avec le support du globbing, et que le
à condition que le modèle contienne au moins un caractère méta glob parmi "%*?[]{}" qui est
précédé d'un "%" non échappé, le motif est interprété comme un motif "glob()",
sinon, il est interprété comme un motif de séquence.

Tous les caractères spéciaux glob "%*?[]{}" doivent être préfixés par "%". Pour échapper à un
littéral "%" vous devez utiliser "%%".

Par exemple, le modèle "foo-%*.jpeg" correspondra à tous les noms de fichiers préfixés par
"foo-" et se terminant par ".jpeg", et "foo-%?%?%?.jpeg" correspondra à tous les
les noms de fichiers préfixés par "foo-", suivis d'une séquence de trois caractères, et
se terminant par ".jpeg".

Ce type de modèle est déconseillé au profit de glob ainsi que séquence.

La valeur par défaut est glob_séquence.

format_pixel
Définissez le format de pixel des images à lire. S'il n'est pas spécifié, le format de pixel est
deviné à partir du premier fichier image de la séquence.

numéro_début
Définissez l'index du fichier correspondant au modèle de fichier image à partir duquel commencer la lecture.
La valeur par défaut est 0.

start_number_range
Définissez la plage d'intervalles d'indexation à vérifier lors de la recherche du premier fichier image dans le
séquence, à partir de numéro_début. La valeur par défaut est 5.

ts_from_file
S'il est défini sur 1, l'horodatage de l'image sera défini sur l'heure de modification du fichier image. Noter que
la monotonie des horodatages n'est pas fournie : les images vont dans le même ordre que sans cela
option. La valeur par défaut est 0. S'il est défini sur 2, l'horodatage de la trame sera défini sur la modification
temps du fichier image en précision nanoseconde.

taille_vidéo
Définissez la taille de la vidéo des images à lire. Si non spécifié, la taille de la vidéo est devinée
à partir du premier fichier image de la séquence.

Exemples

· Utilisation ffmpeg pour créer une vidéo à partir des images de la séquence de fichiers img-001.jpeg,
img-002.jpeg, ..., en supposant une fréquence d'images en entrée de 10 images par seconde :

ffmpeg -framerate 10 -i 'img-%03d.jpeg' out.mkv

· Comme ci-dessus, mais commencez par lire à partir d'un fichier d'index 100 dans l'ordre :

ffmpeg -framerate 10 -start_number 100 -i 'img-%03d.jpeg' out.mkv

· Lisez les images correspondant au modèle de glob "*.png" loading="lazy", c'est-à-dire tous les fichiers se terminant par
le suffixe ".png" loading="lazy":

ffmpeg -framerate 10 -pattern_type glob -i "*.png" loading="lazy" out.mkv

mov/mp4/3gp/Quicktme
Démultiplexeur Quicktime / MP4.

Ce démultiplexeur accepte les options suivantes :

activer_drefs
Activer le chargement des pistes externes, désactivé par défaut. L'activation de ceci peut
théoriquement fuite d'informations dans certains cas d'utilisation.

use_absolute_path
Permet le chargement de pistes externes via des chemins absolus, désactivé par défaut. Activation
cela pose un risque pour la sécurité. Il ne doit être activé que si la source est connue pour être non
mal intentionné.

mpgts
Démultiplexeur de flux de transport MPEG-2.

Ce démultiplexeur accepte les options suivantes :

taille_resynchronisation
Définir la taille limite pour rechercher une nouvelle synchronisation. La valeur par défaut est 65536.

fix_teletext_pts
Remplacer les valeurs PTS et DTS des paquets télétexte par les horodatages calculés à partir du
PCR du premier programme dont le flux télétexte fait partie et n'est pas rejeté.
La valeur par défaut est 1, définissez cette option sur 0 si vous voulez que votre paquet télétexte PTS et DTS
valeurs intactes.

ts_packetsize
Option de sortie portant la taille brute du paquet en octets. Afficher le paquet brut détecté
taille, ne peut pas être défini par l'utilisateur.

scan_all_pmts
Scannez et combinez tous les PMT. La valeur est un entier avec une valeur de -1 à 1 (-1 signifie
réglage automatique, 1 signifie activé, 0 signifie désactivé). La valeur par défaut est -1.

vidéo brute
Démultiplexeur vidéo brut.

Ce démultiplexeur permet de lire des données vidéo brutes. Comme il n'y a pas d'en-tête spécifiant le
paramètres vidéo supposés, l'utilisateur doit les spécifier afin de pouvoir décoder les
correctement les données.

Ce démultiplexeur accepte les options suivantes :

framerate
Réglez la fréquence d'images de la vidéo d'entrée. La valeur par défaut est 25.

format_pixel
Définissez le format de pixel vidéo d'entrée. La valeur par défaut est "yuv420p".

taille_vidéo
Définissez la taille de la vidéo d'entrée. Cette valeur doit être spécifiée explicitement.

Par exemple pour lire un fichier rawvideo entrée.raw avec ffplay, en supposant un format de pixel de
"rgb24", une taille de vidéo de "320x240", et une fréquence d'images de 10 images par seconde, utilisez le
commander:

ffplay -f rawvideo -pixel_format rgb24 -video_size 320x240 -framerate 10 input.raw

sbg
Démultiplexeur de scripts SBaGen.

Ce démultiplexeur lit le langage de script utilisé par SBaGenhttp://uazu.net/sbagen/> à
générer des sessions de battements binauraux. Un script SBG ressemble à ça :

-SI
a: 300-2.5/3 440+4.5/0
b: 300-2.5/0 440+4.5/3
désactivé: -
MAINTENANT == un
+0:07:00 == b
+0:14:00 == un
+0:21:00 == b
+0:30:00 de réduction

Un script SBG peut mélanger des horodatages absolus et relatifs. Si le script utilise soit seulement
horodatages absolus (y compris l'heure de début du script) ou uniquement relatifs, alors son
la mise en page est fixe et la conversion est simple. En revanche, si le script
mélange les deux types d'horodatage, puis le MAINTENANT référence pour les horodatages relatifs sera
prise à partir de l'heure actuelle de la journée au moment où le script est lu, et la mise en page du script
sera gelé selon cette référence. Cela signifie que si le script est directement
joué, les heures réelles correspondront aux horodatages absolus jusqu'à celui du contrôleur de son
précision de l'horloge, mais si l'utilisateur interrompt la lecture ou cherche, toutes les heures seront
décalé en conséquence.

légendes
Légendes JSON utilisées pourhttp://www.ted.com/>.

TED ne fournit pas de liens vers les légendes, mais ils peuvent être devinés à partir de la page. Les
filet outils/bookmarklets.html de l'arborescence des sources FFmpeg contient un bookmarklet à exposer
Eux.

Ce démultiplexeur accepte l'option suivante :

Heure de début
Réglez l'heure de début de la conversation TED, en millisecondes. La valeur par défaut est 15000 15 (XNUMX s). Il est
utilisé pour synchroniser les légendes avec les vidéos téléchargeables, car elles incluent un 15s
introduction.

Exemple : convertissez les sous-titres dans un format que la plupart des joueurs comprennent :

ffmpeg -je http://www.ted.com/talks/subtitles/id/1/lang/en talk1-fr.srt

METADATA


FFmpeg est capable de vider les métadonnées des fichiers multimédias dans un simple texte de type INI codé en UTF-8
puis rechargez-le à l'aide du muxer/demuxer de métadonnées.

Le format de fichier est le suivant :

1. Un fichier se compose d'un en-tête et d'un certain nombre de balises de métadonnées divisées en sections, chacune
sur sa propre ligne.

2. L'en-tête est un ;FFMETADONNEES chaîne, suivie d'un numéro de version (maintenant 1).

3. Les balises de métadonnées sont de la forme key =

4. Immédiatement après l'en-tête suit les métadonnées globales

5. Après les métadonnées globales, il peut y avoir des sections avec des métadonnées par flux/par chapitre.

6. Une section commence par le nom de la section en majuscules (c'est-à-dire FLUX ou CHAPITRE) dans
supports ([, ]) et se termine par la section suivante ou la fin du fichier.

7. Au début d'une section de chapitre, il peut y avoir une base de temps facultative à utiliser pour
valeurs de début/fin. il doit être en forme BASE DE TEMPS=num/jour, Où num ainsi que jour sont des nombres entiers.
Si la base de temps est manquante, les heures de début/fin sont supposées être en millisecondes.

Ensuite, une section de chapitre doit contenir les heures de début et de fin de chapitre sous la forme START =num,
FIN=num, Où num est un entier positif.

8. Lignes vides et lignes commençant par ; or # sont ignorés.

9. Clés de métadonnées ou valeurs contenant des caractères spéciaux (=, ;, #, \ et une nouvelle ligne) doit
être échappé avec une barre oblique inverse \.

10. Notez que les espaces dans les métadonnées (par ex. foo = barre) est considérée comme faisant partie de la
tag (dans l'exemple ci-dessus, la clé est foo , La valeur est
barre).

Un fichier ffmetadata pourrait ressembler à ceci :

;FFMETADONNEES1
title=vélo\\cabane
; ceci est un commentaire
artiste=équipe de trolls FFmpeg

[CHAPITRE]
BASE DE TEMPS=1/1000
DÉBUT=0
Le #chapitre se termine à 0:01:00
FIN=60000
titre=chapitre \#1
[FLUX]
titre=multi\
en ligne

En utilisant le multiplexeur et le démultiplexeur ffmetadata, il est possible d'extraire les métadonnées d'une entrée
dans un fichier ffmetadata, puis transcodez le fichier dans un fichier de sortie avec le
fichier ffmetadata édité.

Extraire un fichier ffmetadata avec ffmpeg va comme suit:

ffmpeg -i INPUT -f ffmetadata FFMETADATAFILE

La réinsertion des informations de métadonnées modifiées à partir du fichier FFMETADATAFILE peut être effectuée de la manière suivante :

ffmpeg -i INPUT -i FFMETADATAFILE -map_metadata 1 -codec copy OUTPUT

PROTOCOLES


Les protocoles sont des éléments configurés dans FFmpeg qui permettent d'accéder aux ressources qui nécessitent
protocoles spécifiques.

Lorsque vous configurez votre build FFmpeg, tous les protocoles pris en charge sont activés par défaut.
Vous pouvez lister tous ceux disponibles en utilisant l'option de configuration "--list-protocols".

Vous pouvez désactiver tous les protocoles en utilisant l'option de configuration "--disable-protocols", et
activer sélectivement un protocole en utilisant l'option "--enable-protocol=PROTOCOLE", ou tu peux
désactiver un protocole particulier en utilisant l'option "--disable-protocol=PROTOCOLE".

L'option "-protocols" des outils ff* affichera la liste des protocoles supportés.

Une description des protocoles actuellement disponibles suit.

async
Wrapper de remplissage de données asynchrone pour le flux d'entrée.

Remplir les données dans un thread d'arrière-plan, pour découpler l'opération d'E/S du thread demux.

asynchrone :
asynchrone:http://host/resource
async:cache :http://host/resource

bluray
Lire la liste de lecture BluRay.

Les options acceptées sont :

angle
Angle BluRay

chapitre
Commencer le chapitre (1...N)

playlist
Playlist à lire (BDMV/PLAYLIST/?????.mpls)

Exemples :

Lire la liste de lecture la plus longue de BluRay montée sur /mnt/bluray :

flou:/mnt/bluray

Lisez l'angle 2 de la playlist 4 de BluRay monté sur /mnt/bluray, commencez à partir du chapitre 2 :

-playlist 4 -angle 2 -chapitre 2 bluray:/mnt/bluray

cachette
Wrapper de mise en cache pour le flux d'entrée.

Mettez en cache le flux d'entrée dans un fichier temporaire. Il apporte une capacité de recherche aux flux en direct.

cache :

concat
Protocole de concaténation physique.

Lisez et recherchez de nombreuses ressources dans l'ordre comme s'il s'agissait d'une ressource unique.

Une URL acceptée par ce protocole a la syntaxe :

concaté : | |...|

De URL1, URL2, ..., URLN sont les urls de la ressource à concaténer, chacune
éventuellement en spécifiant un protocole distinct.

Par exemple pour lire une séquence de fichiers split1.mpeg, split2.mpeg, split3.mpeg avec ffplay
utilisez la commande :

ffplay concat:split1.mpeg\|split2.mpeg\|split3.mpeg

Notez que vous devrez peut-être échapper le caractère "|" ce qui est spécial pour de nombreux obus.

Crypto
Protocole de lecture de flux crypté AES.

Les options acceptées sont :

key Définissez le bloc binaire de la clé de déchiffrement AES à partir de la représentation hexadécimale donnée.

iv Définir le bloc binaire du vecteur d'initialisation du déchiffrement AES à partir de l'hexadécimal donné
représentation.

Formats d'URL acceptés :

cryptographie :
crypto+

données
Données en ligne dans l'URI. Voirhttp://en.wikipedia.org/wiki/Data_URI_scheme>.

Par exemple, pour convertir un fichier GIF fourni en ligne avec ffmpeg:

ffmpeg -i "data:image/gif;base64,R0lGODdhCAAIAMIEAAAAAAAA//8AAP//AP///////////////ywAAAAACAAIAAADF0gEDLojDgdGiJdJqUX02iB4E8Q9jUMkADs=" smiley.png

filet
Protocole d'accès aux fichiers.

Lire ou écrire dans un fichier.

Une URL de fichier peut avoir la forme :

déposer:

De nom de fichier est le chemin du fichier à lire.

Une URL qui n'a pas de préfixe de protocole sera considérée comme une URL de fichier. Cela dépend de
le build, une URL qui ressemble à un chemin Windows avec la lettre de lecteur au début
sera également supposé être une URL de fichier (généralement pas le cas dans les builds pour unix-like
systèmes).

Par exemple pour lire à partir d'un fichier entrée.mpeg avec ffmpeg utilisez la commande :

ffmpeg -i fichier:entrée.mpeg sortie.mpeg

Ce protocole accepte les options suivantes :

tronquer
Tronquer les fichiers existants en écriture, s'il est défini sur 1. Une valeur de 0 empêche la troncature.
La valeur par défaut est 1.

taille de bloc
Définit la taille de bloc maximale de l'opération d'E/S, en octets. La valeur par défaut est "INT_MAX", qui
aboutit à ne pas limiter la taille de bloc demandée. Réglage de cette valeur raisonnablement bas
améliore le temps de réaction de la demande de résiliation de l'utilisateur, ce qui est précieux pour les fichiers lents
moyen.

ftp
FTP (protocole de transfert de fichiers).

Lire ou écrire sur des ressources distantes à l'aide du protocole FTP.

La syntaxe suivante est requise.

ftp://[utilisateur[:mot de passe]@]serveur[:port]/chemin/vers/distant/ressource.mpeg

Ce protocole accepte les options suivantes.

temps mort
Définir le délai d'expiration en microsecondes des opérations d'E/S de socket utilisées par le niveau bas sous-jacent
opération. Par défaut, il est défini sur -1, ce qui signifie que le délai d'expiration n'est pas spécifié.

ftp-anonyme-mot de passe
Mot de passe utilisé lors de la connexion en tant qu'utilisateur anonyme. En règle générale, une adresse e-mail doit être
utilisé.

ftp-recherchable en écriture
Contrôlez la recherche de la connexion pendant l'encodage. Si défini sur 1, la ressource est
supposé être interrogeable, s'il est défini sur 0, il est supposé ne pas être interrogeable. Valeur par défaut
est 0.

REMARQUE : le protocole peut être utilisé comme sortie, mais il est recommandé de ne pas le faire, sauf si spécial
un soin tout particulier est apporté (tests, configuration personnalisée du serveur, etc.). Différents serveurs FTP se comportent
de manière différente pendant l'opération de recherche. Les outils ff* peuvent produire un contenu incomplet en raison de
limites du serveur.

gaufre
Protocole Gopher.

hls
Lisez le flux segmenté conforme à Apple HTTP Live Streaming comme un flux uniforme. Le M3U8
les listes de lecture décrivant les segments peuvent être des ressources HTTP distantes ou des fichiers locaux, accessibles
en utilisant le protocole de fichier standard. Le protocole imbriqué est déclaré en spécifiant "+proto"
après le nom du schéma d'URI hls, où proto est soit "fichier" soit "http".

hls+http://host/path/to/remote/resource.m3u8
hls+file://chemin/vers/local/resource.m3u8

L'utilisation de ce protocole est déconseillée - le démultiplexeur hls devrait fonctionner aussi bien (sinon,
veuillez signaler les problèmes) et est plus complet. Pour utiliser le démultiplexeur hls à la place, il suffit
utilisez les URL directes vers les fichiers m3u8.

http
HTTP (protocole de transfert hypertexte).

Ce protocole accepte les options suivantes :

cherchable
Contrôler la recherche de la connexion. S'il est défini sur 1, la ressource est censée être
interrogeable, s'il est défini sur 0, il est supposé ne pas être interrogeable, s'il est défini sur -1, il essaiera de
détecter automatiquement s'il est recherchable. La valeur par défaut est -1.

chuked_post
S'il est défini sur 1, utilisez le codage de transfert en bloc pour les publications, la valeur par défaut est 1.

Content_type
Définissez un type de contenu spécifique pour les messages POST.

têtes
Définir des en-têtes HTTP personnalisés, peut remplacer les en-têtes par défaut intégrés. La valeur doit être un
chaîne encodant les en-têtes.

demandes_multiples
Utilisez des connexions persistantes si la valeur est définie sur 1, la valeur par défaut est 0.

post_data
Définissez des données de publication HTTP personnalisées.

User Agent
user_agent
Remplacez l'en-tête User-Agent. S'il n'est pas spécifié, le protocole utilisera une chaîne
décrivant la construction de libavformat. ("Lavf/ ")

temps mort
Définir le délai d'expiration en microsecondes des opérations d'E/S de socket utilisées par le niveau bas sous-jacent
opération. Par défaut, il est défini sur -1, ce qui signifie que le délai d'expiration n'est pas spécifié.

type_mime
Exportez le type MIME.

glacé S'il est défini sur 1, demandez les métadonnées ICY (SHOUTcast) au serveur. Si le serveur prend en charge
ceci, les métadonnées doivent être récupérées par l'application en lisant le
icy_metadata_headers ainsi que icy_metadata_packet option. La valeur par défaut est 1.

icy_metadata_headers
Si le serveur prend en charge les métadonnées ICY, celles-ci contiennent la réponse HTTP spécifique à ICY
en-têtes, séparés par des caractères de nouvelle ligne.

icy_metadata_packet
Si le serveur prend en charge les métadonnées ICY, et glacé a été mis à 1, cela contient le dernier non-
paquet de métadonnées vide envoyé par le serveur. Il doit être interrogé à intervalles réguliers par
applications intéressées par les mises à jour de métadonnées à mi-parcours.

biscuits
Définissez les cookies à envoyer dans les demandes futures. Le format de chaque cookie est le même
comme valeur d'un champ de réponse HTTP Set-Cookie. Plusieurs cookies peuvent être délimités par
un caractère de nouvelle ligne.

compenser
Définir le décalage d'octet initial.

décalage_fin
Essayez de limiter la requête aux octets précédant ce décalage.

méthode
Lorsqu'il est utilisé comme option client, il définit la méthode HTTP pour la demande.

Lorsqu'il est utilisé comme option de serveur, il définit la méthode HTTP attendue de
les clients). Si la méthode HTTP attendue et la méthode reçue ne correspondent pas au client
recevra une réponse de demande incorrecte. Lorsqu'elle n'est pas définie, la méthode HTTP n'est pas vérifiée
maintenant. Cela sera remplacé par la détection automatique à l'avenir.

écouter
S'il est défini sur 1, active le serveur HTTP expérimental. Cela peut être utilisé pour envoyer des données lorsqu'il est utilisé
comme option de sortie, ou lire les données d'un client avec HTTP POST lorsqu'il est utilisé comme entrée
option. S'il est défini sur 2, il active le serveur HTTP expérimental multi-client. Ce n'est pas encore
implémenté dans ffmpeg.c ou ffserver.c et ne doit donc pas être utilisé comme ligne de commande
option.

# Côté serveur (envoi) :
ffmpeg -i unfichier.ogg -c copy -listen 1 -f ogg http:// :

# Côté client (réception) :
ffmpeg -i http:// : -c copier unfichier.ogg

# Le client peut également être fait avec wget :
wget http:// : -O unfichier.ogg

# Côté serveur (réception) :
ffmpeg -écouter 1 -i http:// : -c copier unfichier.ogg

# Côté client (envoi) :
ffmpeg -i somefile.ogg -chunked_post 0 -c copy -f ogg http:// :

# Le client peut également être fait avec wget :
wget --post-file=somefile.ogg http:// :

HTTP Cookies

Certaines requêtes HTTP seront refusées à moins que des valeurs de cookie ne soient transmises avec la requête. Les
biscuits L'option permet de spécifier ces cookies. À tout le moins, chaque cookie doit
spécifiez une valeur avec un chemin et un domaine. Les requêtes HTTP qui correspondent à la fois au domaine
et le chemin inclura automatiquement la valeur du cookie dans le champ d'en-tête HTTP Cookie.
Plusieurs cookies peuvent être délimités par une nouvelle ligne.

La syntaxe requise pour lire un flux spécifiant un cookie est :

ffplay -cookies "nlqptid=nltid=tsn; path=/; domain=somedomain.com;" http://somedomain.com/somestream.m3u8

Icecast
Protocole Icecast (diffusion vers les serveurs Icecast)

Ce protocole accepte les options suivantes :

glace_genre
Définissez le genre de diffusion.

nom_glace
Définissez le nom du flux.

description_glace
Définissez la description du flux.

glace_url
Définissez l'URL du site Web de diffusion.

glace_public
Définissez si le flux doit être public. La valeur par défaut est 0 (non public).

user_agent
Remplacez l'en-tête User-Agent. Si non spécifié une chaîne de la forme "Lavf/ "
sera utilisé.

Mot de passe
Définissez le mot de passe du point de montage Icecast.

Content_type
Définissez le type de contenu du flux. Ce paramètre doit être défini s'il est différent de l'audio/mpeg.

héritage_icecast
Cela permet la prise en charge des versions Icecast < 2.4.0, qui ne prennent pas en charge HTTP PUT
méthode mais la méthode SOURCE.

icecast://[ [: ]@] : /

T.V.A.
Protocole MMS (Microsoft Media Server) sur TCP.

mmh
Protocole MMS (Microsoft Media Server) sur HTTP.

La syntaxe requise est :

mmsh:// [: ][/ ][/ ]

md5
Protocole de sortie MD5.

Calcule le hachage MD5 des données à écrire et, à la fermeture, l'écrit dans le
sortie désignée ou sortie standard si aucune n'est spécifiée. Il peut être utilisé pour tester les muxers sans
écrire un fichier réel.

Quelques exemples suivent.

# Écrivez le hachage MD5 du fichier AVI encodé dans le fichier output.avi.md5.
ffmpeg -i input.flv -f avi -y md5:output.avi.md5

# Écrire le hachage MD5 du fichier AVI encodé sur stdout.
ffmpeg -i input.flv -f avi -y md5 :

Notez que certains formats (généralement MOV) nécessitent que le protocole de sortie soit consultable, ils
échouera avec le protocole de sortie MD5.

pipe
Protocole d'accès au canal UNIX.

Lire et écrire à partir de canaux UNIX.

La syntaxe acceptée est :

tuyau:[ ]

nombre est le numéro correspondant au descripteur de fichier du tube (par exemple 0 pour stdin, 1
pour stdout, 2 pour stderr). Si nombre n'est pas spécifié, par défaut le fichier stdout
descripteur sera utilisé pour l'écriture, stdin pour la lecture.

Par exemple pour lire depuis stdin avec ffmpeg:

chat test.wav | ffmpeg -i pipe:0
# ...c'est la même chose que...
chat test.wav | ffmpeg -i pipe :

Pour écrire sur stdout avec ffmpeg:

ffmpeg -i test.wav -f avi pipe:1 | chat > ​​test.avi
# ...c'est la même chose que...
ffmpeg -i test.wav -f avi pipe : | chat > ​​test.avi

Ce protocole accepte les options suivantes :

taille de bloc
Définit la taille de bloc maximale de l'opération d'E/S, en octets. La valeur par défaut est "INT_MAX", qui
aboutit à ne pas limiter la taille de bloc demandée. Réglage de cette valeur raisonnablement bas
améliore le temps de réaction de la demande de résiliation de l'utilisateur, ce qui est précieux si les données
la transmission est lente.

Notez que certains formats (généralement MOV), nécessitent que le protocole de sortie soit consultable, donc
ils échoueront avec le protocole de sortie du tuyau.

rtmp
Protocole de messagerie en temps réel.

Le protocole de messagerie en temps réel (RTMP) est utilisé pour diffuser du contenu multimédia sur un
Réseau TCP/IP.

La syntaxe requise est :

rtmp://[ : @] [: ][/ ][/ ][/ ]

Les paramètres acceptés sont :

Nom d'utilisateur
Un nom d'utilisateur facultatif (principalement pour la publication).

Mot de passe
Un mot de passe facultatif (principalement pour la publication).

serveur
L'adresse du serveur RTMP.

port
Le numéro du port TCP à utiliser (par défaut est 1935).

appli C'est le nom de l'application à laquelle accéder. Il correspond généralement au chemin où
l'application est installée sur le serveur RTMP (ex. /sur demande/, /flash/en direct/, Etc).
Vous pouvez également remplacer la valeur analysée à partir de l'URI via l'option "rtmp_app".

parcours de jeu
C'est le chemin ou le nom de la ressource à jouer en référence à l'application
spécifié dans appli, peut être préfixé par "mp4:". Vous pouvez remplacer la valeur analysée à partir de
l'URI via l'option "rtmp_playpath" également.

écouter
Agir en tant que serveur, à l'écoute d'une connexion entrante.

temps mort
Temps d'attente maximum pour la connexion entrante. Implique écouter.

De plus, les paramètres suivants peuvent être définis via les options de ligne de commande (ou dans le code via
« Options AV » :

rtmp_app
Nom de l'application à connecter sur le serveur RTMP. Cette option remplace le paramètre
spécifié dans l'URI.

rtmp_buffer
Définissez la durée de la mémoire tampon du client en millisecondes. La valeur par défaut est 3000.

rtmp_conn
Paramètres de connexion AMF arbitraires supplémentaires, analysés à partir d'une chaîne, par exemple "B:1
S:authMe O:1 NN:code:1.23 NS:flag:ok O:0". Chaque valeur est préfixée par un seul
caractère désignant le type, B pour booléen, N pour nombre, S pour chaîne, O pour objet,
ou Z pour null, suivi de deux points. Pour les booléens, les données doivent être soit 0, soit 1 pour
FALSE ou TRUE, respectivement. De même pour les objets, les données doivent être 0 ou 1 pour terminer ou
commencer un objet, respectivement. Les éléments de données dans les sous-objets peuvent être nommés, en préfixant le
tapez avec 'N' et en spécifiant le nom avant la valeur (c'est-à-dire "NB:myFlag:1"). Cette
L'option peut être utilisée plusieurs fois pour construire des séquences AMF arbitraires.

rtmp_flashver
Version du plugin Flash utilisé pour exécuter le lecteur SWF. La valeur par défaut est LNX 9,0,124,2.
(Lors de la publication, la valeur par défaut est FMLE/3.0 (compatible ; ).)

rtmp_flush_interval
Nombre de paquets vidés dans la même requête (RTMPT uniquement). La valeur par défaut est 10.

rtmp_live
Spécifiez que le média est un flux en direct. Aucune reprise ou recherche dans les flux en direct n'est
possible. La valeur par défaut est "any", ce qui signifie que l'abonné essaie d'abord de jouer
le flux en direct spécifié dans le parcours de lecture. Si un flux en direct de ce nom n'est pas trouvé,
il lit le flux enregistré. Les autres valeurs possibles sont "live" et "recorded".

rtmp_pageurl
URL de la page Web dans laquelle le média a été intégré. Par défaut, aucune valeur ne sera envoyée.

rtmp_playpath
Identifiant du flux à lire ou à publier. Cette option remplace le paramètre spécifié
dans l'URI.

rtmp_subscribe
Nom du flux en direct auquel s'abonner. Par défaut, aucune valeur ne sera envoyée. C'est seulement
envoyé si l'option est spécifiée ou si rtmp_live est défini sur live.

rtmp_swfhash
Hachage SHA256 du fichier SWF décompressé (32 octets).

rtmp_swfsize
Taille du fichier SWF décompressé, requise pour SWFVerification.

rtmp_swfurl
URL du lecteur SWF pour le média. Par défaut, aucune valeur ne sera envoyée.

rtmp_swfvérifier
URL vers le fichier swf du lecteur, calcule automatiquement le hachage/la taille.

rtmp_tcurl
URL du flux cible. La valeur par défaut est proto://host[:port]/app.

Par exemple à lire avec ffplay une ressource multimédia nommée "sample" de l'application
"vod" depuis un serveur RTMP "myserver":

ffplay rtmp://myserver/vod/sample

Pour publier sur un serveur protégé par mot de passe, en transmettant séparément le chemin de lecture et les noms d'application :

ffmpeg -re -i -f flv -rtmp_playpath some/long/path -rtmp_app long/app/name rtmp://username:password@myserver/

rtmpe
Protocole de messagerie crypté en temps réel.

Le protocole RTMPE (Encrypted Real-Time Messaging Protocol) est utilisé pour le streaming multimédia
contenu dans les primitives cryptographiques standard, composé de la clé Diffie-Hellman
échange et HMACSHA256, générant une paire de clés RC4.

RTMP
Protocole de messagerie en temps réel via une connexion SSL sécurisée.

Le protocole de messagerie en temps réel (RTMPS) est utilisé pour diffuser du contenu multimédia sur
une connexion cryptée.

tentative
Protocole de messagerie en temps réel tunnelisé via HTTP.

Le protocole de messagerie en temps réel tunnelisé via HTTP (RTMPT) est utilisé pour le streaming
contenu multimédia dans les requêtes HTTP pour traverser les pare-feu.

tentative
Protocole de messagerie en temps réel crypté tunnelisé via HTTP.

Le protocole de messagerie en temps réel crypté tunnelisé via HTTP (RTMPTE) est utilisé pour
diffuser du contenu multimédia dans les requêtes HTTP pour traverser les pare-feu.

tentatives
Protocole de messagerie en temps réel tunnelisé via HTTPS.

Le protocole de messagerie en temps réel tunnelisé via HTTPS (RTMPTS) est utilisé pour le streaming
contenu multimédia dans les requêtes HTTPS pour traverser les pare-feu.

clientlibsmb
libsmbclient permet de manipuler les ressources réseau CIFS/SMB.

La syntaxe suivante est requise.

smb://[[domaine:]utilisateur[:mot de passe@]]serveur[/partage[/chemin[/fichier]]]

Ce protocole accepte les options suivantes.

temps mort
Définir le délai d'expiration en millisecondes des opérations d'E/S de socket utilisées par le niveau bas sous-jacent
opération. Par défaut, il est défini sur -1, ce qui signifie que le délai d'expiration n'est pas spécifié.

tronquer
Tronquer les fichiers existants en écriture, s'il est défini sur 1. Une valeur de 0 empêche la troncature.
La valeur par défaut est 1.

groupe de travail
Définissez le groupe de travail utilisé pour établir les connexions. Par défaut, le groupe de travail n'est pas spécifié.

Pour plus d'informations voir :http://www.samba.org/>.

libsh
Protocole de transfert de fichiers sécurisé via libssh

Lire ou écrire sur des ressources distantes à l'aide du protocole SFTP.

La syntaxe suivante est requise.

sftp://[user[:password]@]server[:port]/path/to/remote/resource.mpeg

Ce protocole accepte les options suivantes.

temps mort
Définit le délai d'expiration des opérations d'E/S de socket utilisées par l'opération de bas niveau sous-jacente. Par
par défaut, il est défini sur -1, ce qui signifie que le délai d'attente n'est pas spécifié.

tronquer
Tronquer les fichiers existants en écriture, s'il est défini sur 1. Une valeur de 0 empêche la troncature.
La valeur par défaut est 1.

Clé privée
Spécifiez le chemin du fichier contenant la clé privée à utiliser lors de l'autorisation. Par
libssh par défaut recherche les clés dans le ~ / .ssh / répertoire.

Exemple : lire un fichier stocké sur un serveur distant.

ffjouer sftp://utilisateur:mot de passe@adresse_serveur:22/home/user/resource.mpeg

librtmp rtmp, rtmpe, RTMP, tentative, tentative
Protocole de messagerie en temps réel et ses variantes pris en charge via librtmp.

Nécessite la présence des en-têtes et de la bibliothèque librtmp lors de la configuration. Vous devez
configurer explicitement la construction avec "--enable-librtmp". Si activé, cela remplacera le
protocole RTMP natif.

Ce protocole fournit la plupart des fonctions client et quelques fonctions serveur nécessaires pour prendre en charge
RTMP, RTMP tunnelisé en HTTP (RTMPT), RTMP crypté (RTMPE), RTMP sur SSL/TLS (RTMPS) et
variantes tunnelées de ces types cryptés (RTMPTE, RTMPTS).

La syntaxe requise est :

:// [: ][/ ][/ ]

De rtmp_proto est l'une des chaînes "rtmp", "rtmpt", "rtmpe", "rtmps", "rtmpte",
"rtmpts" correspondant à chaque variante RTMP, et serveur, port, appli ainsi que parcours de jeu avoir la
même sens que spécifié pour le protocole natif RTMP. Options contient une liste d'espace-
options séparées de la forme key=vague.

Voir la page de manuel de librtmp (man 3 librtmp) pour plus d'informations.

Par exemple, pour diffuser un fichier en temps réel sur un serveur RTMP en utilisant ffmpeg:

ffmpeg -re -i monfichier -f flv rtmp://myserver/live/mystream

Pour lire le même flux en utilisant ffplay:

ffplay "rtmp://myserver/live/mystream live=1"

rtp
Protocole de transport en temps réel.

La syntaxe requise pour une URL RTP est : rtp://nom d'hôte[:port][?option=vague...]

port spécifie le port RTP à utiliser.

Les options d'URL suivantes sont prises en charge :

ttl=n
Définissez la valeur TTL (Time-To-Live) (pour la multidiffusion uniquement).

rtcport=n
Réglez le port RTCP distant sur n.

port localrt=n
Définissez le port RTP local sur n.

portrtclocal=n'
Réglez le port RTCP local sur n.

pkt_size=n
Définir la taille maximale du paquet (en octets) sur n.

connecter=0|1
Faites un "connect()" sur le socket UDP (si défini sur 1) ou non (si défini sur 0).

source=ip[,ip]
Répertoriez les adresses IP sources autorisées.

bloc =ip[,ip]
Répertoriez les adresses IP sources non autorisées (bloquées).

write_to_source=0|1
Envoyer des paquets à l'adresse source du dernier paquet reçu (si défini sur 1) ou à un
adresse distante par défaut (si elle est définie sur 0).

port local=n
Définissez le port RTP local sur n.

Il s'agit d'une option obsolète. Au lieu, port local Devrait être utilisé.

Remarques importantes:

1. Si port rtc n'est pas défini, le port RTCP sera défini sur la valeur du port RTP plus 1.

2. Si port local (le port RTP local) n'est pas défini, aucun port disponible ne sera utilisé pour
les ports RTP et RTCP locaux.

3. Si portrtc local (le port RTCP local) n'est pas défini, il sera défini sur le port RTP local
valeur plus 1.

rtsp
Protocole de diffusion en temps réel.

RTSP n'est pas techniquement un gestionnaire de protocole au format libav, c'est un démultiplexeur et un multiplexeur. Les
demuxer prend en charge à la fois le RTSP normal (avec des données transférées via RTP ; il est utilisé par exemple par
Apple et Microsoft) et Real-RTSP (avec transfert de données via RDT).

Le muxer peut être utilisé pour envoyer un flux en utilisant RTSP ANNOUNCE à un serveur le supportant
(actuellement Darwin Streaming Server et Mischa Spiegelmock's
<https://github.com/revmischa/rtsp-server>).

La syntaxe requise pour une URL RTSP est :

rtsp:// [: ]/

Les options peuvent être définies sur le ffmpeg/ffplay ligne de commande, ou défini dans le code via "AVOption"s ou dans
"avformat_open_input".

Les options suivantes sont prises en charge.

pause_initiale
Ne démarrez pas la lecture du flux immédiatement s'il est défini sur 1. La valeur par défaut est 0.

rtsp_transport
Définissez les protocoles de transport RTSP.

Il accepte les valeurs suivantes :

udp Utilisez UDP comme protocole de transport inférieur.

tcp Utiliser TCP (entrelacement dans le canal de contrôle RTSP) comme moyen de transport inférieur
protocole.

udp_multidiffusion
Utilisez la multidiffusion UDP comme protocole de transport inférieur.

http
Utilisez le tunneling HTTP comme protocole de transport inférieur, ce qui est utile pour passer
procurations.

Plusieurs protocoles de transport inférieurs peuvent être spécifiés, dans ce cas ils sont essayés un
à la fois (si la configuration de l'un échoue, le suivant est essayé). Pour le muxer, seul le
tcp ainsi que udp les options sont prises en charge.

rtsp_flags
Définissez les indicateurs RTSP.

Les valeurs suivantes sont acceptées :

filtre_src
Acceptez les paquets uniquement à partir de l'adresse et du port d'homologue négociés.

écouter
Agir en tant que serveur, à l'écoute d'une connexion entrante.

préférer_tcp
Essayez d'abord TCP pour le transport RTP, si TCP est disponible en tant que transport RTP RTSP.

La valeur par défaut est aucun.

allow_media_types
Définissez les types de médias à accepter du serveur.

Les drapeaux suivants sont acceptés :

vidéo
acoustique
données

Par défaut, il accepte tous les types de médias.

port_min
Définissez le port UDP local minimum. La valeur par défaut est 5000.

port_max
Définissez le port UDP local maximal. La valeur par défaut est 65000.

temps mort
Définissez le délai d'attente maximal (en secondes) pour attendre les connexions entrantes.

Une valeur de -1 signifie infini (par défaut). Cette option implique la rtsp_flags ajuster à
écouter.

reorder_queue_size
Définissez le nombre de paquets à mettre en mémoire tampon pour la gestion des paquets réorganisés.

délai d'attente
Définissez le délai d'expiration des E/S TCP du socket en microsecondes.

User Agent
Remplacer l'en-tête User-Agent. S'il n'est pas spécifié, il utilise par défaut le format libav
chaîne d'identification.

Lors de la réception de données via UDP, le démultiplexeur essaie de réorganiser les paquets reçus (puisqu'ils
peuvent arriver dans le désordre, ou les paquets peuvent être totalement perdus). Cela peut être désactivé en définissant
le délai de démultiplexage maximal à zéro (via le champ "max_delay" de AVFormatContext).

Lorsque vous regardez des flux Real-RTSP à plusieurs débits avec ffplay, les flux à afficher peuvent être
choisi avec "-vst" n et "-ast" n pour la vidéo et l'audio respectivement, et peut être activé
la mouche en appuyant sur "v" et "a".

Exemples

Les exemples suivants utilisent tous le ffplay ainsi que ffmpeg outils.

· Regardez un flux via UDP, avec un délai de réorganisation maximum de 0.5 seconde :

ffplay -max_delay 500000 -rtsp_transport udp rtsp://server/video.mp4

· Regardez un flux tunnelisé via HTTP :

ffplay -rtsp_transport http rtsp://serveur/video.mp4

· Envoyez un flux en temps réel à un serveur RTSP, pour que d'autres puissent le regarder :

ffmpeg -re -i -f rtsp -muxdelay 0.1 rtsp://server/live.sdp

· Recevez un flux en temps réel :

ffmpeg -rtsp_flags écouter -i rtsp://ownaddress/live.sdp

sève
Protocole d'annonce de session (RFC 2974). Ce n'est pas techniquement un gestionnaire de protocole dans
libavformat, c'est un multiplexeur et un démultiplexeur. Il est utilisé pour la signalisation des flux RTP, par
annonçant régulièrement le SDP pour les flux sur un port séparé.

femme

La syntaxe d'une URL SAP donnée au multiplexeur est :

sève:// [: ][? ]

Les paquets RTP sont envoyés à destination sur le port port, ou au port 5004 si aucun port n'est
spécifié. Options est une liste séparée par des "&". Les options suivantes sont prises en charge :

annonce_adresse=propos
Spécifiez l'adresse IP de destination pour l'envoi des annonces. S'il est omis, le
les annonces sont envoyées à l'adresse de multidiffusion d'annonces SAP couramment utilisée
224.2.127.254 (sap.mcast.net), ou ff0e::2:7ffe si destination est une adresse IPv6.

annonce_port=port
Spécifiez le port sur lequel envoyer les annonces, la valeur par défaut est 9875 s'il n'est pas spécifié.

ttl=ttl
Spécifiez la durée de vie pour les annonces et les paquets RTP, la valeur par défaut est 255.

même_port=0 | 1
S'il est défini sur 1, envoyez tous les flux RTP sur la même paire de ports. Si zéro (valeur par défaut), tout
les flux sont envoyés sur des ports uniques, chaque flux sur un port 2 numéros supérieurs au
précédent. VLC/Live555 nécessite que ce paramètre soit défini sur 1, pour pouvoir recevoir le flux.
La pile RTP au format libav pour la réception nécessite que tous les flux soient envoyés sur un seul
Ports.

Des exemples de lignes de commande suivent.

Pour diffuser un flux sur le sous-réseau local, à regarder dans VLC :

ffmpeg -re -i -f sap sap://224.0.0.255?same_port=1

De même, pour regarder dans ffplay:

ffmpeg -re -i -f sève sève://224.0.0.255

Et pour regarder dans ffplay, sur IPv6 :

ffmpeg -re -i -f sève sève://[ff0e::1:2:3:4]

Démultiplexeur

La syntaxe d'une URL SAP donnée au démultiplexeur est :

sève://[ ][ : ]

propos est l'adresse de multidiffusion pour écouter les annonces sur, si elle est omise, la valeur par défaut
224.2.127.254 (sap.mcast.net) est utilisé. port est le port qui est écouté, 9875 si
omis.

Les démultiplexeurs écoutent les annonces sur l'adresse et le port donnés. Une fois un
annonce est reçue, il essaie de recevoir ce flux particulier.

Des exemples de lignes de commande suivent.

Pour lire le premier flux annoncé sur l'adresse de multidiffusion SAP normale :

ffjouer à la sève://

Pour lire le premier flux annoncé sur l'une des adresses de multidiffusion SAP IPv6 par défaut :

ffplay sap://[ff0e::2:7ffe]

sctp
Protocole de transmission de contrôle de flux.

La syntaxe d'URL acceptée est :

scp:// : [? ]

Le protocole accepte les options suivantes :

écouter
S'il est défini sur n'importe quelle valeur, écoutez une connexion entrante. La connexion sortante est effectuée par
défaut.

max_streams
Définissez le nombre maximum de flux. Par défaut, aucune limite n'est définie.

srtp
Protocole de transport sécurisé en temps réel.

Les options acceptées sont :

srtp_in_suite
srtp_out_suite
Sélectionnez les suites de codage d'entrée et de sortie.

Valeurs prises en charge :

AES_CM_128_HMAC_SHA1_80
SRTP_AES128_CM_HMAC_SHA1_80
AES_CM_128_HMAC_SHA1_32
SRTP_AES128_CM_HMAC_SHA1_32
srtp_in_params
srtp_out_params
Définir les paramètres d'encodage d'entrée et de sortie, qui sont exprimés par un code en base64
représentation d'un bloc binaire. Les 16 premiers octets de ce bloc binaire sont utilisés comme
clé principale, les 14 octets suivants sont utilisés comme sel principal.

sous-fichier
Extrayez virtuellement un segment d'un fichier ou d'un autre flux. Le flux sous-jacent doit être
recherchable.

Options acceptées :

Commencer
Décalage de début du segment extrait, en octets.

fin Offset de fin du segment extrait, en octets.

Exemples :

Extraire un chapitre d'un fichier DVD VOB (secteurs de début et de fin obtenus en externe et
multiplié par 2048):

sous-fichier,,start,153391104,end,268142592,,:/media/dvd/VIDEO_TS/VTS_08_1.VOB

Lire un fichier AVI directement à partir d'une archive TAR :

sous-fichier,,start,183241728,end,366490624,,:archive.tar

tcp
Protocole de contrôle de transmission.

La syntaxe requise pour une URL TCP est :

tcp:// : [? ]

Options contient une liste d'options séparées par & du formulaire key=vague.

La liste des options prises en charge suit.

écouter =1 | 0
Écoutez une connexion entrante. La valeur par défaut est 0.

délai d'attente =microsecondes
Définir le délai d'expiration de l'erreur de relance, exprimé en microsecondes.

Cette option n'est pertinente qu'en lecture : si aucune donnée n'est arrivée au-delà de ce délai
intervalle, augmenter l'erreur.

écoute_timeout=millisecondes
Définir le délai d'écoute, exprimé en millisecondes.

L'exemple suivant montre comment configurer une connexion TCP d'écoute avec ffmpeg, lequel est
puis accédé avec ffplay:

ffmpeg -i -F tcp:// : ?Ecoutez
ffplay tcp:// :

tls
Sécurité de la couche de transport (TLS)/Secure Sockets Layer (SSL)

La syntaxe requise pour une URL TLS/SSL est :

tls:// : [? ]

Les paramètres suivants peuvent être définis via les options de ligne de commande (ou dans le code via "AVOption") :

fichier_ca, café=nom de fichier
Un fichier contenant les certificats racine de l'autorité de certification (CA) à traiter comme de confiance. Si
la bibliothèque TLS liée contient une valeur par défaut pour laquelle il n'est peut-être pas nécessaire de spécifier
la vérification fonctionne, mais toutes les bibliothèques et configurations n'ont pas de valeurs par défaut intégrées.
le fichier doit être au format OpenSSL PEM.

tls_verify=1 | 0
Si activé, essayez de vérifier le pair avec lequel nous communiquons. Remarque, si vous utilisez
OpenSSL, cela garantit actuellement uniquement que le certificat homologue est signé par l'un des
les certificats racine dans la base de données CA, mais cela ne valide pas que le
Le certificat correspond en fait au nom d'hôte auquel nous essayons de nous connecter. (Avec GnuTLS,
le nom d'hôte est également validé.)

Ceci est désactivé par défaut car il nécessite qu'une base de données CA soit fournie par le
appelant dans de nombreux cas.

fichier_cert, certificat=nom de fichier
Un fichier contenant un certificat à utiliser dans la poignée de main avec l'homologue. (Lorsque
fonctionnant en serveur, en écoute, cela est le plus souvent demandé par le pair, tandis que
seuls les certificats clients sont obligatoires dans certaines configurations.)

fichier clé, clé =nom de fichier
Un fichier contenant la clé privée du certificat.

écouter =1 | 0
Si activé, écoutez les connexions sur le port fourni et assumez le rôle de serveur dans
la poignée de main au lieu du rôle client.

Exemples de lignes de commande :

Pour créer un serveur TLS/SSL qui sert un flux d'entrée.

ffmpeg -i -F tls:// : ?écouter&cert= &clé=

Pour lire un flux depuis le serveur TLS/SSL à l'aide ffplay:

ffplay tls:// :

udp
Protocole de datagramme utilisateur.

La syntaxe requise pour une URL UDP est :

udp:// : [? ]

Options contient une liste d'options séparées par & du formulaire key=vague.

Si le threading est activé sur le système, un tampon circulaire est utilisé pour stocker le
les données entrantes, ce qui permet de réduire les pertes de données dues aux dépassements de la mémoire tampon du socket UDP.
La taille_fifo ainsi que dépassement_non fatal les options sont liées à ce tampon.

La liste des options prises en charge suit.

taille_tampon=taille
Définissez la taille maximale du tampon de socket UDP en octets. Ceci est utilisé pour définir soit le
taille du tampon de réception ou d'envoi, selon l'utilisation du socket. La valeur par défaut est
64 Ko. Voir également taille_fifo.

port local=port
Remplacez le port UDP local avec lequel se lier.

adresselocale=addr
Choisissez l'adresse IP locale. Ceci est utile, par exemple si l'envoi de multidiffusion et l'hôte a
plusieurs interfaces, où l'utilisateur peut choisir l'interface à envoyer par
en spécifiant l'adresse IP de cette interface.

pkt_size=taille
Définissez la taille en octets des paquets UDP.

réutiliser=1 | 0
Autoriser ou interdire explicitement la réutilisation des sockets UDP.

ttl=ttl
Définissez la durée de vie (pour la multidiffusion uniquement).

connecter=1 | 0
Initialisez le socket UDP avec "connect()". Dans ce cas, l'adresse de destination
ne peut pas être modifié ultérieurement avec ff_udp_set_remote_url. Si l'adresse de destination n'est pas
connue au départ, cette option peut également être spécifiée dans ff_udp_set_remote_url. Cette
permet de trouver l'adresse source des paquets avec getsockname, et rend
écrit return avec AVERROR(ECONNREFUSED) si "destination inaccessible" est reçu.
Pour la réception, cela donne l'avantage de ne recevoir que des paquets du
adresse/port homologue.

source=propos[,propos]
Ne recevez que les paquets envoyés au groupe de multidiffusion à partir de l'une des adresses IP d'expéditeur spécifiées
Adresses.

bloc =propos[,propos]
Ignorez les paquets envoyés au groupe de multidiffusion à partir des adresses IP d'expéditeur spécifiées.

taille_fifo=unités
Définir la taille du tampon circulaire de réception UDP, exprimée en nombre de paquets avec la taille
de 188 octets. Si non spécifié, la valeur par défaut est 7*4096.

overrun_nonfatal=1 | 0
Survivre en cas d'UDP recevant un dépassement de mémoire tampon circulaire. La valeur par défaut est 0.

délai d'attente =microsecondes
Définir le délai d'expiration de l'erreur de relance, exprimé en microsecondes.

Cette option n'est pertinente qu'en lecture : si aucune donnée n'est arrivée au-delà de ce délai
intervalle, augmenter l'erreur.

diffusion =1 | 0
Autoriser ou interdire explicitement la diffusion UDP.

Notez que la diffusion peut ne pas fonctionner correctement sur les réseaux ayant une tempête de diffusion
protection.

Exemples

· Utilisation ffmpeg pour diffuser via UDP vers un point de terminaison distant :

ffmpeg -i -F udp:// :

· Utilisation ffmpeg pour diffuser au format mpegts sur UDP en utilisant 188 paquets UDP de taille, en utilisant un
grand tampon d'entrée :

ffmpeg -i -f mpgts udp:// : ?pkt_size=188&buffer_size=65535

· Utilisation ffmpeg pour recevoir via UDP à partir d'un point de terminaison distant :

ffmpeg -i udp://[ ] : ...

unix
Prise locale Unix

La syntaxe requise pour une URL de socket Unix est :

unix://

Les paramètres suivants peuvent être définis via les options de ligne de commande (ou dans le code via "AVOption") :

temps mort
Délai d'attente en ms.

écouter
Créez le socket Unix en mode écoute.

DISPOSITIF OPTIONS


La bibliothèque libavdevice fournit la même interface que libavformat. A savoir, une entrée
le périphérique est considéré comme un démultiplexeur, et un périphérique de sortie comme un multiplexeur, et l'interface
et les options de périphérique génériques sont les mêmes fournies par libavformat (voir le ffmpeg-formats
Manuel).

De plus, chaque périphérique d'entrée ou de sortie peut prendre en charge des options dites privées, qui sont
spécifique à ce composant.

Les options peuvent être définies en spécifiant -option Plus-value dans les outils FFmpeg, ou en définissant le
valeur explicitement dans les options "AVFormatContext" de l'appareil ou en utilisant le libavutil/opt.h API
pour une utilisation programmatique.

CONTRIBUTION DISPOSITIFS


Les périphériques d'entrée sont des éléments configurés dans FFmpeg qui permettent d'accéder aux données à venir
à partir d'un périphérique multimédia connecté à votre système.

Lorsque vous configurez votre build FFmpeg, tous les périphériques d'entrée pris en charge sont activés par
défaut. Vous pouvez lister tous ceux disponibles en utilisant l'option de configuration "--list-indevs".

Vous pouvez désactiver tous les périphériques d'entrée en utilisant l'option de configuration "--disable-indevs", et
activer sélectivement un périphérique d'entrée à l'aide de l'option "--enable-indev=INDEV", ou tu peux
désactiver un périphérique d'entrée particulier en utilisant l'option "--disable-indev=INDEV".

L'option "-devices" des outils ff* affichera la liste des périphériques d'entrée pris en charge.

Une description des périphériques d'entrée actuellement disponibles suit.

prends-le
Périphérique d'entrée ALSA (Advanced Linux Sound Architecture).

Pour activer ce périphérique d'entrée lors de la configuration, vous devez installer libasound sur votre
système.

Cet appareil permet la capture à partir d'un appareil ALSA. Le nom de l'appareil à capturer doit
être un identifiant de carte ALSA.

Un identifiant ALSA a la syntaxe :

hw : [, [, ]]

où le DEV ainsi que SOUS-DEV les composants sont facultatifs.

Les trois arguments (dans l'ordre : CARTE,DEV,SOUS-DEV) précisez le numéro de carte ou l'identifiant, l'appareil
numéro et numéro de sous-périphérique (-1 signifie n'importe lequel).

Pour voir la liste des cartes actuellement reconnues par votre système, consultez les fichiers
/ proc / asound / cartes ainsi que /proc/asound/appareils.

Par exemple pour capturer avec ffmpeg à partir d'un appareil ALSA avec l'ID de carte 0, vous pouvez exécuter le
commander:

ffmpeg -f alsa -i hw:0 alsaout.wav

Pour plus d'informations voir :http://www.alsa-project.org/alsa-doc/alsa-lib/pcm.html>

Options

taux d'échantillonnage
Réglez la fréquence d'échantillonnage en Hz. La valeur par défaut est 48000.

Voies
Réglez le nombre de canaux. La valeur par défaut est 2.

fondation
Périphérique d'entrée AVFoundation.

AVFoundation est le framework actuellement recommandé par Apple pour la capture de flux sur OSX >=
10.7 ainsi que sur iOS. L'ancien framework QTKit a été marqué comme obsolète depuis OSX
Version 10.7.

Le nom du fichier d'entrée doit être donné dans la syntaxe suivante :

-i "[[VIDÉO]:[AUDIO]]"

La première entrée sélectionne l'entrée vidéo tandis que la seconde sélectionne l'entrée audio. Les
stream doit être spécifié par le nom de l'appareil ou l'index de l'appareil comme indiqué par l'appareil
liste. Alternativement, le périphérique d'entrée vidéo et/ou audio peut être choisi par index en utilisant le

B<-video_device_index E INDEX >

(facultatif)

B<-audio_device_index E INDEX >

, en remplaçant tout nom de périphérique ou index donné dans le nom de fichier d'entrée.

Tous les périphériques disponibles peuvent être énumérés en utilisant -list_devices oui, répertoriant tous les appareils
noms et indices correspondants.

Il existe deux alias de nom de périphérique :

"défaut"
Sélectionnez le périphérique par défaut AVFoundation du type correspondant.

"aucun"
N'enregistrez pas le type de support correspondant. Cela équivaut à spécifier une valeur vide
nom ou index de l'appareil.

Options

AVFoundation prend en charge les options suivantes :

-list_devices
S'il est défini sur true, une liste de tous les périphériques d'entrée disponibles est donnée, montrant tous les périphériques
noms et indices.

-video_device_index
Spécifiez le périphérique vidéo par son index. Remplace tout ce qui est donné dans le nom de fichier d'entrée.

-audio_device_index
Spécifiez le périphérique audio par son index. Remplace tout ce qui est donné dans le nom de fichier d'entrée.

-format_pixel
Demandez au périphérique vidéo d'utiliser un format de pixel spécifique. Si le format spécifié est
pas pris en charge, une liste des formats disponibles est donnée et le premier de cette liste est
utilisé à la place. Les formats de pixels disponibles sont : "monob, rgb555be, rgb555le, rgb565be,
rgb565le, rgb24, bgr24, 0rgb, bgr0, 0bgr, rgb0,
bgr48be, uyvy422, yuva444p, yuva444p16le, yuv444p, yuv422p16, yuv422p10, yuv444p10,
yuv420p, nv12, yuyv422, gris"

-cadence
Définissez la fréquence d'images de capture. La valeur par défaut est "ntsc", correspondant à une fréquence d'images de
"30000/1001".

-vidéo_taille
Définissez la taille de l'image vidéo.

-capture_curseur
Capturez le pointeur de la souris. La valeur par défaut est 0.

-capture_mouse_clicks
Capturez les clics de souris à l'écran. La valeur par défaut est 0.

Exemples

· Imprimez la liste des appareils pris en charge par AVFoundation et quittez :

$ ffmpeg -f avfoundation -list_devices true -i ""

· Enregistrez la vidéo du périphérique vidéo 0 et l'audio du périphérique audio 0 dans out.avi :

$ ffmpeg -f avfoundation -i "0:0" out.avi

· Enregistrez la vidéo du périphérique vidéo 2 et l'audio du périphérique audio 1 dans out.avi :

$ ffmpeg -f avfoundation -video_device_index 2 -i ":1" out.avi

· Enregistrez la vidéo à partir du périphérique vidéo par défaut du système en utilisant le format de pixel bgr0 et faites
ne pas enregistrer d'audio dans out.avi :

$ ffmpeg -f avfoundation -pixel_format bgr0 -i "default:none" out.avi

bktr
Périphérique d'entrée vidéo BSD.

Options

framerate
Réglez la fréquence d'images.

taille_vidéo
Définissez la taille de l'image vidéo. La valeur par défaut est "vga".

Standard
Les valeurs disponibles sont :

copain
NTSC
sec
plann
paume
ntscj

lien de pont
Le périphérique d'entrée decklink offre des capacités de capture pour les périphériques Blackmagic DeckLink.

Pour activer ce périphérique d'entrée, vous avez besoin du Blackmagic DeckLink SDK et vous devez
configurez avec les "--extra-cflags" et "--extra-ldflags" appropriés. Sous Windows, vous
besoin d'exécuter les fichiers IDL via large.

DeckLink est très pointilleux sur les formats qu'il prend en charge. Le format de pixel est uyvy422 ou v210,
la fréquence d'images et la taille de la vidéo doivent être déterminées pour votre appareil avec -list_formats 1. l'audio
la fréquence d'échantillonnage est toujours de 48 kHz et le nombre de canaux peut être de 2, 8 ou 16.

Options

liste_périphériques
Si la valeur oui, imprimez une liste d'appareils et quittez. Par défaut à non.

liste_formats
Si la valeur oui, imprimez une liste des formats pris en charge et quittez. Par défaut à non.

bm_v210
Si la valeur 1, la vidéo est capturée en 10 bits v210 au lieu de uyvy422. Pas tous Blackmagic
les appareils prennent en charge cette option.

Exemples

· Liste des périphériques d'entrée :

ffmpeg -f decklink -list_devices 1 -i factice

· Liste des formats pris en charge :

ffmpeg -f decklink -list_formats 1 -i 'Intensité Pro'

· Capturez un clip vidéo à 1080i50 (format 11) :

ffmpeg -f decklink -i 'Intensity Pro@11' -acodec copy -vcodec copy output.avi

· Capturez un clip vidéo à 1080i50 10 bits :

ffmpeg -bm_v210 1 -f decklink -i 'UltraStudio Mini Recorder@11' -acodec copy -vcodec copy output.avi

montrer
Périphérique d'entrée Windows DirectShow.

La prise en charge de DirectShow est activée lorsque FFmpeg est construit avec le projet mingw-w64. Actuellement
seuls les périphériques audio et vidéo sont pris en charge.

Plusieurs appareils peuvent être ouverts en tant qu'entrées séparées, mais ils peuvent également être ouverts sur le même
d'entrée, ce qui devrait améliorer le synchronisme entre eux.

Le nom d'entrée doit être au format :

= [: = ]

De TYPE peut être soit acoustique or vidéoet Nom est le nom de l'appareil ou une alternative
Nom ..

Options

Si aucune option n'est spécifiée, les valeurs par défaut de l'appareil sont utilisées. Si l'appareil ne
prend en charge les options demandées, il ne s'ouvrira pas.

taille_vidéo
Définissez la taille de la vidéo dans la vidéo capturée.

framerate
Définissez la fréquence d'images dans la vidéo capturée.

taux d'échantillonnage
Définissez la fréquence d'échantillonnage (en Hz) de l'audio capturé.

taille de l'échantillon
Définissez la taille de l'échantillon (en bits) de l'audio capturé.

Voies
Définissez le nombre de canaux dans l'audio capturé.

liste_périphériques
Si la valeur oui, imprimez une liste d'appareils et quittez.

liste_options
Si la valeur oui, imprimez une liste des options de l'appareil sélectionné et quittez.

numéro_de_l'appareil_vidéo
Définissez le numéro de périphérique vidéo pour les périphériques portant le même nom (commence à 0, par défaut à 0).

numéro_périphérique_audio
Définissez le numéro de périphérique audio pour les périphériques portant le même nom (commence à 0, par défaut à 0).

format_pixel
Sélectionnez le format de pixel à utiliser par DirectShow. Cela ne peut être défini que lorsque la vidéo
le codec n'est pas défini ou défini sur rawvideo.

taille_tampon_audio
Définir la taille de la mémoire tampon du périphérique audio en millisecondes (ce qui peut avoir un impact direct sur la latence,
selon l'appareil). Utilise par défaut la taille de tampon par défaut du périphérique audio
(généralement un multiple de 500 ms). Définir cette valeur trop bas peut se dégrader
performance. Voir également
<http://msdn.microsoft.com/en-us/library/windows/desktop/dd377582(v=vs.85).aspx>

nom_pin_vidéo
Sélectionnez la broche de capture vidéo à utiliser par nom ou autre nom.

nom_pin_audio
Sélectionnez la broche de capture audio à utiliser par nom ou autre nom.

crossbar_video_input_pin_number
Sélectionnez le numéro de broche d'entrée vidéo pour le périphérique crossbar. Celui-ci sera acheminé vers la barre transversale
broche de sortie du décodeur vidéo de l'appareil. Notez que la modification de cette valeur peut affecter l'avenir
appels (définit une nouvelle valeur par défaut) jusqu'à ce que le redémarrage du système se produise.

crossbar_audio_input_pin_number
Sélectionnez le numéro de broche d'entrée audio pour le périphérique crossbar. Celui-ci sera acheminé vers la barre transversale
broche de sortie du décodeur audio de l'appareil. Notez que la modification de cette valeur peut affecter l'avenir
appels (définit une nouvelle valeur par défaut) jusqu'à ce que le redémarrage du système se produise.

show_video_device_dialog
Si la valeur oui, avant le début de la capture, affichez une boîte de dialogue d'affichage pour l'utilisateur final,
leur permettant de modifier manuellement les propriétés et les configurations du filtre vidéo. Noter
que pour les dispositifs crossbar, l'ajustement des valeurs dans cette boîte de dialogue peut parfois être nécessaire pour
basculer entre PAL (25 ips) et NTSC (29.97) fréquences d'images d'entrée, tailles, entrelacement,
etc. La modification de ces valeurs peut activer différentes vitesses de balayage/fréquences d'images et éviter
barres vertes en bas, lignes de balayage vacillantes, etc. Notez qu'avec certains appareils,
la modification de ces propriétés peut également affecter les appels futurs (définit de nouvelles valeurs par défaut) jusqu'à ce que
le redémarrage du système se produit.

show_audio_device_dialog
Si la valeur oui, avant le début de la capture, affichez une boîte de dialogue d'affichage pour l'utilisateur final,
leur permettant de modifier manuellement les propriétés et les configurations du filtre audio.

show_video_crossbar_connection_dialog
Si la valeur oui, avant le début de la capture, affichez une boîte de dialogue d'affichage pour l'utilisateur final,
leur permettant de modifier manuellement les routages des broches de la barre transversale, lorsqu'il ouvre un périphérique vidéo.

show_audio_crossbar_connection_dialog
Si la valeur oui, avant le début de la capture, affichez une boîte de dialogue d'affichage pour l'utilisateur final,
leur permettant de modifier manuellement les routages des broches de la barre transversale, lorsqu'il ouvre un périphérique audio.

show_analog_tv_tuner_dialog
Si la valeur oui, avant le début de la capture, affichez une boîte de dialogue d'affichage pour l'utilisateur final,
leur permettant de modifier manuellement les chaînes de télévision et les fréquences.

show_analog_tv_tuner_audio_dialog
Si la valeur oui, avant le début de la capture, affichez une boîte de dialogue d'affichage pour l'utilisateur final,
leur permettant de modifier manuellement l'audio du téléviseur (comme mono vs stéréo, langue A, B ou C).

audio_device_load
Chargez un périphérique de filtrage de capture audio à partir d'un fichier au lieu de le rechercher par son nom. Cela pourrait
charger également des paramètres supplémentaires, si le filtre prend en charge la sérialisation de ses
propriétés à. Pour l'utiliser, une source de capture audio doit être spécifiée, mais elle peut être
n'importe quoi même faux.

audio_device_save
Enregistrez le périphérique de filtre de capture audio actuellement utilisé et ses paramètres (si le filtre
le prend en charge) dans un fichier. Si un fichier portant le même nom existe, il sera écrasé.

video_device_load
Chargez un périphérique de filtrage de capture vidéo à partir d'un fichier au lieu de le rechercher par nom. Cela pourrait
charger également des paramètres supplémentaires, si le filtre prend en charge la sérialisation de ses
propriétés à. Pour l'utiliser, une source de capture vidéo doit être spécifiée, mais elle peut être
n'importe quoi même faux.

vidéo_device_save
Enregistrez le périphérique de filtre de capture vidéo actuellement utilisé et ses paramètres (si le filtre
le prend en charge) dans un fichier. Si un fichier portant le même nom existe, il sera écrasé.

Exemples

· Imprimez la liste des appareils pris en charge par DirectShow et quittez :

$ ffmpeg -list_devices vrai -f dshow -i factice

· Ouvrir le périphérique vidéo Appareil photo:

$ ffmpeg -f dshow -i video="Caméra"

· Ouvrir le deuxième appareil vidéo avec le nom Appareil photo:

$ ffmpeg -f dshow -video_device_number 1 -i video="Caméra"

· Ouvrir le périphérique vidéo Appareil photo et appareil audio Microphone:

$ ffmpeg -f dshow -i video="Caméra":audio="Microphone"

· Imprimez la liste des options prises en charge dans l'appareil sélectionné et quittez :

$ ffmpeg -list_options true -f dshow -i video="Camera"

· Spécifiez les noms de broche à capturer par nom ou nom alternatif, spécifiez un périphérique alternatif
nom:

$ ffmpeg -f dshow -audio_pin_name "Audio Out" -video_pin_name 2 -i video=video="@device_pnp_\\?\pci#ven_1a0a&dev_6200&subsys_62021461&rev_01#4&e2c7dd6&0&00e1#{65e8773d-8f56-11d0-a3b9-00a0c9223196}\{ca465100-deb0-4d59-818f-8c477184adf6}":audio="Microphone"

· Configurer un périphérique crossbar, en spécifiant les broches crossbar, permettre à l'utilisateur d'ajuster la vidéo
capturer les propriétés au démarrage :

$ ffmpeg -f dshow -show_video_device_dialog true -crossbar_video_input_pin_number 0
-crossbar_audio_input_pin_number 3 -i video="Capture analogique AVerMedia BDA":audio="Capture analogique AVerMedia BDA"

dv1394
Périphérique d'entrée Linux DV 1394.

Options

framerate
Réglez la fréquence d'images. La valeur par défaut est 25.

Standard
Les valeurs disponibles sont :

copain
NTSC

La valeur par défaut est "ntsc".

fbdev
Périphérique d'entrée de tampon d'images Linux.

Le framebuffer Linux est une couche d'abstraction graphique indépendante du matériel pour afficher les graphiques
sur un écran d'ordinateur, généralement sur la console. Il est accessible via un périphérique de fichiers
nœud, généralement /dev/fb0.

Pour plus d'informations, lisez le fichier Documentation/fb/framebuffer.txt inclus dans
l'arborescence des sources Linux.

Voir égalementhttp://linux-fbdev.sourceforge.net/>, et fbset (1).

Pour enregistrer à partir du périphérique framebuffer /dev/fb0 avec ffmpeg:

ffmpeg -f fbdev -framerate 10 -i /dev/fb0 out.avi

Vous pouvez prendre une seule capture d'écran avec la commande :

ffmpeg -f fbdev -framerate 1 -i /dev/fb0 -frames:v 1 capture d'écran.jpeg

Options

framerate
Réglez la fréquence d'images. La valeur par défaut est 25.

gdigrab
Périphérique de capture d'écran basé sur Win32 GDI.

Cet appareil vous permet de capturer une région de l'affichage sous Windows.

Il existe deux options pour le nom de fichier d'entrée :

à poser

or

titre=

La première option capturera l'intégralité du bureau ou une région fixe du bureau. Les
la deuxième option capturera à la place le contenu d'une seule fenêtre, quel que soit son
position sur l'écran.

Par exemple, pour récupérer l'intégralité du bureau en utilisant ffmpeg:

ffmpeg -f gdigrab -framerate 6 -i sortie du bureau.mpg

Saisissez une région de 640x480 à la position "10,20" :

ffmpeg -f gdigrab -framerate 6 -offset_x 10 -offset_y 20 -video_size vga -i desktop out.mpg

Saisissez le contenu de la fenêtre nommée "Calculatrice"

ffmpeg -f gdigrab -framerate 6 -i title=Calculatrice out.mpg

Options

dessiner_souris
Spécifiez s'il faut dessiner le pointeur de la souris. Utilisez la valeur 0 pour ne pas dessiner le pointeur.
La valeur par défaut est 1.

framerate
Définissez la fréquence d'images de capture. La valeur par défaut est "ntsc", correspondant à une fréquence d'images de
"30000/1001".

show_region
Afficher la région saisie à l'écran.

If show_region est spécifié avec 1, alors la région de saisie sera indiquée sur
filtrer. Avec cette option, il est facile de savoir ce qui est saisi si seulement une partie
de l'écran est saisi.

Notez que show_region est incompatible avec la saisie du contenu d'une seule fenêtre.

Par exemple :

ffmpeg -f gdigrab -show_region 1 -framerate 6 -video_size cif -offset_x 10 -offset_y 20 -i desktop out.mpg

taille_vidéo
Définissez la taille de l'image vidéo. La valeur par défaut est de capturer le plein écran si à poser is
sélectionné, ou la taille de la fenêtre complète si titre=titre_fenêtre est sélectionné.

décalage_x
Lors de la capture d'une région avec taille_vidéo, définissez la distance à partir du bord gauche du
écran ou bureau.

Notez que le calcul du décalage se fait à partir du coin supérieur gauche du moniteur principal sur
Les fenêtres. Si vous avez un moniteur placé à gauche de votre moniteur principal, vous
devra utiliser un négatif décalage_x valeur pour déplacer la région vers ce moniteur.

décalage_y
Lors de la capture d'une région avec taille_vidéo, définissez la distance à partir du bord supérieur du
écran ou bureau.

Notez que le calcul du décalage se fait à partir du coin supérieur gauche du moniteur principal sur
Les fenêtres. Si vous avez un moniteur placé au-dessus de votre moniteur principal, vous devrez
utiliser un négatif décalage_y valeur pour déplacer la région vers ce moniteur.

iec61883
Périphérique d'entrée FireWire DV/HDV utilisant libiec61883.

Pour activer ce périphérique d'entrée, vous avez besoin de libec61883, libraw1394 et libavc1394 installés sur
votre système. Utilisez l'option de configuration "--enable-libiec61883" pour compiler avec l'appareil
activée.

Le périphérique de capture iec61883 prend en charge la capture à partir d'un périphérique vidéo connecté via IEEE1394
(FireWire), en utilisant libiec61883 et la nouvelle pile Linux FireWire (juju). C'est la valeur par défaut
Méthode d'entrée DV/HDV dans le noyau Linux 2.6.37 et versions ultérieures, car l'ancienne pile FireWire était
enlevé.

Spécifiez le port FireWire à utiliser comme fichier d'entrée, ou "auto" pour choisir le premier port
connecté.

Options

type dv
Ignorer la détection automatique de DV/HDV. Cela ne doit être utilisé que si la détection automatique ne
travail ou si l'utilisation d'un autre type d'appareil doit être interdite. Traiter un DV
l'appareil en tant que HDV (ou vice versa) ne fonctionnera pas et entraînera un comportement indéfini. Les
valeurs auto, dv ainsi que hdv sont pris en charge.

tampon dv
Définir la taille maximale du tampon pour les données entrantes, en trames. Pour DV, c'est un
valeur. Pour HDV, ce n'est pas une image exacte, car HDV n'a pas de taille d'image fixe.

guidedv
Sélectionnez le périphérique de capture en spécifiant son GUID. La capture ne sera effectuée que
à partir du périphérique spécifié et échoue si aucun périphérique avec le GUID donné n'est trouvé. C'est
utile pour sélectionner l'entrée si plusieurs appareils sont connectés en même temps. Voir
dans /sys/bus/firewire/devices pour connaître les GUID.

Exemples

· Saisissez et affichez l'entrée d'un périphérique FireWire DV/HDV.

ffplay -f iec61883 -i automatique

· Saisir et enregistrer l'entrée d'un périphérique FireWire DV/HDV, en utilisant un tampon de paquets de 100000
paquets si la source est HDV.

ffmpeg -f iec61883 -i auto -hdvbuffer 100000 sortie.mpg

jack
Périphérique d'entrée JACK.

Pour activer ce périphérique d'entrée pendant la configuration, vous devez installer libjack sur votre
système.

Un périphérique d'entrée JACK crée un ou plusieurs clients inscriptibles JACK, un pour chaque canal audio,
avec nom nom_client:saisir_N, Où nom_client est le nom fourni par l'application,
ainsi que N est un numéro qui identifie le canal. Chaque client accessible en écriture enverra le
données acquises au périphérique d'entrée FFmpeg.

Une fois que vous avez créé un ou plusieurs clients lisibles JACK, vous devez les connecter à un
ou plusieurs clients JACK accessibles en écriture.

Pour connecter ou déconnecter les clients JACK, vous pouvez utiliser le jack_connect ainsi que jack_déconnecter
programmes, ou le faire via une interface graphique, par exemple avec qjackctl.

Pour lister les clients JACK et leurs propriétés, vous pouvez appeler la commande jack_lsp.

Suit un exemple qui montre comment capturer un client lisible JACK avec ffmpeg.

# Créez un client JACK accessible en écriture avec le nom "ffmpeg".
$ ffmpeg -f prise -i ffmpeg -y sortie.wav

# Démarrez l'exemple de client lisible jack_metro.
$ jack_metro -b 120 -d 0.2 -f 4000

# Liste les clients JACK actuels.
$ jack_lsp -c
système:capture_1
système:capture_2
système:lecture_1
système:lecture_2
ffmpeg:entrée_1
métro : 120_bpm

# Connectez metro au client inscriptible ffmpeg.
$ jack_connect métro:120_bpm ffmpeg:input_1

Pour plus d'informations, lisez :http://jackaudio.org/>

Options

Voies
Réglez le nombre de canaux. La valeur par défaut est 2.

lavfi
Périphérique virtuel d'entrée Libavfilter.

Ce périphérique d'entrée lit les données des plots de sortie ouverts d'un filtergraph libavfilter.

Pour chaque sortie ouverte filtergraph, le périphérique d'entrée créera un flux correspondant
qui est mappé à la sortie générée. Actuellement, seules les données vidéo sont prises en charge. Les
filtergraph est spécifié via l'option graphique.

Options

graphique
Spécifiez le filtergraph à utiliser comme entrée. Chaque sortie vidéo ouverte doit être étiquetée par un
chaîne unique de la forme "outN", où N est un nombre à partir de 0 correspondant à
le flux d'entrée mappé généré par le périphérique. La première sortie non étiquetée est
attribué automatiquement à l'étiquette "out0", mais tous les autres doivent être spécifiés
explicitement.

Le suffixe "+subcc" peut être ajouté à l'étiquette de sortie pour créer un flux supplémentaire avec
les paquets de sous-titres codés attachés à cette sortie (expérimental ; uniquement pour EIA-608 /
CEA-708 pour l'instant). Les flux subcc sont créés après tous les flux normaux, dans le
ordre du flux correspondant. Par exemple, s'il y a "out19+subcc",
"out7+subcc" et jusqu'à "out42", le flux #43 est subcc pour le flux #7 et le flux #44
est subcc pour le flux #19.

Si non spécifié, la valeur par défaut est le nom de fichier spécifié pour le périphérique d'entrée.

fichier_graphique
Définissez le nom de fichier du filtergraph à lire et à envoyer aux autres filtres. Syntaxe
du filtergraph est le même que celui spécifié par l'option graphique.

vidage graphique
Vider le graphique sur stderr.

Exemples

· Créez un flux vidéo couleur et lisez-le avec ffplay:

ffplay -f lavfi -graph "color=c=pink [out0]" mannequin

· Comme dans l'exemple précédent, mais utilisez le nom de fichier pour spécifier la description du graphique, et
omettez l'étiquette "out0":

ffplay -f lavfi couleur=c=rose

· Créez trois sources filtrées de test vidéo différentes et lisez-les :

ffplay -f lavfi -graph "testsrc [out0]; testsrc,hflip [out1]; testsrc,négate [out2]" test3

· Lire un flux audio à partir d'un fichier à l'aide de la source de film et le lire avec ffplay:

ffplay -f lavfi "movie=test.wav"

· Lire un flux audio et un flux vidéo et le lire avec ffplay:

ffplay -f lavfi "movie=test.avi[out0];amovie=test.wav[out1]"

· Dump des images décodées en images et sous-titres codés dans un fichier (expérimental) :

ffmpeg -f lavfi -i "movie=test.ts[out0+subcc]" -map v frame%08d.png -map s -c copy -f rawvideo subcc.bin

libcdio
Périphérique d'entrée CD audio basé sur libcdio.

Pour activer ce périphérique d'entrée lors de la configuration, vous devez installer libcdio sur votre
système. Il nécessite l'option de configuration "--enable-libcdio".

Cet appareil permet de lire et de saisir à partir d'un CD audio.

Par exemple pour copier avec ffmpeg l'ensemble du CD-Audio dans / dev / sr0, vous pouvez exécuter la commande :

ffmpeg -f libcdio -i /dev/sr0 cd.wav

Options

vitesse
Réglez la vitesse de lecture du lecteur. La valeur par défaut est 0.

La vitesse est spécifiée dans les unités de vitesse du CD-ROM. La vitesse est définie via la libcdio
fonction "cdio_cddap_speed_set". Sur de nombreux lecteurs de CD-ROM, spécifier une valeur trop grande
entraînera l'utilisation de la vitesse la plus rapide.

paranoïa_mode
Définissez des indicateurs de mode de récupération de paranoïa. Il accepte l'une des valeurs suivantes :

désactiver
vérifier
chevauchement
ne jamais sauter
plein

La valeur par défaut est désactiver.

Pour plus d'informations sur les modes de récupération disponibles, consultez le projet paranoïa
Documentation.

libdc1394
Périphérique d'entrée IIDC1394, basé sur libdc1394 et libraw1394.

Nécessite l'option de configuration "--enable-libdc1394".

ouvert
Le périphérique d'entrée OpenAL fournit une capture audio sur tous les systèmes avec un OpenAL 1.1 fonctionnel
la mise en œuvre.

Pour activer ce périphérique d'entrée lors de la configuration, vous avez besoin d'en-têtes et de bibliothèques OpenAL
installé sur votre système et devez configurer FFmpeg avec "--enable-openal".

Les en-têtes et bibliothèques OpenAL doivent être fournis dans le cadre de votre implémentation OpenAL, ou
en tant que téléchargement supplémentaire (un SDK). Selon votre installation, vous devrez peut-être spécifier
drapeaux supplémentaires via les "--extra-cflags" et "--extra-ldflags" pour permettre la construction
système pour localiser les en-têtes et les bibliothèques OpenAL.

Voici une liste incomplète des implémentations OpenAL :

Conception
L'implémentation officielle de Windows, fournissant une accélération matérielle avec prise en charge
périphériques et logiciels de secours. Voirhttp://openal.org/>.

Openal Doux / Pastel
Implémentation de logiciels portables et open source (LGPL). Comprend des backends pour la plupart
API sonores courantes sur les systèmes d'exploitation Windows, Linux, Solaris et BSD. Voir
<http://kcat.strangesoft.net/openal.html>.

Apple
OpenAL fait partie de Core Audio, l'interface audio officielle de Mac OS X. Voir
<http://developer.apple.com/technologies/mac/audio-and-video.html>

Ce périphérique permet de capturer à partir d'un périphérique d'entrée audio géré via OpenAL.

Vous devez spécifier le nom du périphérique à capturer dans le nom de fichier fourni. Si la
une chaîne vide est fournie, l'appareil sélectionnera automatiquement l'appareil par défaut. Vous pouvez
obtenir la liste des appareils pris en charge en utilisant l'option liste_périphériques.

Options

Voies
Définissez le nombre de canaux dans l'audio capturé. Seules les valeurs 1 (monaural) et 2
(stéréo) sont actuellement pris en charge. Par défaut à 2.

taille de l'échantillon
Définissez la taille de l'échantillon (en bits) de l'audio capturé. Seules les valeurs 8 ainsi que 16
actuellement pris en charge. Par défaut à 16.

taux d'échantillonnage
Définissez la fréquence d'échantillonnage (en Hz) de l'audio capturé. Par défaut à 44.1K.

liste_périphériques
Si la valeur oui, imprimez une liste d'appareils et quittez. Par défaut à non.

Exemples

Imprimez la liste des appareils pris en charge par OpenAL et quittez :

$ ffmpeg -list_devices true -f openal -i factice out.ogg

Capture à partir de l'appareil OpenAL DR-BT101 via PulseAudio:

$ ffmpeg -f openal -i 'DR-BT101 via PulseAudio' out.ogg

Capturez à partir du périphérique par défaut (notez la chaîne vide '' comme nom de fichier) :

$ ffmpeg -f openal -i '' out.ogg

Capturez à partir de deux appareils simultanément, en écrivant dans deux fichiers différents, dans le même
ffmpeg commander:

$ ffmpeg -f openal -i 'DR-BT101 via PulseAudio' out1.ogg -f openal -i 'ALSA Default' out2.ogg

Remarque : toutes les implémentations OpenAL ne prennent pas en charge plusieurs captures simultanées - essayez le
dernier OpenAL Soft si ce qui précède ne fonctionne pas.

Centre
Ouvrez le périphérique d'entrée Sound System.

Le nom de fichier à fournir au périphérique d'entrée est le nœud de périphérique représentant l'entrée OSS
périphérique, et est généralement réglé sur /dev/dsp.

Par exemple pour saisir de /dev/dsp en utilisant ffmpeg utilisez la commande :

ffmpeg -f oss -i /dev/dsp /tmp/oss.wav

Pour plus d'informations sur OSS, consultez :http://manuals.opensound.com/usersguide/dsp.html>

Options

taux d'échantillonnage
Réglez la fréquence d'échantillonnage en Hz. La valeur par défaut est 48000.

Voies
Réglez le nombre de canaux. La valeur par défaut est 2.

impulsion
Périphérique d'entrée PulseAudio.

Pour activer ce périphérique de sortie, vous devez configurer FFmpeg avec "--enable-libpulse".

Le nom de fichier à fournir au périphérique d'entrée est un périphérique source ou la chaîne "default"

Pour lister les périphériques sources PulseAudio et leurs propriétés, vous pouvez appeler la commande
pacte liste sources.

Vous trouverez plus d'informations sur PulseAudio surhttp://www.pulseaudio.org>.

Options

serveur
Connectez-vous à un serveur PulseAudio spécifique, spécifié par une adresse IP. Serveur par défaut
est utilisé lorsqu'il n'est pas fourni.

prénom
Spécifiez le nom de l'application que PulseAudio utilisera lors de l'affichage des clients actifs, en
par défaut, il s'agit de la chaîne "LIBAVFORMAT_IDENT".

nom_flux
Spécifiez le nom du flux que PulseAudio utilisera lors de l'affichage des flux actifs, par défaut il
est "record".

taux d'échantillonnage
Spécifiez la fréquence d'échantillonnage en Hz, par défaut 48 kHz est utilisé.

Voies
Spécifiez les canaux utilisés, par défaut 2 (stéréo) est défini.

taille du cadre
Spécifiez le nombre d'octets par trame, par défaut, il est défini sur 1024.

taille_fragment
Spécifiez le fragment de mise en mémoire tampon minimal dans PulseAudio, cela affectera l'audio
latence. Par défaut, il est désactivé.

horloge murale
Réglez le PTS initial en utilisant l'heure actuelle. La valeur par défaut est 1.

Exemples

Enregistrez un flux à partir de l'appareil par défaut :

ffmpeg -f pulse -i par défaut /tmp/pulse.wav

qtkit
Périphérique d'entrée QTKit.

Le nom de fichier transmis en entrée est analysé pour contenir soit un nom de périphérique, soit un index. Les
l'index de périphérique peut également être donné en utilisant -video_device_index. Un index de périphérique donné
remplacer tout nom de périphérique donné. Si l'appareil souhaité se compose uniquement de chiffres, utilisez
-video_device_index pour l'identifier. L'appareil par défaut sera choisi si une chaîne vide
ou le nom de l'appareil "default" est donné. Les périphériques disponibles peuvent être énumérés en utilisant
-list_devices.

ffmpeg -f qtkit -i "0" out.mpg

ffmpeg -f qtkit -video_device_index 0 -i "" out.mpg

ffmpeg -f qtkit -i "par défaut" out.mpg

ffmpeg -f qtkit -list_devices true -i ""

Options

frame_rate
Définir la fréquence d'images. La valeur par défaut est 30.

liste_périphériques
S'il est défini sur "true", imprimez une liste de périphériques et quittez. La valeur par défaut est « faux ».

index_device_vidéo
Sélectionnez le périphérique vidéo par index pour les périphériques portant le même nom (commence à 0).

sndio
périphérique d'entrée sndio.

Pour activer ce périphérique d'entrée lors de la configuration, vous devez installer libsndio sur votre
système.

Le nom de fichier à fournir au périphérique d'entrée est le nœud de périphérique représentant le sndio
périphérique d'entrée, et est généralement réglé sur /dev/audio0.

Par exemple pour saisir de /dev/audio0 en utilisant ffmpeg utilisez la commande :

ffmpeg -f sndio -i /dev/audio0 /tmp/oss.wav

Options

taux d'échantillonnage
Réglez la fréquence d'échantillonnage en Hz. La valeur par défaut est 48000.

Voies
Réglez le nombre de canaux. La valeur par défaut est 2.

vidéo4linux2, v4l2
Périphérique vidéo d'entrée Video4Linux2.

"v4l2" peut être utilisé comme alias pour "video4linux2".

Si FFmpeg est construit avec le support de v4l-utils (en utilisant la configuration "--enable-libv4l2"
option), il est possible de l'utiliser avec l'option de périphérique d'entrée "-use_libv4l2".

Le nom du périphérique à récupérer est un nœud de périphérique de fichier, généralement les systèmes Linux ont tendance à
créer automatiquement de tels nœuds lorsque l'appareil (par exemple une webcam USB) est branché sur le
système, et a un nom du genre /dev/vidéoN, Où N est un nombre associé au
appareil.

Les appareils Video4Linux2 prennent généralement en charge un ensemble limité de largeurxla taille tailles et fréquences d'images.
Vous pouvez vérifier lesquels sont pris en charge en utilisant -list_formats TOUTE pour les appareils Video4Linux2. Certains
les appareils, comme les cartes TV, prennent en charge une ou plusieurs normes. Il est possible de lister tous les
normes prises en charge à l'aide -list_normes TOUTE.

La base de temps des horodatages est de 1 microseconde. Selon la version du noyau et
configuration, les horodatages peuvent être dérivés de l'horloge temps réel (origine sous Unix
Epoch) ou l'horloge monotone (origine généralement au démarrage, non affectée par NTP ou manuel
changements d'horloge). Les -horodatages Abdos or -ts Abdos l'option peut être utilisée pour forcer
conversion en horloge temps réel.

Quelques exemples d'utilisation du périphérique video4linux2 avec ffmpeg ainsi que ffplay:

· Liste des formats pris en charge pour un appareil video4linux2 :

ffplay -f video4linux2 -list_formats tous /dev/video0

· Saisissez et affichez l'entrée d'un périphérique video4linux2 :

ffplay -f video4linux2 -framerate 30 -video_size hd720 /dev/video0

· Saisissez et enregistrez l'entrée d'un périphérique video4linux2, laissez la fréquence d'images et la taille comme
précédemment défini :

ffmpeg -f video4linux2 -input_format mjpeg -i /dev/video0 out.mpeg

Pour plus d'informations sur Video4Linux, consultezhttp://linuxtv.org/>.

Options

Standard
Définissez la norme. Doit être le nom d'une norme prise en charge. Pour obtenir une liste des
normes prises en charge, utilisez le liste_normes option.

chaine
Réglez le numéro de canal d'entrée. La valeur par défaut est -1, ce qui signifie utiliser le
canal.

taille_vidéo
Définissez la taille de l'image vidéo. L'argument doit être une chaîne sous la forme LARGEURxHEIGHT ou
abréviation de taille valide.

format_pixel
Sélectionnez le format de pixel (valable uniquement pour l'entrée vidéo brute).

format_entrée
Définissez le format de pixel préféré (pour la vidéo brute) ou un nom de codec. Cette option permet
un pour sélectionner le format d'entrée, lorsque plusieurs sont disponibles.

framerate
Définissez la fréquence d'images vidéo préférée.

liste_formats
Répertoriez les formats disponibles (formats de pixels, codecs et tailles d'image pris en charge) et quittez.

Les valeurs disponibles sont :

TOUTE Afficher tous les formats disponibles (compressés et non compressés).

brut Afficher uniquement les formats vidéo bruts (non compressés).

comprimé
Afficher uniquement les formats compressés.

liste_normes
Répertoriez les normes prises en charge et quittez.

Les valeurs disponibles sont :

TOUTE Afficher toutes les normes prises en charge.

horodatages, ts
Définir le type d'horodatage pour les images saisies.

Les valeurs disponibles sont :

défaut
Utilisez les horodatages du noyau.

Abdos Utilisez des horodatages absolus (horloge murale).

mono2abs
Forcer la conversion des horodatages monotones en horodatages absolus.

La valeur par défaut est "par défaut".

use_libv4l2
Utilisez les fonctions de conversion libv4l2 (v4l-utils). La valeur par défaut est 0.

vfwcap
Périphérique d'entrée de capture VfW (Vidéo pour Windows).

Le nom de fichier passé en entrée est le numéro du pilote de capture, compris entre 0 et 9. Vous pouvez
utilisez "list" comme nom de fichier pour imprimer une liste de pilotes. Tout autre nom de fichier sera interprété
comme numéro d'appareil 0.

Options

taille_vidéo
Définissez la taille de l'image vidéo.

framerate
Définissez la fréquence d'images de capture. La valeur par défaut est "ntsc", correspondant à une fréquence d'images de
"30000/1001".

x11saisir
Périphérique d'entrée vidéo X11.

Pour activer ce périphérique d'entrée pendant la configuration, vous devez installer libxcb sur votre système.
Il sera automatiquement détecté lors de la configuration.

Alternativement, l'option de configuration --enable-x11grab existe pour les utilisateurs Xlib hérités.

Cet appareil permet de capturer une région d'un écran X11.

Le nom de fichier passé en entrée a la syntaxe :

[ ] : . [+ , ]

nom d'hôte:nombre_affichage.numéro_écran spécifie le nom d'affichage X11 de l'écran à saisir
à partir. nom d'hôte peut être omis et la valeur par défaut est "localhost". La variable d'environnement
DISPLAY contient le nom d'affichage par défaut.

décalage_x ainsi que décalage_y spécifier les décalages de la zone saisie par rapport à la partie supérieure gauche
bordure de l'écran X11. Ils sont par défaut à 0.

Consultez la documentation X11 (par ex. man X) pour des informations plus détaillées.

Utilisez l'option xdpyinfo programme pour obtenir des informations de base sur les propriétés de votre X11
affichage (par exemple grep pour "nom" ou "dimensions").

Par exemple pour saisir de : 0.0 en utilisant ffmpeg:

ffmpeg -f x11grab -framerate 25 -video_size cif -i :0.0 out.mpg

Saisir à la position "10,20":

ffmpeg -f x11grab -framerate 25 -video_size cif -i :0.0+10,20 out.mpg

Options

dessiner_souris
Spécifiez s'il faut dessiner le pointeur de la souris. Une valeur de 0 spécifie de ne pas dessiner le
aiguille. La valeur par défaut est 1.

follow_mouse
Faites en sorte que la zone saisie suive la souris. L'argument peut être « centré » ou plusieurs
Pixel PIXELS.

Lorsqu'il est spécifié avec "centered", la zone de saisie suit le pointeur de la souris
et maintient le pointeur au centre de la région ; sinon, la région ne suit que lorsque
le pointeur de la souris atteint PIXELS (supérieur à zéro) jusqu'au bord de la région.

Par exemple :

ffmpeg -f x11grab -follow_mouse centré -framerate 25 -video_size cif -i :0.0 out.mpg

À suivre uniquement lorsque le pointeur de la souris atteint à moins de 100 pixels du bord :

ffmpeg -f x11grab -follow_mouse 100 -framerate 25 -video_size cif -i :0.0 out.mpg

framerate
Définissez la fréquence d'images de capture. La valeur par défaut est "ntsc", correspondant à une fréquence d'images de
"30000/1001".

show_region
Afficher la région saisie à l'écran.

If show_region est spécifié avec 1, alors la région de saisie sera indiquée sur
filtrer. Avec cette option, il est facile de savoir ce qui est saisi si seulement une partie
de l'écran est saisi.

région_frontière
Définissez l'épaisseur de la bordure de la région si -show_region 1 est utilisé. La plage est de 1 à 128 et
la valeur par défaut est 3 (x11grab basé sur XCB uniquement).

Par exemple :

ffmpeg -f x11grab -show_region 1 -framerate 25 -video_size cif -i :0.0+10,20 out.mpg

Avec follow_mouse:

ffmpeg -f x11grab -follow_mouse centré -show_region 1 -framerate 25 -video_size cif -i :0.0 out.mpg

taille_vidéo
Définissez la taille de l'image vidéo. La valeur par défaut est "vga".

utiliser_shm
Utilisez l'extension MIT-SHM pour la mémoire partagée. La valeur par défaut est 1. Cela peut être nécessaire
pour le désactiver pour les affichages distants (legacy x11grab uniquement).

saisir_x saisir_y OptionAV

La syntaxe est:

-grab_x -grab_y

Définissez les coordonnées de la région de saisie. Ils sont exprimés en décalage par rapport au coin supérieur gauche
de la fenêtre X11. La valeur par défaut est 0.

RÉÉCHANTILLONNEUR OPTIONS


Le rééchantillonneur audio prend en charge les options nommées suivantes.

Les options peuvent être définies en spécifiant -option Plus-value dans les outils FFmpeg, option=Plus-value pour le
un filtre d'échantillon, en définissant explicitement la valeur dans les options "SwrContext" ou en utilisant le
libavutil/opt.h API pour une utilisation programmatique.

eh, in_channel_count
Réglez le nombre de canaux d'entrée. La valeur par défaut est 0. La définition de cette valeur n'est pas
obligatoire si la disposition du canal correspondant in_channel_layout est réglé.

oh, out_channel_count
Définissez le nombre de canaux de sortie. La valeur par défaut est 0. La définition de cette valeur n'est pas
obligatoire si la disposition du canal correspondant out_channel_layout est réglé.

euh, used_channel_count
Définissez le nombre de canaux d'entrée utilisés. La valeur par défaut est 0. Cette option est uniquement utilisée
pour un remappage spécial.

estr, in_sample_rate
Réglez la fréquence d'échantillonnage d'entrée. La valeur par défaut est 0.

osr, taux_out_sample_
Réglez la fréquence d'échantillonnage de sortie. La valeur par défaut est 0.

isf, in_sample_fmt
Spécifiez le format de l'échantillon d'entrée. Il est défini par défaut sur "aucun".

osf, out_sample_fmt
Spécifiez le format d'échantillon de sortie. Il est défini par défaut sur "aucun".

tsf, internal_sample_fmt
Définissez le format d'échantillon interne. La valeur par défaut est "aucun". Ce sera automatiquement
choisi lorsqu'il n'est pas explicitement défini.

icl, in_channel_layout
Ocl, out_channel_layout
Réglez la disposition des canaux d'entrée/sortie.

See le Développement Disposition in le ffmpeg-utils(1) Manuel pour la syntaxe requise.

clé, center_mix_level
Réglez le niveau de mixage central. C'est une valeur exprimée en déciBel, et doit être dans le
intervalle [-32,32].

slev, surround_mix_level
Réglez le niveau de mixage surround. C'est une valeur exprimée en déciBel, et doit être dans le
intervalle [-32,32].

lfe_mix_level
Réglez le mixage LFE sur un niveau non LFE. Il est utilisé lorsqu'il y a une entrée LFE mais pas de LFE
sortir. C'est une valeur exprimée en déciBel, et doit être dans l'intervalle [-32,32].

rmvol, volume_rematrice
Réglez le volume de la rematrice. La valeur par défaut est 1.0.

rematrix_maxval
Définir la valeur de sortie maximale pour le rematriçage. Cela peut être utilisé pour empêcher l'écrêtage vs.
prévention de la réduction du volume Une valeur de 1.0 empêche l'écrêtage.

drapeaux, swr_flags
Définir les indicateurs utilisés par le convertisseur. La valeur par défaut est 0.

Il prend en charge les drapeaux individuels suivants :

res force le rééchantillonnage, ce drapeau force le rééchantillonnage à être utilisé même lorsque l'entrée et
les taux d'échantillonnage de sortie correspondent.

tramage_échelle
Réglez l'échelle de tramage. La valeur par défaut est 1.

méthode_dither
Définir la méthode de tramage. La valeur par défaut est 0.

Valeurs prises en charge :

rectangulaire
sélectionner tramage rectangulaire

triangulaire
sélectionner le tramage triangulaire

triangulaire_hp
sélectionnez tramage triangulaire avec passe-haut

Lipshitz
sélectionnez le tramage de mise en forme du bruit lipshitz

Shibata
sélectionner le tramage de mise en forme du bruit shibata

bas_shibata
sélectionner le tramage de mise en forme du bruit shibata faible

high_shibata
sélectionnez le tramage de mise en forme du bruit shibata élevé

f_pondéré
sélectionner le tramage de mise en forme du bruit pondéré f

modifié_e_pondéré
sélectionnez le tramage de mise en forme du bruit à pondération électronique modifiée

amélioré_e_pondéré
sélectionner un tramage de mise en forme du bruit amélioré à pondération électronique

rééchantillonneur
Définir le moteur de rééchantillonnage. La valeur par défaut est swr.

Valeurs prises en charge :

swr sélectionnez le rééchantillonneur SW natif ; les options de filtre precision et cheby ne sont pas
applicables dans ce cas.

soxr
sélectionnez le rééchantillonneur SoX (le cas échéant) ; compensation et options de filtrage
filter_size, phase_shift, filter_type & kaiser_beta, ne sont pas applicables dans ce
Cas.

taille_filtre
Pour swr uniquement, définissez la taille du filtre de rééchantillonnage, la valeur par défaut est 32.

déphasage
Pour swr uniquement, définissez le déphasage de rééchantillonnage, la valeur par défaut est 10, et doit être dans le
intervalle [0,30].

interp_linéaire
Utilisez l'interpolation linéaire si elle est définie sur 1, la valeur par défaut est 0.

coupure
Réglez le rapport de fréquence de coupure (swr : point 6 dB ; soxr : point 0 dB); doit être une valeur flottante
entre 0 et 1. La valeur par défaut est de 0.97 avec swr, et de 0.91 avec soxr (qui, avec un
taux d'échantillonnage de 44100, préserve toute la bande audio à 20 kHz).

avec précision
Pour soxr uniquement, la précision en bits avec laquelle le signal rééchantillonné sera calculé.
La valeur par défaut de 20 (qui, avec un dithering approprié, convient à un
une profondeur de bits de destination de 16) donne la « Haute Qualité » de SoX ; une valeur de 28 donne des SoX
'Très Haute Qualité'.

Cheby
Pour soxr uniquement, sélectionne la réduction de bande passante aucune (Chebyshev) et une précision supérieure
approximation des rapports « irrationnels ». La valeur par défaut est 0.

async
Pour swr uniquement, synchronisation audio simple à 1 paramètre avec les horodatages à l'aide de l'étirement, de la compression,
remplissage et parage. Le réglage sur 1 permettra le remplissage et le rognage, plus grand
les valeurs représentent la quantité maximale dans les échantillons que les données peuvent être étirées ou
pressé pour chaque seconde. La valeur par défaut est 0, donc aucune compensation n'est appliquée pour faire
les échantillons correspondent aux horodatages audio.

premiers_pts
Pour swr uniquement, supposons que les premiers points doivent être cette valeur. L'unité de temps est 1 / échantillon
taux. Cela permet le remplissage/le rognage au début du flux. Par défaut, non
une hypothèse est faite sur les points attendus de la première image, donc aucun remplissage ou rognage n'est
terminé. Par exemple, cela peut être réglé sur 0 pour compléter le début par du silence si un
le flux audio commence après le flux vidéo ou pour couper les échantillons avec un point négatif
en raison du retard de l'encodeur.

min_comp
Pour swr uniquement, définissez la différence minimale entre les horodatages et les données audio (en
secondes) pour déclencher l'étirement/la compression/le remplissage ou le rognage des données pour les rendre
correspondre aux horodatages. La valeur par défaut est que l'étirement/la compression/le remplissage et la coupe sont
désactivée (min_comp = "FLT_MAX").

min_hard_comp
Pour swr uniquement, définissez la différence minimale entre les horodatages et les données audio (en
secondes) pour déclencher l'ajout/la suppression d'échantillons afin qu'ils correspondent aux horodatages. Cette
L'option est effectivement un seuil pour choisir entre dur (taille/remplissage) et doux
(compression/étirement) compensation. Notez que toutes les compensations sont désactivées par défaut
à travers min_comp. La valeur par défaut est 0.1.

durée_comp
Pour swr uniquement, définissez la durée (en secondes) pendant laquelle les données sont étirées/compressées pour créer
il correspond aux horodatages. Doit être une valeur flottante double non négative, la valeur par défaut est
1.0.

max_soft_comp
Pour swr uniquement, définissez le facteur maximal par lequel les données sont étirées/compressées pour les faire correspondre
les horodatages. Doit être une valeur flottante double non négative, la valeur par défaut est 0.

codage_matrice
Sélectionnez l'encodage stéréo matriciel.

Il accepte les valeurs suivantes :

aucun
Ne rien sélectionner

dolby
sélectionnez Dolby

dplii
sélectionnez Dolby Pro Logic II

La valeur par défaut est "aucun".

type_filtre
Pour swr uniquement, sélectionnez le type de filtre de rééchantillonnage. Cela n'affecte que les opérations de rééchantillonnage.

Il accepte les valeurs suivantes :

cubique
sélectionner cubique

blackman_nuttall
sélectionnez Blackman Nuttall Windowed Sinc

kaiser
sélectionnez Kaiser Windowed Sinc

kaiser_bêta
Pour swr uniquement, définissez la valeur Kaiser Window Beta. Doit être un entier dans l'intervalle [2,16],
la valeur par défaut est 9.

sortie_échantillon_bits
Pour swr uniquement, définissez le nombre de bits d'échantillon de sortie utilisés pour le dithering. Doit être un entier
dans l'intervalle [0,64], la valeur par défaut est 0, ce qui signifie qu'elle n'est pas utilisée.

ÉCAILLEUR OPTIONS


Le scaler vidéo prend en charge les options nommées suivantes.

Les options peuvent être définies en spécifiant -option Plus-value dans les outils FFmpeg. Pour une utilisation programmatique,
ils peuvent être définis explicitement dans les options "SwsContext" ou via le libavutil/opt.h API.

sws_flags
Définissez les drapeaux de mise à l'échelle. Ceci est également utilisé pour définir l'algorithme de mise à l'échelle. Un seul
l'algorithme doit être sélectionné.

Il accepte les valeurs suivantes :

rapide_bilinéaire
Sélectionnez un algorithme de mise à l'échelle bilinéaire rapide.

bilinéaire
Sélectionnez l'algorithme de mise à l'échelle bilinéaire.

bicubique
Sélectionnez l'algorithme de mise à l'échelle bicubique.

expérimental
Sélectionnez un algorithme de mise à l'échelle expérimental.

voisin
Sélectionnez l'algorithme de redimensionnement du voisin le plus proche.

la surface
Sélectionnez l'algorithme de remise à l'échelle de la zone de moyenne.

bicubline
Sélectionnez l'algorithme de mise à l'échelle bicubique pour la composante luma, bilinéaire pour la chrominance
composants.

Gauss
Sélectionnez l'algorithme de redimensionnement gaussien.

sincère
Sélectionnez l'algorithme de remise à l'échelle sinc.

lanczos
Sélectionnez l'algorithme de redimensionnement lanczos.

spline
Sélectionnez l'algorithme de redimensionnement de spline bicubique naturel.

print_info
Activer la journalisation d'impression/de débogage.

precise_rnd
Activer l'arrondi précis.

full_chroma_int
Activez l'interpolation complète de la chrominance.

full_chroma_inp
Sélectionnez l'entrée de chrominance complète.

bitexact
Activer la sortie bitexact.

srcw
Définir la largeur de la source.

recherche
Réglez la hauteur de la source.

dstw
Définir la largeur de destination.

dsth
Définir la hauteur de destination.

format_src
Définir le format du pixel source (doit être exprimé sous forme d'entier).

format_heure
Définir le format de pixel de destination (doit être exprimé sous forme d'entier).

src_range
Sélectionnez la plage source.

plage_dst
Sélectionnez la plage de destination.

paramètre0, param1
Définissez les paramètres de l'algorithme de mise à l'échelle. Les valeurs spécifiées sont spécifiques de certaines mises à l'échelle
algorithmes et ignoré par les autres. Les valeurs spécifiées sont des nombres à virgule flottante
valeurs.

sws_dither
Définissez l'algorithme de tramage. Accepte l'une des valeurs suivantes. La valeur par défaut est
auto.

auto
choix automatique

aucun
pas de tramage

Bavière
bayer tergiverser

ed tramage de diffusion d'erreur

un_trembler
tramage arithmétique, basé sur l'addition

x_dither
tramage arithmétique, basé sur xor (motif plus aléatoire/moins apparent qui
a_trembler).

mélange alphabétique
Définissez le mélange alpha à utiliser lorsque l'entrée a de l'alpha mais pas la sortie.
La valeur par défaut est aucun.

couleur_uniforme
Mélanger sur une couleur de fond uniforme

damier
Estomper sur un damier

aucun
Pas de mélange

Filtrage INTRODUCTION


Le filtrage dans FFmpeg est activé via la bibliothèque libavfilter.

Dans libavfilter, un filtre peut avoir plusieurs entrées et plusieurs sorties. Pour illustrer le
toutes sortes de choses qui sont possibles, nous considérons le filtergraph suivant.

[principale]
entrée --> split ---------------------> superposition --> sortie
| ^
|[tmp] [retourner]|
+-----> recadrer --> vflip -------+

Ce filtergraph divise le flux d'entrée en deux flux, puis envoie un flux à travers le
filtre de recadrage et le filtre vflip, avant de le fusionner avec l'autre flux en
en le superposant. Vous pouvez utiliser la commande suivante pour y parvenir :

ffmpeg -i INPUT -vf "split [main][tmp]; [tmp] crop=iw:ih/2:0:0, vflip [flip]; [main][flip] overlay=0:H/2" OUTPUT

Le résultat sera que la moitié supérieure de la vidéo est reflétée sur la moitié inférieure de la
sortie vidéo.

Les filtres d'une même chaîne linéaire sont séparés par des virgules et des chaînes linéaires distinctes de
les filtres sont séparés par des points-virgules. Dans notre exemple, recadrage, vflip sont dans une chaîne linéaire,
scission ainsi que revêtement sont séparément dans un autre. Les points de jonction des chaînes linéaires sont
étiquetés par des noms entre crochets. Dans l'exemple, le filtre divisé génère
deux sorties associées aux étiquettes [principale] ainsi que [tmp].

Le flux envoyé à la deuxième sortie de scission, étiqueté comme [tmp], est traité par le
récolte filtre, qui recadre la moitié inférieure de la vidéo, puis verticalement
renversé. Les revêtement le filtre prend en entrée la première sortie inchangée du filtre divisé
(qui a été étiqueté comme [principale]), et superpose sur sa moitié inférieure la sortie générée par le
recadrage, vflip chaîne de filtrage.

Certains filtres prennent en entrée une liste de paramètres : ils sont spécifiés après le nom du filtre
et un signe égal, et sont séparés l'un de l'autre par deux points.

Il existe des soi-disant la source filtres qui n'ont pas d'entrée audio/vidéo, et lavabo
filtres qui n'aura pas de sortie audio/vidéo.

GRAPHIQUE


La graphique2dot programme inclus dans le FFmpeg les outils répertoire peut être utilisé pour analyser un
description du filtergraph et émission d'une représentation textuelle correspondante dans le point
la langue.

Appelez la commande :

graph2dot -h

pour voir comment utiliser graphique2dot.

Vous pouvez ensuite transmettre la description du point au point programme (de la suite graphviz de
programmes) et obtenir une représentation graphique du filtergraph.

Par exemple la séquence de commandes :

écho | \
tools/graph2dot -o graph.tmp && \
point -Tpng graph.tmp -o graph.png && \
afficher le graphique.png

peut être utilisé pour créer et afficher une image représentant le graphique décrit par le
GRAPH_DESCRIPTION chaîne de caractères. Notez que cette chaîne doit être un graphe complet et autonome,
avec ses entrées et sorties explicitement définies. Par exemple si votre ligne de commande est de
la forme:

ffmpeg -i infile -vf scale=640:360 outfile

Un flux efficace peut augmenter GRAPH_DESCRIPTION la chaîne devra être de la forme :

nullsrc,échelle=640:360,nullsink

vous devrez peut-être également définir le nullsrc paramètres et ajoutez un le format filtrer afin de
simuler un fichier d'entrée spécifique.

FILTREGRAPHE DESCRIPTION


Un filtergraph est un graphe orienté de filtres connectés. Il peut contenir des cycles, et là
peut être plusieurs liens entre une paire de filtres. Chaque lien a un pad d'entrée d'un côté
le connecter à un filtre dont il tire son entrée, et un pad de sortie sur l'autre
côté le reliant à un filtre acceptant sa sortie.

Chaque filtre dans un filtergraph est une instance d'une classe de filtre enregistrée dans le
application, qui définit les caractéristiques et le nombre de plots d'entrée et de sortie du
filtre.

Un filtre sans pads d'entrée est appelé une "source", et un filtre sans pads de sortie est
appelé un "évier".

Graphique de filtre syntaxe
Un filtergraph a une représentation textuelle, qui est reconnue par le -filtre/-vf/-un F ainsi que
-filtre_complexe options ffmpeg ainsi que -vf/-un F in ffplayEt par
Fonction "avfilter_graph_parse_ptr()" définie dans libavfilter/avfilter.h.

Une chaîne de filtres consiste en une séquence de filtres connectés, chacun connecté au
précédente dans la séquence. Une chaîne de filtres est représentée par une liste de ","-séparés
descriptions des filtres.

Un filtergraph consiste en une séquence de filterchains. Une séquence de chaînes de filtres est
représenté par une liste de descriptions de chaînes de filtres séparées par des ";".

Un filtre est représenté par une chaîne de la forme :
[in_link_1]...[in_link_N]nom_filtre=arguments[out_link_1]...[out_link_M]

nom_filtre est le nom de la classe de filtre dont le filtre décrit est une instance
de, et doit être le nom de l'une des classes de filtres enregistrées dans le programme. Les
le nom de la classe de filtre est éventuellement suivi d'une chaîne "=arguments".

arguments est une chaîne qui contient les paramètres utilisés pour initialiser le filtre
exemple. Il peut prendre l'une des deux formes suivantes :

· Une liste séparée par ':' de key = paires.

· Une liste séparée par ':' de Plus-value. Dans ce cas, les clés sont supposées être l'option
noms dans l'ordre où ils sont déclarés. Par exemple, le filtre "fondu" déclare trois options dans
cet ordre -- type, start_frame ainsi que nb_frames. Ensuite, la liste des paramètres dans:0:30 veux dire
que la valeur in est affecté à l'option type, 0 à start_frame ainsi que 30 à
nb_frames.

· Une liste séparée par ':' de directs mixtes Plus-value et long key = paires. Le direct Plus-value
doit précéder le key = paires, et suivre le même ordre de contraintes de la
point précédent. Ce qui suit key = les paires peuvent être placées dans n'importe quel ordre préféré.

Si la valeur de l'option elle-même est une liste d'éléments (par exemple, le filtre "format" prend une liste de
pixels), les éléments de la liste sont généralement séparés par |.

La liste des arguments peut être citée à l'aide du caractère ' comme marque initiale et finale, et
le personnage \ pour échapper les caractères dans le texte cité ; sinon l'argument
chaîne est considérée comme terminée lorsque le prochain caractère spécial (appartenant à l'ensemble
[]=;,) est rencontré.

Le nom et les arguments du filtre sont éventuellement précédés et suivis d'une liste de
étiquettes de lien. Une étiquette de lien permet de nommer un lien et de l'associer à une sortie de filtre
ou le pavé d'entrée. Les étiquettes précédentes in_link_1 in_link_N, sont associés au filtre
pads d'entrée, les étiquettes suivantes out_link_1 out_link_M, sont associés à la sortie
tampons.

Lorsque deux étiquettes de lien avec le même nom sont trouvées dans le filtergraph, un lien entre le
le pad d'entrée et de sortie correspondant est créé.

Si un plot de sortie n'est pas étiqueté, il est lié par défaut à la première entrée non étiquetée
tampon du filtre suivant dans la chaîne de filtres. Par exemple dans la chaîne de filtrage

nullsrc, split[L1], [L2]superposition, nullsink

l'instance de filtre divisé a deux pads de sortie et l'instance de filtre de superposition deux entrées
tampons. Le premier pad de sortie de split est étiqueté "L1", le premier pad d'entrée de superposition est
étiqueté "L2", et le deuxième pad de sortie de split est lié au deuxième pad d'entrée de
superposition, qui ne sont pas toutes deux étiquetées.

Dans une description de filtre, si l'étiquette d'entrée du premier filtre n'est pas spécifiée, "in" est
assumé; si l'étiquette de sortie du dernier filtre n'est pas spécifiée, "out" est supposé.

Dans une chaîne de filtrage complète, tous les pads d'entrée et de sortie de filtre non étiquetés doivent être
connecté. Un filtergraph est considéré comme valide si tous les plots d'entrée et de sortie du filtre de
toutes les chaînes de filtres sont connectées.

Libavfilter insérera automatiquement escaliers filtres où la conversion de format est requise.
Il est possible de spécifier des indicateurs swscale pour les scalers automatiquement insérés en
préfixe "sws_flags=drapeaux ;" à la description du filtergraph.

Voici une description BNF de la syntaxe filtergraph :

::= séquence de caractères alphanumériques et '_'
::= "[" "]"
::= [ ]
::= séquence de caractères (éventuellement entre guillemets)
::= [ ] ["=" ] [ ]
::= [, ]
::= [sws_flags= ;] [; ]

Notes on graphique de filtre échapper
La composition de description de Filtergraph implique plusieurs niveaux d'échappement. Voir le "Citation
ainsi que s'échapper" in le ffmpeg-utils(1) Manuel pour plus d'informations sur la
procédure d'échappement employée.

Un échappement de premier niveau affecte le contenu de chaque valeur d'option de filtre, qui peut contenir
le caractère spécial ":" utilisé pour séparer les valeurs, ou l'un des caractères d'échappement "\'".

Un échappement de deuxième niveau affecte toute la description du filtre, qui peut contenir le
les caractères d'échappement "\'" ou les caractères spéciaux "[],;" utilisé par le filtergraph
la description.

Enfin, lorsque vous spécifiez un filtergraph sur une ligne de commande shell, vous devez effectuer un
troisième niveau d'échappement pour les caractères spéciaux du shell qu'il contient.

Par exemple, considérons que la chaîne suivante doit être incorporée dans le dessiner le texte une fonction filtre
la description texte valeur:

ceci est une 'chaîne' : peut contenir un ou plusieurs caractères spéciaux

Cette chaîne contient le caractère d'échappement spécial "'" et le caractère spécial ":", donc
il doit être échappé de cette manière:

text=ceci est une \'chaîne\'\ : peut contenir un ou plusieurs caractères spéciaux

Un deuxième niveau d'échappement est requis lors de l'intégration de la description du filtre dans un
description du filtergraph, afin d'échapper à tous les caractères spéciaux du filtergraph. Ainsi
l'exemple ci-dessus devient :

drawtext=text=ceci est une \\\'string\\\'\\ : peut contenir un\, ou plusieurs\, caractères spéciaux

(notez qu'en plus des caractères spéciaux d'échappement "\'", "," doit également être
échappé).

Enfin, un niveau supplémentaire d'échappement est nécessaire lors de l'écriture de la description du filtergraph
dans une commande shell, qui dépend des règles d'échappement du shell adopté. Par exemple,
en supposant que "\" est spécial et doit être échappé avec un autre "\", la chaîne précédente
se traduira finalement par :

-vf "drawtext=text=ceci est une \\\\\\'string\\\\\\'\\\\ : peut contenir un\\, ou plusieurs\\, caractères spéciaux"

CHRONOLOGIE ÉDITION


Certains filtres prennent en charge un générique permettre option. Pour les filtres prenant en charge l'édition de la chronologie,
cette option peut être définie sur une expression qui est évaluée avant d'envoyer une trame au
filtre. Si l'évaluation est non nulle, le filtre sera activé, sinon le cadre
sera envoyé inchangé au filtre suivant dans le filtergraph.

L'expression accepte les valeurs suivantes :

t horodatage exprimé en secondes, NAN si l'horodatage d'entrée est inconnu

n numéro séquentiel de la trame d'entrée, à partir de 0

poster la position dans le fichier de la trame d'entrée, NAN si inconnue

w
h largeur et hauteur du cadre d'entrée si vidéo

De plus, ces filtres prennent en charge un permettre commande qui peut être utilisée pour redéfinir le
expression.

Comme toute autre option de filtrage, le permettre option suit les mêmes règles.

Par exemple, pour activer un filtre de flou (flou artistique) de 10 secondes à 3 minutes, et un
courbes filtre à partir de 3 secondes :

smartblur = enable='entre(t,10,3*60)',
courbes = enable='gte(t,3)' : preset=cross_process

AUDIO FILTRES


Lorsque vous configurez votre build FFmpeg, vous pouvez désactiver l'un des filtres existants en utilisant
"--désactiver-filtres". La sortie de configuration affichera les filtres audio inclus dans votre
construire.

Vous trouverez ci-dessous une description des filtres audio actuellement disponibles.

fondu enchaîné
Appliquez un fondu enchaîné d'un flux audio d'entrée à un autre flux audio d'entrée. La Croix
le fondu est appliqué pendant une durée spécifiée vers la fin du premier flux.

Le filtre accepte les options suivantes :

nb_échantillons, ns
Spécifiez le nombre d'échantillons pour lesquels l'effet de fondu enchaîné doit durer. À la fin
de l'effet de fondu enchaîné, la première entrée audio sera complètement silencieuse. La valeur par défaut est
44100.

durée, d
Spécifiez la durée de l'effet de fondu enchaîné. Voir le Temps durée in le
ffmpeg-utils(1) Manuel pour la syntaxe acceptée. Par défaut la durée est déterminée
by nb_échantillons. Si elle est définie, cette option est utilisée à la place de nb_échantillons.

chevauchement, o
Si la fin du premier flux chevauche le début du deuxième flux. La valeur par défaut est activée.

courbe1
Définir la courbe pour la transition de fondu enchaîné pour le premier flux.

courbe2
Définir la courbe pour la transition de fondu enchaîné pour le deuxième flux.

Pour la description des types de courbes disponibles, voir s'effacer description du filtre.

Exemples

· Fondu enchaîné d'une entrée à l'autre :

ffmpeg -i first.flac -i second.flac -filter_complex acrossfade=d=10:c1=exp:c2=exp output.flac

· Fondu enchaîné d'une entrée à l'autre mais sans chevauchement :

ffmpeg -i first.flac -i second.flac -filter_complex acrossfade=d=10:o=0:c1=exp:c2=exp output.flac

un délai
Retardez un ou plusieurs canaux audio.

Les échantillons dans le canal retardé sont remplis de silence.

Le filtre accepte l'option suivante :

retards
Définir la liste des délais en millisecondes pour chaque canal séparés par '|'. Au moins un
un délai supérieur à 0 doit être fourni. Les délais inutilisés seront ignorés en silence. Si
le nombre de retards donnés est inférieur au nombre de canaux tous les canaux restants seront
ne pas être retardé.

Exemples

· Retardez le premier canal de 1.5 seconde, le troisième canal de 0.5 seconde et laissez le
deuxième canal (et tout autre canal éventuellement présent) inchangé.

délai=1500|0|500

écho
Appliquez un écho à l'audio d'entrée.

Les échos sont des sons réfléchis et peuvent se produire naturellement parmi les montagnes (et parfois de grands
bâtiments) en parlant ou en criant ; les effets d'écho numérique émulent ce comportement et sont
souvent utilisé pour aider à remplir le son d'un seul instrument ou d'une voix. Le décalage horaire
entre le signal d'origine et la réflexion est le "retard", et le volume du
le signal réfléchi est la "décroissance". Les échos multiples peuvent avoir des retards et des décroissances différents.

Une description des paramètres acceptés suit.

in_gain
Réglez le gain d'entrée du signal réfléchi. La valeur par défaut est 0.6.

gain_out
Réglez le gain de sortie du signal réfléchi. La valeur par défaut est 0.3.

retards
Définir la liste des intervalles de temps en millisecondes entre le signal d'origine et les réflexions
séparés par '|'. La plage autorisée pour chaque "retard" est "(0 - 90000.0]". La valeur par défaut est 1000.

se désintègre
Définir la liste des niveaux sonores des signaux réfléchis séparés par '|'. Plage autorisée pour chacun
"decay" est "(0 - 1.0]". La valeur par défaut est 0.5.

Exemples

· Faites sonner comme s'il y avait deux fois plus d'instruments que d'instruments en jeu :

écho=0.8:0.88:60:0.4

· Si le délai est très court, cela ressemble à un robot (métallique) jouant de la musique :

écho=0.8:0.88:6:0.4

· Un delay plus long sonnera comme un concert en plein air en montagne :

écho=0.8:0.9:1000:0.3

· Idem que ci-dessus mais avec une montagne de plus :

aecho=0.8:0.9:1000|1800:0.3|0.25

évasion
Modifier un signal audio selon les expressions spécifiées.

Ce filtre accepte une ou plusieurs expressions (une pour chaque canal), qui sont évaluées
et utilisé pour modifier un signal audio correspondant.

Il accepte les paramètres suivants :

expressions
Définissez la liste d'expressions séparées par '|' pour chaque canal séparé. Si le nombre de
canaux d'entrée est supérieur au nombre d'expressions, le dernier spécifié
expression est utilisée pour les canaux de sortie restants.

canal_layout, c
Définir la disposition du canal de sortie. S'il n'est pas spécifié, la disposition des canaux est spécifiée par le
nombre d'expressions. Si réglé sur même, il utilisera par défaut le même canal d'entrée
mise en page.

Chaque expression dans expressions peut contenir les constantes et fonctions suivantes :

ch numéro de canal de l'expression actuelle

n numéro de l'échantillon évalué, à partir de 0

s taux d'échantillonnage

t temps de l'échantillon évalué exprimé en secondes

nb_in_channels
nb_out_channels
nombre de canaux d'entrée et de sortie

val(CH)
la valeur du canal d'entrée avec le numéro CH

Remarque : ce filtre est lent. Pour un traitement plus rapide, vous devez utiliser un filtre dédié.

Exemples

· Demi-volume :

aeval=val(ch)/2:c=même

· Inverser la phase du deuxième canal :

aeval=vague(0)|-vague(1)

s'effacer
Appliquez un effet de fondu d'entrée/sortie à l'entrée audio.

Une description des paramètres acceptés suit.

Type, t
Spécifiez le type d'effet, peut être soit "in" pour un fondu d'entrée, soit "out" pour un fondu de sortie
effet. La valeur par défaut est "dans".

start_sample, ss
Spécifiez le numéro de l'échantillon de départ pour commencer à appliquer l'effet de fondu. Défaut
est 0.

nb_échantillons, ns
Spécifiez le nombre d'échantillons pour lesquels l'effet de fondu doit durer. À la fin de
effet de fondu d'entrée, l'audio de sortie aura le même volume que l'audio d'entrée, à la
à la fin de la transition de fondu sortant, l'audio de sortie sera silencieux. La valeur par défaut est 44100.

Heure de début, st
Spécifiez l'heure de début de l'effet de fondu. La valeur par défaut est 0. La valeur doit être spécifiée
comme une durée de temps ; voir le Temps durée in le ffmpeg-utils(1) Manuel en
la syntaxe acceptée. Si elle est définie, cette option est utilisée à la place de start_sample.

durée, d
Spécifiez la durée de l'effet de fondu. Voir le Temps durée in le
ffmpeg-utils(1) Manuel pour la syntaxe acceptée. A la fin de l'effet de fondu, le
l'audio de sortie aura le même volume que l'audio d'entrée, à la fin du fondu de sortie
transition l'audio de sortie sera silencieux. Par défaut, la durée est déterminée par
nb_échantillons. Si elle est définie, cette option est utilisée à la place de nb_échantillons.

courbe
Définir la courbe pour la transition de fondu.

Il accepte les valeurs suivantes :

tri sélectionnez triangulaire, pente linéaire (par défaut)

qsin
sélectionner quart d'onde sinusoïdale

hsin
sélectionner la moitié de l'onde sinusoïdale

inspiration
sélectionner l'onde sinusoïdale exponentielle

enregistrer sélectionner logarithmique

ipar
sélectionner la parabole inversée

ici sélectionner quadratique

cube sélectionner cubique

carré sélectionner la racine carrée

cbr sélectionner la racine cubique

par sélectionner la parabole

exp sélectionnez exponentielle

iqsin
sélectionner quart inversé d'onde sinusoïdale

ihsin
sélectionner la moitié inversée de l'onde sinusoïdale

dés
sélectionnez siège double exponentielle

desi
sélectionnez sigmoïde double exponentiel

Exemples

· Fondu dans les 15 premières secondes de l'audio :

afade=t=in:ss=0:d=15

· Fondu des 25 dernières secondes d'un audio de 900 secondes :

afade=t=out:st=875:d=25

un format
Définissez les contraintes de format de sortie pour l'audio d'entrée. Le cadre négociera le plus
format approprié pour minimiser les conversions.

Il accepte les paramètres suivants :

exemple_fmts
Une liste séparée par des « | » des exemples de formats demandés.

taux_échantillons
Une liste séparée par '|' des taux d'échantillonnage demandés.

canal_layouts
Une liste séparée par '|' des dispositions de canaux demandées.

See le Développement Disposition in le ffmpeg-utils(1) Manuel pour la syntaxe requise.

Si un paramètre est omis, toutes les valeurs sont autorisées.

Forcer la sortie en stéréo 8 bits non signé ou en 16 bits signé

aformat=sample_fmts=u8|s16:channel_layouts=stéréo

tous passent
Appliquer un filtre passe-tout bipolaire avec fréquence centrale (en Hz) fréquence, et filtre-
largeur largeur. Un filtre passe-tout modifie la relation fréquence-phase de l'audio
sans changer sa relation fréquence-amplitude.

Le filtre accepte les options suivantes :

la fréquence, f
Réglez la fréquence en Hz.

largeur_type
Définir la méthode pour spécifier la bande passante du filtre.

h Hz

q Facteur Q

o octave

s pente

largeur, w
Spécifiez la bande passante d'un filtre en unités width_type.

fusionner
Fusionnez deux ou plusieurs flux audio en un seul flux multicanal.

Le filtre accepte les options suivantes :

entrées
Réglez le nombre d'entrées. La valeur par défaut est 2.

Si les dispositions des canaux des entrées sont disjointes, et donc compatibles, le canal
la disposition de la sortie sera définie en conséquence et les canaux seront réorganisés comme
nécessaire. Si les dispositions des canaux des entrées ne sont pas disjointes, la sortie aura tous
les canaux de la première entrée puis tous les canaux de la deuxième entrée, dans cet ordre,
et la disposition des canaux de la sortie sera la valeur par défaut correspondant au total
Nombre de canaux.

Par exemple, si la première entrée est en 2.1 (FL+FR+LF) et la deuxième entrée est FC+BL+BR,
alors la sortie sera en 5.1, avec les canaux dans l'ordre suivant : a1, a2, b1, a3,
b2, b3 (a1 est le premier canal de la première entrée, b1 est le premier canal de la seconde
contribution).

Par contre, si les deux entrées sont en stéréo, les canaux de sortie seront par défaut
ordre : a1, a2, b1, b2, et la disposition des canaux sera arbitrairement définie sur 4.0, ce qui peut ou
peut ne pas être la valeur attendue.

Toutes les entrées doivent avoir la même fréquence d'échantillonnage et le même format.

Si les entrées n'ont pas la même durée, la sortie s'arrêtera avec la plus courte.

Exemples

· Fusionnez deux fichiers mono en un flux stéréo :

amovie=gauche.wav [l] ; amovie=right.mp3 [r] ; [l] [r] fusionner

· Fusions multiples en supposant 1 flux vidéo et 6 flux audio dans entrée.mkv:

ffmpeg -i input.mkv -filter_complex "[0:1][0:2][0:3][0:4][0:5][0:6] amerge=inputs=6" -c:a pcm_s16le sortie.mkv

un mélange
Mélange plusieurs entrées audio en une seule sortie.

Notez que ce filtre ne prend en charge que les échantillons flottants (le fusionner ainsi que casserole filtres audio
prend en charge de nombreux formats). Si la un mélange l'entrée a des échantillons entiers alors un échantillon sera
inséré automatiquement pour effectuer la conversion en échantillons flottants.

Par exemple

ffmpeg -i INPUT1 -i INPUT2 -i INPUT3 -filter_complex amix=inputs=3:duration=first:dropout_transition=3 OUTPUT

mélangera 3 flux audio d'entrée à une seule sortie avec la même durée que le premier
entrée et un temps de transition de désactivation de 3 secondes.

Il accepte les paramètres suivants :

entrées
Le nombre d'entrées. S'il n'est pas spécifié, la valeur par défaut est 2.

durée
Comment déterminer la fin du flux.

le plus long
La durée de l'entrée la plus longue. (défaut)

le plus court
La durée de l'entrée la plus courte.

premier
La durée de la première entrée.

abandon_transition
Le temps de transition, en secondes, pour la renormalisation du volume lorsqu'un flux d'entrée se termine.
La valeur par défaut est de 2 secondes.

nul
Passez la source audio inchangée à la sortie.

papa
Complétez la fin d'un flux audio avec du silence.

Cela peut être utilisé avec ffmpeg -le plus court pour étendre les flux audio à la même longueur
comme flux vidéo.

Une description des options acceptées suit.

taille_paquet
Définir la taille du paquet de silence. La valeur par défaut est 4096.

pad_len
Définissez le nombre d'échantillons de silence à ajouter à la fin. Une fois la valeur atteinte,
le flux est terminé. Cette option est mutuellement exclusive avec entier_len.

entier_len
Définissez le nombre total minimum d'échantillons dans le flux audio de sortie. Si la valeur est
plus long que la longueur audio d'entrée, le silence est ajouté à la fin, jusqu'à ce que la valeur soit
parvenu. Cette option est mutuellement exclusive avec pad_len.

Si ni le pad_len ni l' entier_len est définie, le filtre ajoutera du silence à la
fin du flux d'entrée indéfiniment.

Exemples

· Ajouter 1024 échantillons de silence à la fin de l'entrée :

apad=pad_len=1024

· Assurez-vous que la sortie audio contiendra au moins 10000 échantillons, complétez l'entrée avec
silence si besoin :

apad=whole_len=10000

· Utilisation ffmpeg pour remplir l'entrée audio de silence, de sorte que le flux vidéo soit toujours
résultat le plus court et sera converti jusqu'à la fin dans le fichier de sortie lors de l'utilisation
le le plus court option:

ffmpeg -i VIDEO -i AUDIO -filter_complex "[1:0]apad" -SORTIE la plus courte

aphaseur
Ajoutez un effet de mise en phase à l'audio d'entrée.

Un filtre phaser crée une série de pics et de creux dans le spectre de fréquences. Les
la position des pics et des creux est modulée de manière à varier dans le temps, créant une
effet de balayage.

Une description des paramètres acceptés suit.

in_gain
Réglez le gain d'entrée. La valeur par défaut est 0.4.

gain_out
Réglez le gain de sortie. La valeur par défaut est 0.74

retarder
Réglez le délai en millisecondes. La valeur par défaut est 3.0.

décadence
Définir la pourriture. La valeur par défaut est 0.4.

vitesse
Réglez la vitesse de modulation en Hz. La valeur par défaut est 0.5.

type
Réglez le type de modulation. La valeur par défaut est triangulaire.

Il accepte les valeurs suivantes :

triangulaire, t
sinusoïdale, s

un échantillon
Rééchantillonnez l'audio d'entrée aux paramètres spécifiés, en utilisant la bibliothèque libswresample. Si
aucun n'est spécifié, le filtre convertira automatiquement entre son entrée et
sortie.

Ce filtre est également capable d'étirer / comprimer les données audio pour les faire correspondre aux horodatages
ou pour injecter du silence/couper l'audio pour qu'il corresponde aux horodatages, faites une combinaison de
les deux ou ni l'un ni l'autre.

Le filtre accepte la syntaxe [taux d'échantillonnage:]options_resampler, Où taux d'échantillonnage exprime
un taux d'échantillonnage et options_resampler est une liste de key=Plus-value paires, séparées par ":". Voir
le manuel ffmpeg-resampler pour la liste complète des options prises en charge.

Exemples

· Rééchantillonnez l'audio d'entrée à 44100 Hz :

un échantillon=44100

· Étirez/compressez les échantillons aux horodatages donnés, avec un maximum de 1000 échantillons par
deuxième indemnité :

aresample=async=1000

un ensemble d'échantillons
Définissez le nombre d'échantillons pour chaque trame audio de sortie.

Le dernier paquet de sortie peut contenir un nombre différent d'échantillons, car le filtre videra
tous les échantillons restants lorsque le signal audio d'entrée est terminé.

Le filtre accepte les options suivantes :

nb_out_samples, n
Définissez le nombre d'images pour chaque image audio de sortie. Le numéro est conçu comme le
nombre d'échantillons / chacun chaine. La valeur par défaut est 1024.

tampon, p
S'il est défini sur 1, le filtre remplira la dernière trame audio avec des zéros, de sorte que la dernière
frame contiendra le même nombre d'échantillons que les précédents. La valeur par défaut est
1.

Par exemple, pour définir le nombre d'échantillons par image sur 1234 et désactiver le remplissage pour le
dernière image, utilisez :

asetnsamples=n=1234:p=0

actif
Réglez la fréquence d'échantillonnage sans modifier les données PCM. Cela entraînera un changement de vitesse
et pas.

Le filtre accepte les options suivantes :

taux d'échantillonnage, r
Réglez la fréquence d'échantillonnage de sortie. La valeur par défaut est 44100 Hz.

ashowinfo
Affiche une ligne contenant diverses informations pour chaque trame audio d'entrée. Le son d'entrée est
non modifié.

La ligne affichée contient une séquence de paires clé/valeur de la forme key:Plus-value.

Les valeurs suivantes sont affichées dans la sortie :

n Le numéro (séquentiel) de la trame d'entrée, à partir de 0.

pts L'horodatage de présentation de la trame d'entrée, en unités de base de temps ; la base de temps
dépend du tampon d'entrée du filtre, et est généralement 1/taux d'échantillonnage.

pts_heure
L'horodatage de présentation de la trame d'entrée en secondes.

poster position de la trame dans le flux d'entrée, -1 si cette information est indisponible
et/ou sans signification (par exemple en cas d'audio synthétique)

fmt L'exemple de format.

mise en page
La disposition des canaux.

taux
La fréquence d'échantillonnage de la trame audio.

nb_échantillons
Le nombre d'échantillons (par canal) dans la trame.

somme de contrôle
La somme de contrôle Adler-32 (imprimée en hexadécimal) des données audio. Pour l'audio planaire,
les données sont traitées comme si tous les plans étaient concaténés.

plan_sommes de contrôle
Une liste des sommes de contrôle Adler-32 pour chaque plan de données.

statistiques
Affichez les informations statistiques du domaine temporel sur les canaux audio. Les statistiques sont
calculé et affiché pour chaque canal audio et, le cas échéant, un chiffre global
est également donnée.

Il accepte l'option suivante :

longueur
Longueur de fenêtre courte en secondes, utilisée pour la mesure RMS de crête et de creux. La valeur par défaut est
0.05 (50 millisecondes). La plage autorisée est "[0.1 - 10]".

métadonnées
Définir l'injection de métadonnées. Toutes les clés de métadonnées sont préfixées par "lavfi.astats.X",
où "X" est le numéro de canal à partir de 1 ou la chaîne "Overall". La valeur par défaut est désactivée.

Les clés disponibles pour chaque canal sont : DC_offset Min_level Max_level Min_difference
Max_difference Mean_difference Peak_level RMS_peak RMS_trough Crest_factor Flat_factor
Peak_count Bit_profondeur

et pour Global : DC_offset Min_level Max_level Min_difference Max_difference
Différence_moyenne Peak_level RMS_level RMS_peak RMS_trough Flat_factor Peak_count
Bit_depth Nombre_de_échantillons

Par exemple, la clé complète ressemble à ceci "lavfi.astats.1.DC_offset" ou à ceci
"lavfi.astats.Overall.Peak_count".

Pour une description de la signification de chaque clé, lisez ci-dessous.

réinitialiser
Définissez le nombre d'images après lesquelles les statistiques seront recalculées. La valeur par défaut est
désactivée.

Une description de chaque paramètre affiché suit :

DC compenser
Déplacement d'amplitude moyenne à partir de zéro.

Min niveau
Niveau d'échantillon minimal.

Max niveau
Niveau d'échantillon maximal.

Min différence
Différence minimale entre deux échantillons consécutifs.

Max différence
Différence maximale entre deux échantillons consécutifs.

Médian différence
Différence moyenne entre deux échantillons consécutifs. La moyenne de chaque différence
entre deux échantillons consécutifs.

Courant niveau dB
RMS niveau dB
Pic standard et niveau RMS mesurés en dBFS.

RMS pic dB
RMS creux dB
Valeurs de crête et de creux pour le niveau RMS mesurées sur une courte fenêtre.

Crest facteur
Ratio standard du niveau crête au niveau RMS (remarque : pas en dB).

Plat facteur
Planéité (c'est-à-dire échantillons consécutifs avec la même valeur) du signal à son pic
niveaux (c'est-à-dire soit Min niveau or Max niveau).

Courant compter
Nombre d'occasions (pas le nombre d'échantillons) que le signal a atteint soit Min
niveau or Max niveau.

Bit profondeur
Profondeur de bits globale de l'audio. Nombre de bits utilisés pour chaque échantillon.

astreamsync
Transférez deux flux audio et contrôlez l'ordre dans lequel les tampons sont transférés.

Le filtre accepte les options suivantes :

expression, e
Définissez l'expression déterminant quel flux doit être transféré ensuite : si le résultat est
négatif, le premier flux est transmis ; si le résultat est positif ou nul, le deuxième
le flux est transmis. Il peut utiliser les variables suivantes :

b1 b2
nombre de tampons transmis jusqu'à présent sur chaque flux

s1 s2
nombre d'échantillons transmis jusqu'à présent sur chaque flux

t1 t2
horodatage actuel de chaque flux

La valeur par défaut est "t1-t2", ce qui signifie qu'il faut toujours transmettre le flux qui a un
horodatage plus petit.

Exemples

Stress-test "amerge" en envoyant aléatoirement des buffers sur la mauvaise entrée, tout en évitant aussi
beaucoup de désynchronisation :

amovie=fichier.ogg [a] ; amovie=fichier.mp3 [b] ;
[a] [b] astreamsync=(2*aléatoire(1))-1+tanh(5*(t1-t2)) [a2] [b2] ;
[a2] [b2] fusionner

asynchrone
Synchronisez les données audio avec les horodatages en les pressant/étirant et/ou en les laissant tomber
échantillons/ajout de silence si nécessaire.

Ce filtre n'est pas construit par défaut, veuillez utiliser un échantillon faire des compressions/étirements.

Il accepte les paramètres suivants :

compenser
Activez l'étirement/la compression des données pour qu'elles correspondent aux horodatages. Désactivé par
défaut. Lorsqu'il est désactivé, les intervalles de temps sont recouverts de silence.

min_delta
La différence minimale entre les horodatages et les données audio (en secondes) à déclencher
ajouter/supprimer des échantillons. La valeur par défaut est 0.1. Si vous obtenez une synchronisation imparfaite avec
ce filtre, essayez de définir ce paramètre sur 0.

max_comp
La compensation maximale en échantillons par seconde. Uniquement pertinent avec compenser=1. Les
la valeur par défaut est 500.

premiers_pts
Supposons que le premier PTS doit être cette valeur. La base de temps est 1 / fréquence d'échantillonnage. Cette
permet le remplissage/le rognage au début du flux. Par défaut, aucune hypothèse n'est
fait sur le PTS attendu de la première image, donc aucun remplissage ou rognage n'est effectué. Pour
Par exemple, cela pourrait être défini sur 0 pour compléter le début avec du silence si un flux audio
démarre après le flux vidéo ou pour rogner les échantillons avec un PTS négatif en raison de
retard de l'encodeur.

atempo
Ajustez le tempo audio.

Le filtre accepte exactement un paramètre, le tempo audio. S'il n'est pas spécifié, le
le filtre prendra un tempo nominal de 1.0. Le tempo doit être dans la plage [0.5, 2.0].

Exemples

· Ralentir l'audio à 80 % du tempo :

tempo=0.8

· Pour accélérer l'audio à 125 % du tempo :

tempo=1.25

une coupe
Coupez l'entrée de sorte que la sortie contienne une sous-partie continue de l'entrée.

Il accepte les paramètres suivants :

Commencer
Horodatage (en secondes) du début de la section à conserver. C'est-à-dire l'échantillon audio avec
l'horodatage Commencer sera le premier échantillon de la sortie.

fin Spécifiez l'heure du premier échantillon audio qui sera supprimé, c'est-à-dire l'échantillon audio
précédant immédiatement celui avec l'horodatage fin sera le dernier échantillon dans le
sortie.

start_pts
Pareil que Commencer, sauf que cette option définit l'horodatage de début en échantillons au lieu de
secondes.

fin_pts
Pareil que fin, sauf que cette option définit l'horodatage de fin en échantillons au lieu de secondes.

durée
La durée maximale de la sortie en secondes.

start_sample
Le numéro du premier échantillon qui doit être sorti.

end_sample
Le numéro du premier échantillon à supprimer.

Commencer, finet durée sont exprimés sous forme de spécifications de durée; voir le Temps
durée in le ffmpeg-utils(1) Manuel.

Notez que les deux premiers ensembles d'options de début/fin et le durée option regarde le
horodatage de l'image, tandis que les options _sample comptent simplement les échantillons qui passent par le
filtre. Ainsi, start/end_pts et start/end_sample donneront des résultats différents lorsque le
les horodatages sont erronés, inexacts ou ne commencent pas à zéro. Notez également que ce filtre ne
modifier les horodatages. Si vous souhaitez que les horodatages de sortie commencent à zéro, insérez le
filtre asetpts après le filtre atrim.

Si plusieurs options de début ou de fin sont définies, ce filtre essaie d'être gourmand et de conserver tous
échantillons qui correspondent à au moins une des contraintes spécifiées. Pour ne garder que la partie qui
correspond à toutes les contraintes à la fois, chaîne plusieurs filtres atrim.

Les valeurs par défaut sont telles que toutes les entrées sont conservées. Il est donc possible de définir par exemple uniquement le
valeurs de fin pour tout conserver avant l'heure spécifiée.

Exemples :

· Supprimez tout sauf la deuxième minute de saisie :

ffmpeg -i ENTRÉE -af atrim=60:120

· Ne conserver que les 1000 premiers échantillons :

ffmpeg -i INPUT -af atrim=end_sample=1000

passe-bande
Appliquer un filtre passe-bande Butterworth bipolaire avec fréquence centrale fréquenceet
(3dB-point) largeur de bande passante. Les csg L'option sélectionne un gain de jupe constant (gain de crête =
Q) au lieu de la valeur par défaut : gain de crête constant de 0 dB. Le filtre s'abaisse à 6dB par octave
(20dB par décennie).

Le filtre accepte les options suivantes :

la fréquence, f
Réglez la fréquence centrale du filtre. La valeur par défaut est 3000.

csg Gain de jupe constant s'il est défini sur 1. La valeur par défaut est 0.

largeur_type
Définir la méthode pour spécifier la bande passante du filtre.

h Hz

q Facteur Q

o octave

s pente

largeur, w
Spécifiez la bande passante d'un filtre en unités width_type.

rejet de bande
Appliquer un filtre de rejet de bande Butterworth bipolaire avec fréquence centrale fréquenceet
bande passante (3dB-point) largeur. Le filtre décroît à 6 dB par octave (20 dB par décade).

Le filtre accepte les options suivantes :

la fréquence, f
Réglez la fréquence centrale du filtre. La valeur par défaut est 3000.

largeur_type
Définir la méthode pour spécifier la bande passante du filtre.

h Hz

q Facteur Q

o octave

s pente

largeur, w
Spécifiez la bande passante d'un filtre en unités width_type.

basse
Augmentez ou coupez les fréquences basses (inférieures) de l'audio à l'aide d'un filtre en plateau à deux pôles
avec une réponse similaire à celle des commandes de tonalité d'une chaîne hi-fi standard. Ceci est également connu comme
égalisation en plateau (EQ).

Le filtre accepte les options suivantes :

Gain, g
Donner le gain à 0 Hz. Sa plage utile est d'environ -20 (pour une grosse coupe) à +20 (pour une
gros coup de pouce). Attention à l'écrêtage lors de l'utilisation d'un gain positif.

la fréquence, f
Réglez la fréquence centrale du filtre et peut donc être utilisé pour étendre ou réduire la
gamme de fréquences à amplifier ou à couper. La valeur par défaut est 100 Hz.

largeur_type
Définir la méthode pour spécifier la bande passante du filtre.

h Hz

q Facteur Q

o octave

s pente

largeur, w
Déterminez la pente de la transition de plateau du filtre.

biquade
Appliquer un filtre IIR biquad avec les coefficients donnés. Où b0, b1, b2 ainsi que a0, a1, a2
sont respectivement les coefficients du numérateur et du dénominateur.

bs2b
Transformation Bauer stéréo en binaurale, qui améliore l'écoute stéréo au casque
enregistrements audio.

Il accepte les paramètres suivants :

profil
Niveau d'intercommunication prédéfini.

défaut
Niveau par défaut (fcut=700, feed=50).

cmoy
Circuit Chu Moy (fcut=700, alimentation=60).

jmeier
Circuit Jan Meier (fcut=650, alimentation=95).

coupe
Fréquence de coupure (en Hz).

nourrir
Niveau d'alimentation (en Hz).

carte des canaux
Remappez les canaux d'entrée vers de nouveaux emplacements.

Il accepte les paramètres suivants :

canal_layout
La disposition des canaux du flux de sortie.

Localisation Mapper les canaux de l'entrée à la sortie. L'argument est une liste de mappages séparés par '|',
chacun dans le "in_channel-out_channel" or in_channel formulaire. in_channel peut être soit le
nom du canal d'entrée (ex. FL pour avant gauche) ou son index dans le canal d'entrée
mise en page. canal_out est le nom du canal de sortie ou son index dans la sortie
disposition des canaux. Si canal_out n'est pas donné alors il s'agit implicitement d'un indice, commençant
avec zéro et augmentant de un pour chaque mappage.

Si aucun mappage n'est présent, le filtre mappera implicitement les canaux d'entrée sur la sortie
canaux, en préservant les indices.

Par exemple, en supposant un fichier MOV d'entrée 5.1+downmix,

ffmpeg -i in.mov -filter 'channelmap=map=DL-FL|DR-FR' out.wav

créera un fichier WAV de sortie étiqueté comme stéréo à partir des canaux de mixage descendant de l'entrée.

Pour corriger un WAV 5.1 mal codé dans l'ordre des canaux natifs d'AAC

ffmpeg -i in.wav -filter 'channelmap=1|2|0|5|3|4:5.1' out.wav

division des canaux
Divisez chaque canal d'un flux audio d'entrée en un flux de sortie distinct.

Il accepte les paramètres suivants :

canal_layout
La disposition des canaux du flux d'entrée. La valeur par défaut est "stéréo".

Par exemple, en supposant un fichier MP3 d'entrée stéréo,

ffmpeg -i in.mp3 -filter_complexchannelsplit out.mkv

créera un fichier Matroska de sortie avec deux flux audio, l'un ne contenant que la gauche
canal et l'autre le canal droit.

Divisez un fichier WAV 5.1 en fichiers par canal :

ffmpeg -i in.wav -filter_complex
'channelsplit=channel_layout=5.1[FL][FR][FC][LFE][SL][SR]'
-map '[FL]' front_left.wav -map '[FR]' front_right.wav -map '[FC]'
front_center.wav -map '[LFE]' lfe.wav -map '[SL]' side_left.wav -map '[SR]'
side_right.wav

chœur
Ajoutez un effet de chœur à l'audio.

Peut produire un seul son vocal comme un chœur, mais peut également être appliqué à l'instrumentation.

Le chorus ressemble à un effet d'écho avec un délai court, mais alors qu'avec l'écho le délai est
constante, avec chorus, elle est variée à l'aide d'une modulation sinusoïdale ou triangulaire. Les
profondeur de modulation définit la plage dans laquelle le retard modulé est joué avant ou après le
retard. Par conséquent, le son retardé sonnera plus lentement ou plus rapidement, c'est le son retardé
accordé autour de l'original, comme dans un refrain où certaines voix sont légèrement fausses.

Il accepte les paramètres suivants :

in_gain
Réglez le gain d'entrée. La valeur par défaut est 0.4.

gain_out
Réglez le gain de sortie. La valeur par défaut est 0.4.

retards
Fixez des délais. Un délai typique est d'environ 40 ms à 60 ms.

se désintègre
L'ensemble se désintègre.

vitesses
Réglez les vitesses.

profondeurs
Réglez les profondeurs.

Exemples

· Un seul délai :

chorus=0.7:0.9:55:0.4:0.25:2

· Deux délais :

chorus=0.6:0.9:50|60:0.4|0.32:0.25|0.4:2|1.3

· Chorus au son plus complet avec trois délais :

chorus=0.5:0.9:50|60|40:0.4|0.32|0.3:0.25|0.4|0.3:2|2.3|1.3

compagne
Compresser ou étendre la plage dynamique de l'audio.

Il accepte les paramètres suivants :

attaques
se désintègre
Une liste de temps en secondes pour chaque canal sur lequel le niveau instantané du
le signal d'entrée est moyenné pour déterminer son volume. attaques fait référence à l'augmentation du volume
ainsi que se désintègre fait référence à la diminution du volume. Dans la plupart des situations, le temps d'attaque
(la réponse à l'audio devient plus forte) devrait être plus courte que le temps de décroissance, car
l'oreille humaine est plus sensible au son soudain fort qu'au son soudain faible. Un typique
la valeur pour l'attaque est de 0.3 seconde et une valeur typique pour la décroissance est de 0.8 seconde. Si
le nombre spécifié d'attaques et de décroissance est inférieur au nombre de canaux, le dernier ensemble
l'attaque/le déclin sera utilisé pour tous les canaux restants.

des notes bonus
Une liste de points pour la fonction de transfert, spécifié en dB par rapport au maximum
amplitude de signal possible. Chaque liste de points clés doit être définie à l'aide des éléments suivants
syntaxe : "x0/y0|x1/y1|x2/y2|...." ou "x0/y0 x1/y1 x2/y2 ...."

Les valeurs d'entrée doivent être dans un ordre strictement croissant mais la fonction de transfert ne
ne doit pas être en augmentation monotone. Le point "0/0" est supposé mais peut être outrepassé
(par "0/out-dBn"). Les valeurs typiques de la fonction de transfert sont "-70/-70|-60/-20".

genou doux
Définissez le rayon de la courbe en dB pour toutes les articulations. La valeur par défaut est 0.01.

Gain
Réglez le gain supplémentaire en dB à appliquer en tous points de la fonction de transfert.
Cela permet un réglage facile du gain global. La valeur par défaut est 0.

le volume
Définissez un volume initial, en dB, à prendre en compte pour chaque canal lorsque le filtrage démarre.
Cela permet à l'utilisateur de fournir initialement un niveau nominal, de sorte que, par exemple, un
un gain très important n'est pas appliqué aux niveaux de signal initiaux avant que la compression-extension n'ait
commencé à fonctionner. Une valeur typique pour un son initialement silencieux est de -90 dB. Ce
la valeur par défaut est 0.

retarder
Définissez un délai, en secondes. L'audio d'entrée est analysé immédiatement, mais l'audio est retardé
avant d'être transmis au régulateur de volume. Spécification d'un délai approximativement égal au
les temps d'attaque/de désintégration permettent au filtre de fonctionner efficacement de manière prédictive plutôt que
mode réactif. La valeur par défaut est 0.

Exemples

· Faites de la musique avec des passages calmes et forts adaptés à une écoute dans un environnement bruyant
environnement:

compand=.3|.3:1|1:-90/-60|-60/-40|-40/-30|-20/-20:6:0:-90:0.2

Un autre exemple d'audio avec des parties chuchotement et explosion :

compand=0|0:1|1:-90/-900|-70/-70|-30/-9|0/-3:6:0:0:0

· Un noise gate pour quand le bruit est à un niveau inférieur au signal :

compand=.1|.1:.2|.2:-900/-900|-50.1/-900|-50/-50:.01:0:-90:.1

· Voici un autre noise gate, cette fois pour quand le bruit est à un niveau plus élevé que le
signal (ce qui le rend, à certains égards, similaire au squelch):

compand=.1|.1:.1|.1:-45.1/-45.1|-45/-900|0/-900:.01:45:-90:.1

décalage décalé
Appliquez un décalage DC à l'audio.

Cela peut être utile pour supprimer un décalage DC (causé peut-être par un problème matériel dans le
chaîne d'enregistrement) à partir de l'audio. L'effet d'un décalage CC est une marge réduite et donc
le volume. Les statistiques filtre peut être utilisé pour déterminer si un signal a un décalage CC.

décalage
Réglez le décalage CC, la plage autorisée est [-1, 1]. Il indique le montant pour déplacer le
audio.

gain limiteur
Optionnel. Il doit avoir une valeur bien inférieure à 1 (par exemple 0.05 ou 0.02) et est utilisé pour
empêcher l'écrêtage.

dynaudnorme
Normaliseur audio dynamique.

Ce filtre applique une certaine quantité de gain à l'audio d'entrée afin d'apporter son pic
magnitude à un niveau cible (par exemple 0 dBFS). Cependant, contrairement à plus "simple"
algorithmes de normalisation, le Dynamic Audio Normalizer réajuste *dynamiquement* le gain
facteur à l'entrée audio. Cela permet d'appliquer un gain supplémentaire aux sections "silencieuses" de
l'audio en évitant les distorsions ou en écrêtant les sections "fortes". En d'autres termes : le
Dynamic Audio Normalizer « égalisera » le volume des sections calmes et fortes, dans le
sens que le volume de chaque section est amené au même niveau cible. Notez, cependant,
que le Dynamic Audio Normalizer atteint cet objectif *sans* appliquer la "plage dynamique
compression". Il conservera 100% de la plage dynamique *dans* chaque section de l'audio
fichier.

f Définissez la longueur de la trame en millisecondes. Dans la plage de 10 à 8000 millisecondes. Défaut
est de 500 millisecondes. Le Dynamic Audio Normalizer traite l'audio d'entrée en petits
morceaux, appelés cadres. Ceci est nécessaire, car une amplitude de crête n'a pas
sens pour une seule valeur d'échantillon. Au lieu de cela, nous devons déterminer le pic
magnitude pour une séquence contiguë de valeurs d'échantillon. Alors qu'un normalisateur "standard"
utiliserait simplement l'amplitude maximale du fichier complet, le Dynamic Audio Normalizer
détermine l'amplitude du pic individuellement pour chaque image. La longueur d'un cadre est
spécifié en millisecondes. Par défaut, le Dynamic Audio Normalizer utilise un cadre
longueur de 500 millisecondes, ce qui s'est avéré donner de bons résultats avec la plupart des fichiers.
Notez que la longueur de trame exacte, en nombre d'échantillons, sera déterminée
automatiquement, en fonction de la fréquence d'échantillonnage du fichier audio d'entrée individuel.

g Définissez la taille de la fenêtre du filtre gaussien. Dans la plage de 3 à 301, doit être un nombre impair.
La valeur par défaut est 31. Probablement le paramètre le plus important du Dynamic Audio Normalizer
est la "taille de fenêtre" du filtre de lissage gaussien. La taille de la fenêtre du filtre est
spécifié en cadres, centré autour du cadre courant. Pour des raisons de simplicité,
ce doit être un nombre impair. Par conséquent, la valeur par défaut de 31 prend en compte
la trame courante, ainsi que les 15 trames précédentes et les 15 trames suivantes.
L'utilisation d'une fenêtre plus grande donne un effet de lissage plus fort et donc moins de gain
variation, c'est-à-dire une adaptation de gain plus lente. Inversement, l'utilisation d'une fenêtre plus petite entraîne
un effet de lissage plus faible et donc en plus de variation de gain, c'est-à-dire un gain plus rapide
adaptation. En d'autres termes, plus vous augmentez cette valeur, plus la dynamique
Audio Normalizer se comportera comme un filtre de normalisation "traditionnel". Sur le
au contraire, plus vous diminuez cette valeur, plus le Dynamic Audio Normalizer
se comportent comme un compresseur de plage dynamique.

p Définissez la valeur de crête cible. Ceci spécifie le niveau de magnitude le plus élevé admissible pour
l'entrée audio normalisée. Ce filtre essaiera de s'approcher de l'amplitude du pic cible
aussi près que possible, mais en même temps, il s'assure également que le
le signal ne dépassera jamais l'amplitude maximale. Le facteur de gain local maximum d'une trame est
imposée directement par l'amplitude du pic cible. La valeur par défaut est de 0.95 et donc
laisse une marge de 5%*. Il n'est pas recommandé d'aller au-dessus de cette valeur.

m Réglez le facteur de gain maximum. Dans la plage de 1.0 à 100.0. La valeur par défaut est 10.0. La dynamique
Audio Normalizer détermine le facteur de gain (local) maximum possible pour chaque entrée
frame, c'est-à-dire le facteur de gain maximum qui n'entraîne pas d'écrêtage ou de distorsion.
Le facteur de gain maximum est déterminé par l'échantillon d'amplitude la plus élevée de la trame.
Cependant, le Dynamic Audio Normalizer limite en plus le gain maximum de l'image
facteur par un facteur de gain maximum (global) prédéterminé. Ceci est fait afin d'éviter
facteurs de gain excessifs dans les trames "silencieuses" ou presque silencieuses. Par défaut, le maximum
le facteur de gain est de 10.0. Pour la plupart des entrées, la valeur par défaut devrait être suffisante et elle
n'est généralement pas recommandé d'augmenter cette valeur. Cependant, pour une entrée avec un extrêmement
faible niveau de volume global, il peut être nécessaire d'autoriser des facteurs de gain encore plus élevés. Noter,
cependant, que le Dynamic Audio Normalizer n'applique pas simplement un seuil « dur »
(c'est-à-dire des valeurs de coupure au-dessus du seuil). Au lieu de cela, une fonction de seuil "sigmoïde"
sera appliqué. De cette façon, les facteurs de gain s'approcheront en douceur du seuil
valeur, mais ne dépassez jamais cette valeur.

r Définissez le RMS cible. Dans la plage de 0.0 à 1.0. La valeur par défaut est 0.0 - désactivé. Par défaut,
le Dynamic Audio Normalizer effectue une normalisation "de pointe". Cela signifie que le
le facteur de gain local maximal pour chaque trame est défini (uniquement) par le plus élevé de la trame
échantillon de grandeur. De cette façon, les échantillons peuvent être amplifiés autant que possible sans
dépassant le niveau de signal maximum, c'est-à-dire sans écrêtage. Facultativement, cependant, le
Dynamic Audio Normalizer peut également prendre en compte la moyenne quadratique de la trame,
abrégé RMS. En génie électrique, le RMS est couramment utilisé pour déterminer la
puissance d'un signal variant dans le temps. On considère donc que le RMS est un meilleur
approximation du « volume perçu » que de simplement regarder le pic du signal
ordre de grandeur. Par conséquent, en ajustant toutes les trames à une valeur RMS constante, un
« L'intensité sonore perçue » peut être établie. Si une valeur RMS cible a été spécifiée, un
le facteur de gain local de la trame est défini comme le facteur qui donnerait exactement ce
valeur RMS. Notez, cependant, que le facteur de gain local maximum est toujours limité par
l'échantillon de magnitude la plus élevée de la trame, afin d'éviter l'écrêtage.

n Activer le couplage des canaux. Par défaut est activé. Par défaut, l'audio dynamique
Normalizer amplifiera tous les canaux de la même quantité. Cela signifie le même gain
sera appliqué à tous les canaux, c'est-à-dire que le facteur de gain maximum possible est
déterminé par le canal "le plus fort". Cependant, dans certains enregistrements, il peut arriver que
le volume des différents canaux est inégal, par exemple un canal peut être "plus silencieux" que
les autres). Dans ce cas, cette option peut être utilisée pour désactiver le canal
couplage. De cette façon, le facteur de gain sera déterminé indépendamment pour chaque canal,
en fonction uniquement de l'échantillon de magnitude la plus élevée du canal individuel. Cela permet de
harmonisant le volume des différents canaux.

c Activez la correction de polarisation CC. Par défaut est désactivé. Un signal audio (dans le temps
domaine) est une séquence d'échantillons de valeurs. Dans le Dynamic Audio Normalizer, ces exemples
les valeurs sont représentées dans la plage -1.0 à 1.0, quelle que soit l'entrée d'origine
format. Normalement, le signal audio, ou "forme d'onde", doit être centré autour du zéro
point. Cela signifie que si nous calculons la valeur moyenne de tous les échantillons dans un fichier, ou dans un
une seule image, le résultat doit être 0.0 ou au moins très proche de cette valeur. Si,
cependant, il y a un écart significatif de la valeur moyenne par rapport à 0.0, dans l'un ou l'autre
direction positive ou négative, c'est ce qu'on appelle une polarisation CC ou un décalage CC. Depuis un
La polarisation DC est clairement indésirable, le Dynamic Audio Normalizer fournit une polarisation DC optionnelle
correction. Avec la correction de polarisation CC activée, le Dynamic Audio Normalizer
déterminer la valeur moyenne, ou décalage de "correction CC", de chaque trame d'entrée et soustraire
cette valeur de toutes les valeurs d'échantillon de la base qui garantit que ces échantillons sont
centré autour de 0.0 à nouveau. De plus, afin d'éviter des « espaces » aux limites du cadre, le
Les valeurs de décalage de correction DC seront interpolées en douceur entre les trames voisines.

b Activez le mode limite alternatif. Par défaut est désactivé. L'audio dynamique
Le normalisateur prend en compte un certain voisinage autour de chaque image. Ceci comprend
les trames précédentes ainsi que les trames suivantes. Cependant, pour la "frontière"
images, situées au tout début et à la toute fin du fichier audio, toutes
les cadres voisins sont disponibles. En particulier, pour les premières images du
fichier audio, les trames précédentes ne sont pas connues. Et, de même, depuis quelques
images dans le fichier audio, les images suivantes ne sont pas connues. Ainsi, la question
survient quels facteurs de gain doivent être supposés pour les trames manquantes dans la « limite »
Région. Le Dynamic Audio Normalizer implémente deux modes pour faire face à cette situation.
Le mode limite par défaut suppose un facteur de gain d'exactement 1.0 pour les images manquantes,
résultant en un "fondu d'entrée" et un "fondu de sortie" en douceur au début et à la fin de la
entrée, respectivement.

s Définissez le facteur de compression. Dans la plage de 0.0 à 30.0. La valeur par défaut est 0.0. Par défaut, le
Dynamic Audio Normalizer n'applique pas la compression "traditionnelle". Cela signifie que
les pics de signal ne seront pas élagués et ainsi la plage dynamique complète sera conservée
au sein de chaque quartier local. Cependant, dans certains cas, il peut être souhaitable de combiner
l'algorithme de normalisation du Dynamic Audio Normalizer avec une approche plus "traditionnelle"
compression. À cette fin, le Dynamic Audio Normalizer fournit une option
fonction de compression (seuil). Si (et seulement si) la fonction de compression est
activée, toutes les trames d'entrée seront traitées par une fonction de seuillage souple avant
au processus de normalisation proprement dit. En termes simples, la fonction de seuillage va
élaguer tous les échantillons dont l'amplitude dépasse une certaine valeur seuil. Cependant, le
Dynamic Audio Normalizer n'applique pas simplement une valeur de seuil fixe. Au lieu de cela, le
la valeur seuil sera ajustée pour chaque trame individuelle. En général, plus petit
paramètres entraînent une compression plus forte, et vice versa. Les valeurs inférieures à 3.0 ne sont pas
recommandé, car une distorsion audible peut apparaître.

cérumen
Rendez l'audio plus facile à écouter sur un casque.

Ce filtre ajoute des "repères" à l'audio stéréo 44.1 kHz (c'est-à-dire au format CD audio) de sorte que lorsque
écoutée au casque, l'image stéréo est déplacée de l'intérieur de votre tête (standard pour
casque) vers l'extérieur et devant l'auditeur (standard pour les haut-parleurs).

Porté depuis SoX.

but égalisateur
Appliquez un filtre d'égalisation de crête (EQ) à deux pôles. Avec ce filtre, le niveau du signal à
et autour d'une fréquence sélectionnée peut être augmentée ou diminuée, tandis que (contrairement à la bande passante et
filtres de rejet de bande) qui à toutes les autres fréquences est inchangé.

Afin de produire des courbes d'égalisation complexes, ce filtre peut être donné plusieurs fois,
chacun avec une fréquence centrale différente.

Le filtre accepte les options suivantes :

la fréquence, f
Réglez la fréquence centrale du filtre en Hz.

largeur_type
Définir la méthode pour spécifier la bande passante du filtre.

h Hz

q Facteur Q

o octave

s pente

largeur, w
Spécifiez la bande passante d'un filtre en unités width_type.

Gain, g
Réglez le gain ou l'atténuation requis en dB. Attention à l'écrêtage lors de l'utilisation d'un positif
gagner.

Exemples

· Atténuer 10 dB à 1000 Hz, avec une bande passante de 200 Hz :

égaliseur=f=1000:width_type=h:width=200:g=-10

· Appliquer un gain de 2 dB à 1000 Hz avec Q 1 et atténuer 5 dB à 100 Hz avec Q 2 :

equalizer=f=1000:width_type=q:width=1:g=2,equalizer=f=100:width_type=q:width=2:g=-5

flanger
Appliquez un effet de flanger à l'audio.

Le filtre accepte les options suivantes :

retarder
Définir le délai de base en millisecondes. Plage de 0 à 30. La valeur par défaut est 0.

profondeur
Définissez le délai de balayage ajouté en millisecondes. Plage de 0 à 10. La valeur par défaut est 2.

remuer
Définir le pourcentage de régénération (retour de signal retardé). Plage de -95 à 95. Par défaut
la valeur est 0.

largeur
Définir le pourcentage de signal retardé mélangé avec l'original. Plage de 0 à 100. Par défaut
la valeur est 71.

vitesse
Réglez les balayages par seconde (Hz). Plage de 0.1 à 10. La valeur par défaut est 0.5.

forme
Définir la forme d'onde balayée, peut être triangulaire or sinusoïdal. La valeur par défaut est sinusoïdal.

phase
Définissez le décalage en pourcentage de l'onde balayée pour le multicanal. Plage de 0 à 100. Valeur par défaut
est 25.

interpréter
Définir l'interpolation de la ligne à retard, linéaire or quadratique. La valeur par défaut est linéaire.

passe-haut
Appliquez un filtre passe-haut avec une fréquence ponctuelle de 3 dB. Le filtre peut être soit unipolaire,
ou bipolaire (par défaut). Le filtre s'abaisse à 6dB par pôle par octave (20dB par
pôle par décennie).

Le filtre accepte les options suivantes :

la fréquence, f
Réglez la fréquence en Hz. La valeur par défaut est 3000.

poteaux, p
Définir le nombre de pôles. La valeur par défaut est 2.

largeur_type
Définir la méthode pour spécifier la bande passante du filtre.

h Hz

q Facteur Q

o octave

s pente

largeur, w
Spécifiez la bande passante d'un filtre en unités width_type. S'applique uniquement aux bipolaires
filtre. La valeur par défaut est 0.707q et donne une réponse Butterworth.

rejoindre
Joignez plusieurs flux d'entrée en un seul flux multicanal.

Il accepte les paramètres suivants :

entrées
Le nombre de flux d'entrée. La valeur par défaut est 2.

canal_layout
La disposition du canal de sortie souhaitée. Il est par défaut en stéréo.

Localisation Mapper les canaux des entrées à la sortie. L'argument est une liste de mappages séparés par '|',
chacun dans le "input_idx.in_channel-out_channel" formulaire. entrée_idx est l'indice de base 0 de
le flux d'entrée. in_channel peut être soit le nom du canal d'entrée (par exemple FL pour
avant gauche) ou son index dans le flux d'entrée spécifié. canal_out est le nom de la
canal de sortie.

Le filtre tentera de deviner les mappages lorsqu'ils ne sont pas spécifiés explicitement. Ce
le fait en essayant d'abord de trouver un canal d'entrée correspondant inutilisé et si cela échoue
sélectionne le premier canal d'entrée inutilisé.

Rejoignez 3 entrées (avec des dispositions de canaux correctement définies) :

ffmpeg -i INPUT1 -i INPUT2 -i INPUT3 -filter_complex join=entrées=3 SORTIE

Créez une sortie 5.1 à partir de 6 flux monocanal :

ffmpeg -i fl -i fr -i fc -i sl -i sr -i lfe -filter_complex
'join=inputs=6:channel_layout=5.1:map=0.0-FL|1.0-FR|2.0-FC|3.0-SL|4.0-SR|5.0-LFE'
ande

spa
Chargez un plugin LADSPA (Linux Audio Developer's Simple Plugin API).

Pour activer la compilation de ce filtre, vous devez configurer FFmpeg avec "--enable-ladspa".

fichier, f
Spécifie le nom de la bibliothèque de plug-ins LADSPA à charger. Si la variable d'environnement
LADSPA_PATH est défini, le plugin LADSPA est recherché dans chacun des répertoires
spécifié par la liste séparée par deux points dans LADSPA_PATH, sinon dans la norme LADSPA
chemins, qui sont dans cet ordre: ACCUEIL/.ladspa/lib/, /usr/local/lib/ladspa/,
/usr/lib/ladspa/.

plugin, p
Spécifie le plugin dans la bibliothèque. Certaines bibliothèques ne contiennent qu'un seul plugin, mais
d'autres en contiennent beaucoup. Si ce n'est pas défini, le filtre listera tous les plugins disponibles
dans la bibliothèque spécifiée.

les contrôles, c
Définissez le '|' liste séparée de contrôles qui sont zéro ou plusieurs valeurs à virgule flottante
qui déterminent le comportement du plugin chargé (par exemple délai, seuil ou
Gain). Les contrôles doivent être définis à l'aide de la syntaxe suivante :
c0=value0|c1=value1|c2=value2|..., où valeuri est la valeur définie sur le i-ème contrôle.
If contrôles est défini sur "help", tous les contrôles disponibles et leurs plages valides sont
imprimé.

taux d'échantillonnage, s
Spécifiez le taux d'échantillonnage, par défaut à 44100. Utilisé uniquement si le plug-in n'a aucune entrée.

nb_échantillons, n
Définissez le nombre d'échantillons par canal pour chaque trame de sortie, la valeur par défaut est 1024. Uniquement
utilisé si le plugin n'a aucune entrée.

durée, d
Définissez la durée minimale de l'audio source. Voir le Temps durée in le
ffmpeg-utils(1) Manuel pour la syntaxe acceptée. Notez que la durée résultante peut
être supérieure à la durée spécifiée, car l'audio généré est toujours coupé à la
fin d'un cadre complet. Si elle n'est pas précisée ou si la durée exprimée est négative, la
l'audio est censé être généré pour toujours. Uniquement utilisé si le plugin n'a aucune entrée.

Exemples

· Répertoriez tous les plugins disponibles dans la bibliothèque amp (exemple de plugin LADSPA) :

ladspa=fichier=amp

· Répertorier tous les contrôles disponibles et leurs plages valides pour le plugin "vcf_notch" de "VCF"
bibliothèque:

ladspa=f=vcf:p=vcf_notch:c=aide

· Simulez un équipement audio de faible qualité à l'aide du plug-in "Computer Music Toolkit" (CMT)
bibliothèque:

ladspa=file=cmt:plugin=lofi:controls=c0=22|c1=12|c2=12

· Ajoutez de la réverbération à l'audio à l'aide des plug-ins TAP (plugins de traitement audio de Tom) :

ladspa=file=tap_reverb:tap_reverb

· Générer du bruit blanc, avec une amplitude de 0.2 :

ladspa=file=cmt:noise_source_white:c=c0=.2

· Générer 20 clics bpm en utilisant le plugin "C* Click - Metronome" du "C* Audio Plugin
Bibliothèque "Suite" (CAPS) :

ladspa=file=caps:Cliquez:c=c1=20'

· Appliquer l'effet "C* Eq10X2 - Égaliseur stéréo 10 bandes" :

ladspa=caps:Eq10X2:c=c0=-48|c9=-24|c3=12|c4=2

Commandes

Ce filtre prend en charge les commandes suivantes :

cN Modifier la N-ième valeur de contrôle.

Si la valeur spécifiée n'est pas valide, elle est ignorée et la valeur précédente est conservée.

passe-bas
Appliquez un filtre passe-bas avec une fréquence ponctuelle de 3 dB. Le filtre peut être unipolaire ou
bipolaire (par défaut). Le filtre s'abaisse à 6dB par pôle par octave (20dB par pôle
par décennie).

Le filtre accepte les options suivantes :

la fréquence, f
Réglez la fréquence en Hz. La valeur par défaut est 500.

poteaux, p
Définir le nombre de pôles. La valeur par défaut est 2.

largeur_type
Définir la méthode pour spécifier la bande passante du filtre.

h Hz

q Facteur Q

o octave

s pente

largeur, w
Spécifiez la bande passante d'un filtre en unités width_type. S'applique uniquement aux bipolaires
filtre. La valeur par défaut est 0.707q et donne une réponse Butterworth.

casserole
Mixez les canaux avec des niveaux de gain spécifiques. Le filtre accepte la disposition du canal de sortie
suivi d'un ensemble de définitions de canaux.

Ce filtre est également conçu pour remapper efficacement les canaux d'un flux audio.

Le filtre accepte des paramètres de la forme : "l|outdef|outdef|..."

l disposition des canaux de sortie ou nombre de canaux

outdef
spécification du canal de sortie, de la forme :
"nom_outre=[Gain*]in_name[+[Gain*]in_name...]"

nom_outre
canal de sortie à définir, soit un nom de canal (FL, FR, etc.) soit un numéro de canal
(c0, c1, etc...)

Gain
coefficient multiplicatif pour le canal, 1 laissant le volume inchangé

in_name
canal d'entrée à utiliser, voir out_name pour plus de détails ; il n'est pas possible de mélanger nommé et
canaux d'entrée numérotés

Si le `=' dans une spécification de canal est remplacé par `<', alors les gains pour cela
la spécification sera renormalisée de sorte que le total soit égal à 1, évitant ainsi le bruit d'écrêtage.

Mixage audio exemples

Par exemple, si vous souhaitez effectuer un downmix de stéréo en mono, mais avec un facteur plus important pour le
canal gauche :

pan=1c|c0=0.9*c0+0.1*c1

Un down-mix personnalisé en stéréo qui fonctionne automatiquement pour 3, 4, 5 et 7 canaux
entourer:

pan=stéréo| FL < FL + 0.5*FC + 0.6*BL + 0.6*SL | FR < FR + 0.5*FC + 0.6*BR + 0.6*SR

Notez que ffmpeg intègre un système de down-mix (et up-mix) par défaut qui doit être
préféré (voir option "-ac") sauf si vous avez des besoins très spécifiques.

Remappage exemples

Le remappage des canaux sera effectif si, et seulement si :

*
*

Si toutes ces conditions sont remplies, le filtre notifiera l'utilisateur ("Canal pur
mapping détecté"), et utilisez une méthode optimisée et sans perte pour effectuer le remappage.

Par exemple, si vous avez une source 5.1 et que vous souhaitez un flux audio stéréo en supprimant le
canaux:

pan="stéréo| c0=FL | c1=FR"

Étant donné la même source, vous pouvez également basculer entre les canaux avant gauche et avant droit et garder
la disposition du canal d'entrée :

pan="5.1| c0=c1 | c1=c0 | c2=c2 | c3=c3 | c4=c4 | c5=c5"

Si l'entrée est un flux audio stéréo, vous pouvez couper le canal avant gauche (tout en gardant
la disposition des canaux stéréo) avec :

pan="stéréo|c1=c1"

Toujours avec une entrée de flux audio stéréo, vous pouvez copier le canal droit dans les deux avant gauche
et à droite :

pan="stéréo| c0=FR | c1=FR"

rejouer
Filtre d'analyse ReplayGain. Ce filtre prend un flux audio en entrée et le sort
inchangé. A la fin du filtrage, il affiche "track_gain" et "track_peak".

rééchantillonner
Convertissez le format d'échantillon audio, la fréquence d'échantillonnage et la disposition des canaux. Ce n'est pas censé être
utilisé directement.

compression de chaîne latérale
Ce filtre agit comme un compresseur normal mais a la capacité de compresser le signal détecté
en utilisant le deuxième signal d'entrée. Il a besoin de deux flux d'entrée et renvoie un flux de sortie.
Le premier flux d'entrée sera traité en fonction du signal du deuxième flux. Le filtré
le signal peut alors être filtré avec d'autres filtres dans les étapes ultérieures du traitement. Voir casserole ainsi que
fusionner filtre.

Le filtre accepte les options suivantes :

порог
Si un signal du deuxième flux s'élève au-dessus de ce niveau, cela affectera la réduction de gain
du premier flux. La valeur par défaut est 0.125. La plage est comprise entre 0.00097563 et 1.

rapport
Définissez un rapport sur lequel le signal est réduit. 1:2 signifie que si le niveau a augmenté de 4dB
au-dessus du seuil, il ne sera que de 2 dB au-dessus après la réduction. La valeur par défaut est 2.
La plage est comprise entre 1 et 20.

attaquer
Nombre de millisecondes pendant lesquelles le signal doit s'élever au-dessus du seuil avant le gain
la réduction commence. La valeur par défaut est 20. La plage est comprise entre 0.01 et 2000.

libérer
Nombre de millisecondes pendant lesquelles le signal doit tomber en dessous du seuil avant que la réduction ne soit
diminué à nouveau. La valeur par défaut est 250. La plage est comprise entre 0.01 et 9000 XNUMX.

maquillage
Définissez la quantité de signal qui sera amplifié après le traitement. La valeur par défaut est 2.
La plage va de 1 à 64.

genou
Courbez le coude pointu autour du seuil pour entrer la réduction de gain plus doucement.
La valeur par défaut est 2.82843. La plage est comprise entre 1 et 8.

lien
Choisissez si le niveau "moyen" entre tous les canaux du flux side-chain ou le
le canal le plus fort ("maximum") du flux side-chain affecte la réduction. La valeur par défaut est
"moyenne".

détection
Faut-il prendre le signal exact en cas de "peak" ou un signal RMS en cas de "rms".
La valeur par défaut est "rms" qui est principalement plus fluide.

Exemples

· Exemple ffmpeg complet prenant 2 entrées audio, 1ère entrée à compresser selon le
signal de la 2e entrée et plus tard le signal compressé à fusionner avec la 2e entrée :

ffmpeg -i main.flac -i sidechain.flac -filter_complex "[1:a]asplit=2[sc][mix];[0:a][sc]sidechaincompress[compr];[compr][mix]amerge"

détection de silence
Détectez le silence dans un flux audio.

Ce filtre enregistre un message lorsqu'il détecte que le volume audio d'entrée est inférieur ou égal à
une valeur de tolérance au bruit pour une durée supérieure ou égale au bruit minimum détecté
durée.

Les temps et durées imprimés sont exprimés en secondes.

Le filtre accepte les options suivantes :

durée, d
Définissez la durée du silence jusqu'à la notification (la valeur par défaut est de 2 secondes).

bruit, n
Définir la tolérance au bruit. Peut être spécifié en dB (au cas où "dB" est ajouté à la valeur spécifiée
valeur) ou le rapport d'amplitude. La valeur par défaut est -60 dB ou 0.001.

Exemples

· Détecte 5 secondes de silence avec une tolérance au bruit de -50 dB :

détection de silence=n=-50dB:d=5

· Exemple complet avec ffmpeg pour détecter le silence avec une tolérance au bruit de 0.0001 dans
silence.mp3:

ffmpeg -i silence.mp3 -af silencedetect=bruit=0.0001 -f null -

silencesupprimer
Supprimez le silence au début, au milieu ou à la fin de l'audio.

Le filtre accepte les options suivantes :

start_periods
Cette valeur est utilisée pour indiquer si l'audio doit être coupé au début de l'audio. UNE
la valeur zéro indique qu'aucun silence ne doit être supprimé depuis le début. Lorsque
en spécifiant une valeur non nulle, il coupe l'audio jusqu'à ce qu'il trouve un non-silence. Normalement,
lors de la coupe du silence depuis le début de l'audio, le start_periods sera 1 mais il peut
être augmenté à des valeurs plus élevées pour couper tout l'audio jusqu'à un nombre spécifique de non-silence
périodes. La valeur par défaut est 0.

durée_début
Spécifiez la durée pendant laquelle le non-silence doit être détecté avant qu'il ne s'arrête de rogner
l'audio. En augmentant la durée, les rafales de bruits peuvent être traitées comme du silence et
coupé. La valeur par défaut est 0.

seuil_début
Cela indique quelle valeur d'échantillon doit être traitée comme un silence. Pour l'audio numérique, un
une valeur de 0 peut convenir, mais pour l'audio enregistré à partir de l'analogique, vous souhaiterez peut-être augmenter
la valeur pour tenir compte du bruit de fond. Peut être spécifié en dB (au cas où "dB" est
ajouté à la valeur spécifiée) ou le rapport d'amplitude. La valeur par défaut est 0.

stop_périodes
Définissez le nombre de coupures de silence à partir de la fin de l'audio. Pour supprimer le silence de la
milieu d'un fichier, spécifiez un stop_périodes c'est négatif. Cette valeur est ensuite traitée
comme valeur positive et est utilisé pour indiquer que l'effet doit redémarrer le traitement comme
spécifié par start_periods, ce qui le rend approprié pour supprimer les périodes de silence dans le
milieu de l'audio. La valeur par défaut est 0.

durée_arrêt
Spécifiez une durée de silence qui doit exister avant que l'audio ne soit plus copié. Par
en spécifiant une durée plus élevée, le silence souhaité peut être laissé dans l'audio.
La valeur par défaut est 0.

stop_seuil
C'est la même chose que seuil_début mais pour couper le silence de la fin de l'audio.
Peut être spécifié en dB (au cas où "dB" est ajouté à la valeur spécifiée) ou en amplitude
rapport. La valeur par défaut est 0.

laisser_silence
Cela indique que durée_arrêt la longueur de l'audio doit être laissée intacte au
début de chaque période de silence. Par exemple, si vous souhaitez supprimer les longues pauses
entre les mots mais ne veulent pas supprimer complètement les pauses. La valeur par défaut est 0.

Exemples

· L'exemple suivant montre comment ce filtre peut être utilisé pour démarrer un enregistrement qui
ne pas contenir le retard au démarrage qui se produit généralement entre le pressage du disque
bouton et le début de la performance :

suppression du silence=1:5:0.02

aigus
Augmentez ou coupez les fréquences aiguës (supérieures) de l'audio à l'aide d'un filtre en plateau à deux pôles avec
une réponse similaire à celle des commandes de tonalité d'une chaîne hi-fi standard. Ceci est également connu comme
égalisation en plateau (EQ).

Le filtre accepte les options suivantes :

Gain, g
Donnez le gain à la plus faible de ~22 kHz et de la fréquence de Nyquist. Son
la plage utile est d'environ -20 (pour un gros cut) à +20 (pour un gros boost). Faîtes attention à
écrêtage lors de l'utilisation d'un gain positif.

la fréquence, f
Réglez la fréquence centrale du filtre et peut donc être utilisé pour étendre ou réduire la
gamme de fréquences à amplifier ou à couper. La valeur par défaut est 3000 Hz.

largeur_type
Définir la méthode pour spécifier la bande passante du filtre.

h Hz

q Facteur Q

o octave

s pente

largeur, w
Déterminez la pente de la transition de plateau du filtre.

le volume
Réglez le volume audio d'entrée.

Il accepte les paramètres suivants :

le volume
Définir l'expression du volume audio.

Les valeurs de sortie sont écrêtées à la valeur maximale.

Le volume audio de sortie est donné par la relation :

= *

La valeur par défaut pour le volume est "1.0".

avec précision
Ce paramètre représente la précision mathématique.

Il détermine quels formats d'échantillons d'entrée seront autorisés, ce qui affecte la précision
de la mise à l'échelle du volume.

fixé
virgule fixe 8 bits; cela limite le format d'échantillon d'entrée à U8, S16 et S32.

flotter
virgule flottante 32 bits ; cela limite le format d'échantillon d'entrée à FLT. (défaut)

double
virgule flottante 64 bits ; cela limite le format d'échantillon d'entrée à DBL.

rejouer
Choisissez le comportement lors de la rencontre des données latérales ReplayGain dans les trames d'entrée.

déposer
Supprimez les données côté ReplayGain, en ignorant son contenu (valeur par défaut).

ignorer
Ignorez les données latérales ReplayGain, mais laissez-les dans le cadre.

suivre
Préférez le gain de piste, s'il est présent.

album
Préférez l'album gain, s'il est présent.

replaygain_preamp
Gain de préamplification en dB à appliquer au gain de replaygain sélectionné.

Valeur par défaut pour replaygain_preamp est 0.0.

eval
Défini quand l'expression de volume est évaluée.

Il accepte les valeurs suivantes :

une fois
n'évalue l'expression qu'une seule fois lors de l'initialisation du filtre, ou lorsque le le volume
la commande est envoyée

cadre
évaluer l'expression pour chaque trame entrante

La valeur par défaut est une fois.

L'expression de volume peut contenir les paramètres suivants.

n numéro de trame (commençant à zéro)

nb_canaux
Nombre de canaux

nb_consumed_samples
nombre d'échantillons consommés par le filtre

nb_échantillons
nombre d'échantillons dans la trame actuelle

poster position du cadre d'origine dans le fichier

pts cadre PTS

taux d'échantillonnage
taux d'échantillonnage

points de départ
PTS au début du flux

commencer
heure au début du flux

t temps de trame

tb base de temps d'horodatage

le volume
dernière valeur de volume définie

Notez que lorsque eval est fixé à une fois que l' taux d'échantillonnage ainsi que tb des variables sont disponibles,
toutes les autres variables seront évaluées à NAN.

Commandes

Ce filtre prend en charge les commandes suivantes :

le volume
Modifiez l'expression du volume. La commande accepte la même syntaxe du
option correspondante.

Si l'expression spécifiée n'est pas valide, elle est conservée à sa valeur actuelle.

replaygain_noclip
Empêche l'écrêtage en limitant le gain appliqué.

Valeur par défaut pour replaygain_noclip est 1.

Exemples

· Réduisez de moitié le volume audio d'entrée :

volume=volume=0.5
volumes=volumes=1/2
volume=volume=-6.0206dB

Dans tous les exemples ci-dessus, la clé nommée pour le volume peut être omis, par exemple comme dans :

volume=0.5

· Augmentez la puissance audio d'entrée de 6 décibels en utilisant une précision à virgule fixe :

volume=volume=6dB:précision=fixe

· Volume de fondu après le temps 10 avec une période d'annihilation de 5 secondes :

volume='if(lt(t,10),1,max(1-(t-10)/5,0))':eval=frame

détection de volume
Détecter le volume de la vidéo d'entrée.

Le filtre n'a pas de paramètres. L'entrée n'est pas modifiée. Les statistiques sur le volume seront
être imprimé dans le journal lorsque la fin du flux d'entrée est atteinte.

En particulier, il affichera le volume moyen (racine quadratique moyenne), le volume maximum (sur un
base d'échantillon), et le début d'un histogramme des valeurs de volume enregistrées (à partir de la
valeur maximale à un 1/1000 cumulé des échantillons).

Tous les volumes sont en décibels par rapport à la valeur PCM maximale.

Exemples

Voici un extrait de la sortie :

[Parsed_volumedetect_0 0xa23120] Mean_volume : -27 dB
[Parsed_volumedetect_0 0xa23120] max_volume : -4 dB
[Parsed_volumedetect_0 0xa23120] histogram_4db : 6
[Parsed_volumedetect_0 0xa23120] histogram_5db : 62
[Parsed_volumedetect_0 0xa23120] histogram_6db : 286
[Parsed_volumedetect_0 0xa23120] histogram_7db : 1042
[Parsed_volumedetect_0 0xa23120] histogram_8db : 2551
[Parsed_volumedetect_0 0xa23120] histogram_9db : 4609
[Parsed_volumedetect_0 0xa23120] histogram_10db : 8409

Cela signifie que:

· L'énergie quadratique moyenne est d'environ -27 dB, soit 10^-2.7.

· Le plus grand échantillon est à -4 dB, ou plus précisément entre -4 dB et -5 dB.

· Il y a 6 échantillons à -4 dB, 62 à -5 dB, 286 à -6 dB, etc.

En d'autres termes, augmenter le volume de +4 dB ne provoque aucun écrêtage, l'augmenter de +5
dB provoque un écrêtage pour 6 échantillons, etc.

AUDIO SOURCES


Vous trouverez ci-dessous une description des sources audio actuellement disponibles.

un tampon
Tamponnez les trames audio et mettez-les à disposition de la chaîne de filtrage.

Cette source est principalement destinée à un usage programmatique, notamment au travers de l'interface
défini dans libavfilter/asrc_buffer.h.

Il accepte les paramètres suivants :

base_temps
La base de temps qui sera utilisée pour les horodatages des trames soumises. Il doit être soit
un nombre à virgule flottante ou en numérateur/dénominateur formulaire.

taux d'échantillonnage
Le taux d'échantillonnage des tampons audio entrants.

échantillon_fmt
Le format d'échantillon des tampons audio entrants. Soit un exemple de nom de format, soit son
représentation entière correspondante de l'énumération AVSampleFormat dans
libavutil/samplefmt.h

canal_layout
La disposition des canaux des tampons audio entrants. Soit un nom de disposition de canal de
channel_layout_map dans libavutil/channel_layout.c ou son entier correspondant
représentation des macros AV_CH_LAYOUT_* dans libavutil/channel_layout.h

Voies
Le nombre de canaux des tampons audio entrants. Si les deux Voies ainsi que
canal_layout sont spécifiés, alors ils doivent être cohérents.

Exemples

abuffer=sample_rate=44100:sample_fmt=s16p:channel_layout=stéréo

indiquera à la source d'accepter la stéréo planaire signée 16 bits à 44100 XNUMX Hz. Depuis le
le format d'échantillon avec le nom "s16p" correspond au numéro 6 et à la disposition des canaux "stéréo"
correspond à la valeur 0x3, cela équivaut à :

abuffer=sample_rate=44100:sample_fmt=6:channel_layout=0x3

aevalsrc
Générer un signal audio spécifié par une expression.

Cette source accepte en entrée une ou plusieurs expressions (une pour chaque canal), qui sont
évalué et utilisé pour générer un signal audio correspondant.

Cette source accepte les options suivantes :

expressions
Définissez la liste d'expressions séparées par '|' pour chaque canal séparé. Au cas où le
canal_layout option n'est pas spécifiée, la disposition des canaux sélectionnée dépend de la
nombre d'expressions fournies. Sinon, la dernière expression spécifiée est appliquée à
les canaux de sortie restants.

canal_layout, c
Définissez la disposition des canaux. Le nombre de canaux dans la disposition spécifiée doit être égal
au nombre d'expressions spécifiées.

durée, d
Définissez la durée minimale de l'audio source. Voir le Temps durée in le
ffmpeg-utils(1) Manuel pour la syntaxe acceptée. Notez que la durée résultante peut
être supérieure à la durée spécifiée, car l'audio généré est toujours coupé à la
fin d'un cadre complet.

S'il n'est pas spécifié ou si la durée exprimée est négative, l'audio est censé être
généré pour toujours.

nb_échantillons, n
Définissez le nombre d'échantillons par canal pour chaque trame de sortie, par défaut à 1024.

taux d'échantillonnage, s
Spécifiez le taux d'échantillonnage, par défaut à 44100.

Chaque expression dans expressions peut contenir les constantes suivantes :

n numéro de l'échantillon évalué, à partir de 0

t temps de l'échantillon évalué exprimé en secondes, à partir de 0

s taux d'échantillonnage

Exemples

· Générer du silence :

aevalsrc=0

· Générez un signal sin avec une fréquence de 440 Hz, réglez la fréquence d'échantillonnage sur 8000 Hz :

aevalsrc="/sin(440*2*PI*t):s=8000"

· Générer un signal à deux canaux, spécifier la disposition des canaux (Avant Centre + Arrière
Centre) explicitement :

aevalsrc="/sin(420*2*PI*t)|cos(430*2*PI*t):c=FC|BC"

· Générer du bruit blanc :

aevalsrc="/-2+aléatoire(0)"

· Générer un signal modulé en amplitude :

aevalsrc="/sin(10*2*PI*t)*sin(880*2*PI*t)"

· Générer des battements binauraux à 2.5 Hz sur une porteuse à 360 Hz :

aevalsrc="/0.1*sin(2*PI*(360-2.5/2)*t) | 0.1*sin(2*PI*(360+2.5/2)*t)"

anulsrc
La source audio nulle renvoie des trames audio non traitées. Il est principalement utile comme modèle
et à utiliser dans des outils d'analyse/de débogage, ou comme source de filtres qui
ignorer les données d'entrée (par exemple le filtre sox synth).

Cette source accepte les options suivantes :

canal_layout, cl
Spécifie la disposition du canal et peut être un entier ou une chaîne représentant un
disposition des canaux. La valeur par défaut de canal_layout est "stéréo".

Vérifiez la définition channel_layout_map dans libavutil/channel_layout.c pour la cartographie
entre les chaînes et les valeurs de disposition des canaux.

taux d'échantillonnage, r
Spécifie la fréquence d'échantillonnage et la valeur par défaut est 44100 XNUMX.

nb_échantillons, n
Définissez le nombre d'échantillons par trames demandées.

Exemples

· Réglez la fréquence d'échantillonnage sur 48000 XNUMX Hz et la disposition des canaux sur AV_CH_LAYOUT_MONO.

anulsrc=r=48000:cl=4

· Faites la même opération avec une syntaxe plus évidente :

anullsrc=r=48000:cl=mono

Tous les paramètres doivent être explicitement définis.

flite
Synthétisez un énoncé vocal à l'aide de la bibliothèque libflite.

Pour activer la compilation de ce filtre, vous devez configurer FFmpeg avec
"--enable-libflite".

Notez que la bibliothèque flite n'est pas thread-safe.

Le filtre accepte les options suivantes :

liste_voix
S'il est défini sur 1, répertoriez les noms des voix disponibles et quittez immédiatement. Défaut
la valeur est 0.

nb_échantillons, n
Définissez le nombre maximum d'échantillons par image. La valeur par défaut est 512.

fichier texte
Définissez le nom de fichier contenant le texte à prononcer.

texte
Réglez le texte à parler.

voix, v
Réglez la voix à utiliser pour la synthèse vocale. La valeur par défaut est « kal ». Voir aussi le
liste_voix option.

Exemples

· Lire à partir d'un fichier discours.txt, et synthétisez le texte à l'aide de la voix standard de flite :

flite=fichier texte=parole.txt

· Lire le texte spécifié en sélectionnant la voix "slt":

flite=text='Adieu, pauvre diable de sous-sous, dont je suis le commentateur':voice=slt

· Saisir du texte dans ffmpeg :

ffmpeg -f lavfi -i flite=text='Adieu, pauvre diable de sous-sous, dont je suis le commentateur':voice=slt

· Faire ffplay prononcez le texte spécifié, en utilisant "flite" et le périphérique "lavfi":

ffplay -f lavfi flite=text='Ne t'afflige plus pour ce que tu as fait.'

Pour plus d'informations sur libflite, consultez :http://www.speech.cs.cmu.edu/flite/>

leur
Générer un signal audio constitué d'une onde sinusoïdale d'amplitude 1/8.

Le signal audio est exact au bit près.

Le filtre accepte les options suivantes :

la fréquence, f
Réglez la fréquence porteuse. La valeur par défaut est 440 Hz.

facteur_bip, b
Activer un bip périodique toutes les secondes avec fréquence facteur_bip fois le transporteur
la fréquence. La valeur par défaut est 0, ce qui signifie que le bip est désactivé.

taux d'échantillonnage, r
Spécifiez le taux d'échantillonnage, la valeur par défaut est 44100.

durée, d
Spécifiez la durée du flux audio généré.

échantillons_par_image
Définissez le nombre d'échantillons par trame de sortie, la valeur par défaut est 1024.

Exemples

· Générer une onde sinusoïdale simple de 440 Hz :

leur

· Générer une onde sinusoïdale de 220 Hz avec un bip de 880 Hz chaque seconde, pendant 5 secondes :

sinus=220:4:d=5
sinus=f=220:b=4:d=5
sinus=fréquence=220:beep_factor=4:duration=5

AUDIO PUITS


Vous trouverez ci-dessous une description des récepteurs audio actuellement disponibles.

un tampon
Tamponnez les trames audio et rendez-les disponibles jusqu'à la fin de la chaîne de filtrage.

Ce puits est principalement destiné à un usage programmatique, notamment via l'interface
défini dans libavfilter/bufferink.h ou le système d'options.

Il accepte un pointeur vers une structure AVABufferSinkContext, qui définit le
formats des buffers, à passer en paramètre opaque à "avfilter_init_filter" pour
initialisation

évier
Récepteur audio nul ; ne faites absolument rien avec l'audio d'entrée. Il est principalement utile comme
modèle et à utiliser dans les outils d'analyse / de débogage.

VIDÉO FILTRES


Lorsque vous configurez votre build FFmpeg, vous pouvez désactiver l'un des filtres existants en utilisant
"--désactiver-filtres". La sortie de configuration affichera les filtres vidéo inclus dans votre
construire.

Vous trouverez ci-dessous une description des filtres vidéo actuellement disponibles.

extrait alpha
Extrayez la composante alpha de l'entrée sous forme de vidéo en niveaux de gris. Ceci est particulièrement utile
les fusion alpha filtre.

fusion alpha
Ajoutez ou remplacez la composante alpha de l'entrée principale par la valeur en niveaux de gris d'un
deuxième entrée. Ceci est destiné à être utilisé avec extrait alpha pour permettre la transmission ou
stockage des séquences d'images qui ont alpha dans un format qui ne prend pas en charge un alpha
canal.

Par exemple, pour reconstruire des images complètes à partir d'une vidéo encodée YUV normale et d'une
vidéo créée avec extrait alpha, vous pouvez utiliser :

film=in_alpha.mkv [alpha] ; [entrée][alpha] alphamerge [sortie]

Étant donné que ce filtre est conçu pour la reconstruction, il fonctionne sur des séquences de trames sans
en tenant compte des horodatages, et se termine lorsque l'une des entrées atteint la fin du flux. Cette volonté
causer des problèmes si votre pipeline d'encodage supprime des trames. Si vous essayez d'appliquer une image
comme superposition à un flux vidéo, considérez le revêtement filtrer à la place.

class
Identique au les sous-titres filtre, sauf qu'il ne nécessite pas libavcodec et libavformat pour
travail. En revanche, il est limité aux fichiers de sous-titres ASS (Advanced Substation Alpha).

Ce filtre accepte l'option suivante en plus des options courantes du
les sous-titres filtre:

mise en forme
Définir le moteur de mise en forme

Les valeurs disponibles sont :

auto
Le moteur de mise en forme par défaut, qui est le meilleur disponible.

simple
Shaper rapide et indépendant de la police qui ne peut faire que des substitutions

complexe
Shaper plus lent utilisant OpenType pour les substitutions et le positionnement

La valeur par défaut est "auto".

atadnoise
Appliquez un débruiteur de moyenne temporelle adaptative à l'entrée vidéo.

Le filtre accepte les options suivantes :

0a Réglez le seuil A pour le 1er plan. La valeur par défaut est 0.02. La plage valide est de 0 à 0.3.

0b Réglez le seuil B pour le 1er plan. La valeur par défaut est 0.04. La plage valide est de 0 à 5.

1a Réglez le seuil A pour le 2e plan. La valeur par défaut est 0.02. La plage valide est de 0 à 0.3.

1b Réglez le seuil B pour le 2e plan. La valeur par défaut est 0.04. La plage valide est de 0 à 5.

2a Réglez le seuil A pour le 3ème plan. La valeur par défaut est 0.02. La plage valide est de 0 à 0.3.

2b Réglez le seuil B pour le 3e plan. La valeur par défaut est 0.04. La plage valide est de 0 à 5.

Le seuil A est conçu pour réagir aux changements brusques du signal d'entrée et du seuil B
est conçu pour réagir aux changements continus du signal d'entrée.

s Définir le nombre d'images que le filtre utilisera pour le calcul de la moyenne. La valeur par défaut est 33. Doit être un nombre impair
dans la plage [5, 129].

bbox
Calculez le cadre de délimitation des pixels non noirs dans le plan de luminance de l'image d'entrée.

Ce filtre calcule la boîte englobante contenant tous les pixels avec une valeur de luminance
supérieure à la valeur minimale autorisée. Les paramètres décrivant la boîte englobante sont
imprimé sur le journal du filtre.

Le filtre accepte l'option suivante :

min_val
Définissez la valeur de luminance minimale. La valeur par défaut est 16.

détection noire
Détectez les intervalles vidéo qui sont (presque) complètement noirs. Peut être utile pour détecter le chapitre
transitions, publicités ou enregistrements invalides. Les lignes de sortie contiennent l'heure de la
début, fin et durée de l'intervalle de noir détecté exprimé en secondes.

Afin d'afficher les lignes de sortie, vous devez définir le niveau de journalisation au moins sur le
valeur AV_LOG_INFO.

Le filtre accepte les options suivantes :

noir_min_durée, d
Définissez la durée minimale du noir détecté exprimée en secondes. Il doit s'agir d'un non-
nombre à virgule flottante négatif.

La valeur par défaut est 2.0.

image_noir_ratio_th, pic_th
Définissez le seuil pour considérer une image « noire ». Exprimez la valeur minimale pour
le rapport:

/

pour laquelle une image est considérée comme noire. La valeur par défaut est de 0.98.

pixel_noir_th, pix_ième
Définissez le seuil pour considérer un pixel "noir".

Le seuil exprime la valeur maximale de luminance de pixel pour laquelle un pixel est
considéré comme « noir ». La valeur fournie est mise à l'échelle selon l'équation suivante :

= + *

luminance_range_size ainsi que luminance_minimum_value dépendent du format vidéo d'entrée, le
la plage est [0-255] pour les formats de gamme complète YUV et [16-235] pour les formats non complets YUV
formats.

La valeur par défaut est 0.10.

L'exemple suivant définit le seuil de pixel maximal sur la valeur minimale et détecte
uniquement des intervalles noirs de 2 secondes ou plus :

blackdetect=d=2:pix_th=0.00

cadre noir
Détectez les images qui sont (presque) complètement noires. Peut être utile pour détecter le chapitre
transitions ou publicités. Les lignes de sortie sont constituées du numéro de trame du
frame, le pourcentage de noirceur, la position dans le fichier si connue ou -1 et le
horodatage en secondes.

Afin d'afficher les lignes de sortie, vous devez définir le niveau de journalisation au moins sur le
valeur AV_LOG_INFO.

Il accepte les paramètres suivants :

montant
Le pourcentage de pixels qui doivent être inférieurs au seuil ; la valeur par défaut est 98.

au seuil, battre
Le seuil en dessous duquel une valeur de pixel est considérée comme noire ; il est par défaut à 32.

mélanger, mélanger
Mélangez deux images vidéo l'une dans l'autre.

Le filtre "blend" prend deux flux d'entrée et sort un flux, la première entrée est le
la couche "supérieure" et la deuxième entrée est la couche "inférieure". La sortie se termine lorsque l'entrée la plus courte
se termine.

Le filtre "tblend" (mélange temporel) prend deux images consécutives d'un seul flux, et
affiche le résultat obtenu en mélangeant la nouvelle image sur l'ancienne image.

Une description des options acceptées suit.

c0_mode
c1_mode
c2_mode
c3_mode
tout_mode
Définir le mode de fusion pour un composant de pixel spécifique ou tous les composants de pixel en cas de
tout_mode. La valeur par défaut est "normale".

Les valeurs disponibles pour les modes de composant sont :

ajout
ainsi que
moyen
brûler
assombrir
différence
différence128
diviser
esquive
exclusion
lueur
Lumière forte
mélange dur
alléger
lumière linéaire
multiplier
négation
Ordinaire
or
revêtement
phénix
lumière d'épingle
refléter
écran
Lumière douce
soustraire
vive lumière
xor
c0_opacité
c1_opacité
c2_opacité
c3_opacité
all_opacity
Définir l'opacité du mélange pour un composant de pixel spécifique ou tous les composants de pixel en cas de
all_opacity. Uniquement utilisé en combinaison avec les modes de fusion des composants de pixels.

c0_expr
c1_expr
c2_expr
c3_expr
all_expr
Définir l'expression de mélange pour un composant de pixel spécifique ou tous les composants de pixel en cas de
all_expr. Notez que les options de mode associées seront ignorées si elles sont définies.

Les expressions peuvent utiliser les variables suivantes :

N Le numéro séquentiel de la trame filtrée, à partir de 0.

X
Y les coordonnées de l'échantillon actuel

W
H la largeur et la hauteur du plan actuellement filtré

SW
SH Echelle de largeur et de hauteur en fonction du plan actuellement filtré. c'est le rapport
entre le nombre de pixels du plan de luminance correspondant et ceux du plan courant.
Par exemple, pour YUV4:2:0, les valeurs sont "1,1" pour le plan de luminance et "0.5,0.5" pour
plans de chrominance.

T Temps de l'image actuelle, exprimé en secondes.

HAUT, A
Valeur du composant de pixel à l'emplacement actuel pour la première image vidéo (couche supérieure).

BAS, B
Valeur du composant de pixel à l'emplacement actuel pour la deuxième image vidéo (en bas
couche).

le plus court
Forcer l'arrêt lorsque l'entrée la plus courte se termine. La valeur par défaut est 0. Cette option est
uniquement défini pour le filtre « mélange ».

répéter en dernier
Continuez à appliquer la dernière image du bas après la fin du flux. Une valeur de 0
désactiver le filtre une fois que la dernière image du calque inférieur est atteinte. La valeur par défaut est 1.
Cette option n'est définie que pour le filtre "blend".

Exemples

· Appliquer la transition de la couche inférieure à la couche supérieure dans les 10 premières secondes :

blend=all_expr='A*(if(gte(T,10),1,T/10))+B*(1-(if(gte(T,10),1,T/10)))'

· Appliquer un effet damier 1x1 :

blend=all_expr='if(eq(mod(X,2),mod(Y,2)),A,B)'

· Appliquer l'effet découvert gauche :

blend=all_expr='if(gte(N*SW+X,W),A,B)'

· Appliquer l'effet découvert du duvet :

blend=all_expr='if(gte(YN*SH,0),A,B)'

· Appliquer l'effet découvrir en haut à gauche :

blend=all_expr='if(gte(T*SH*40+Y,H)*gte((T*40*SW+X)*W/H,W),A,B)'

· Afficher les différences entre l'image actuelle et l'image précédente :

tblend=all_mode=difference128

boîte floue
Appliquez un algorithme boxblur à la vidéo d'entrée.

Il accepte les paramètres suivants :

luma_radius, lr
luma_power, lp
chroma_radius, cr
chroma_power, cp
rayon_alpha, ar
alpha_puissance, ap

Une description des options acceptées suit.

luma_radius, lr
chroma_radius, cr
rayon_alpha, ar
Définissez une expression pour le rayon de la boîte en pixels utilisé pour brouiller le
plan d'entrée.

La valeur du rayon doit être un nombre non négatif et ne doit pas être supérieure à la valeur
de l'expression "min(w,h)/2" pour les plans luma et alpha, et de "min(cw,ch)/2"
pour les plans de chrominance.

Valeur par défaut pour luma_radius est "2". Si non spécifié, chroma_radius ainsi que rayon_alpha
par défaut à la valeur correspondante définie pour luma_radius.

Les expressions peuvent contenir les constantes suivantes :

w
h La largeur et la hauteur d'entrée en pixels.

cw
ch La largeur et la hauteur de l'image de chrominance d'entrée en pixels.

hsub
vssub
Les valeurs de sous-échantillon de chrominance horizontale et verticale. Par exemple, pour le pixel
formater "yuv422p", hsub est 2 et vssub est 1.

luma_power, lp
chroma_power, cp
alpha_puissance, ap
Spécifiez combien de fois le filtre boxblur est appliqué au plan correspondant.

Valeur par défaut pour luma_power est 2. Si non spécifié, chroma_puissance ainsi que alpha_puissance
par défaut à la valeur correspondante définie pour luma_power.

Une valeur de 0 désactivera l'effet.

Exemples

· Appliquez un filtre boxblur avec les rayons de luminance, de chrominance et d'alpha définis sur 2 :

boxblur=luma_radius=2:luma_power=1
flou de boîte=2:1

· Réglez le rayon de luminance sur 2 et les rayons alpha et chroma sur 0 :

flou de boîte=2:1:cr=0:ar=0

· Réglez les rayons de luminance et de chrominance sur une fraction de la dimension vidéo :

boxblur=luma_radius=min(h\,w)/10:luma_power=1:chroma_radius=min(cw\,ch)/10:chroma_power=1

vue codec
Visualisez les informations exportées par certains codecs.

Certains codecs peuvent exporter des informations via des trames à l'aide de données secondaires ou d'autres moyens. Pour
Par exemple, certains codecs basés sur MPEG exportent des vecteurs de mouvement via le export_mvs drapeau dans le
codec flags2 option.

Le filtre accepte l'option suivante :

mv Définissez des vecteurs de mouvement à visualiser.

Drapeaux disponibles pour mv sont:

pf MV prédites vers l'avant des images P

bf MV prédites vers l'avant des trames B

bb MV prédites en arrière des images B

Exemples

· Visualise les MV multidirectionnelles à partir des trames P et B à l'aide ffplay:

ffplay -flags2 +export_mvs input.mpg -vf codecview=mv=pf+bf+bb

Balance de couleur
Modifier l'intensité des couleurs primaires (rouge, vert et bleu) des trames d'entrée.

Le filtre permet d'ajuster une trame d'entrée dans les ombres, les tons moyens ou les hautes lumières
régions pour la balance rouge-cyan, vert-magenta ou bleu-jaune.

Une valeur de réglage positive déplace la balance vers la couleur primaire, une valeur négative
vers la couleur complémentaire.

Le filtre accepte les options suivantes :

rs
gs
bs Ajustez les ombres rouges, vertes et bleues (pixels les plus sombres).

rm
gm
bm Ajustez les tons moyens rouges, verts et bleus (pixels moyens).

rh
gh
bh Ajustez les reflets rouges, verts et bleus (pixels les plus lumineux).

Les plages autorisées pour les options sont "[-1.0, 1.0]". Les valeurs par défaut sont 0.

Exemples

· Ajouter une dominante de couleur rouge aux ombres :

balance des couleurs=rs=.3

Clé de couleur
Incrustation de couleur de l'espace colorimétrique RVB.

Le filtre accepte les options suivantes :

Couleur
La couleur qui sera remplacée par la transparence.

similarité
Pourcentage de similarité avec la couleur de la clé.

0.01 correspond uniquement à la couleur exacte de la clé, tandis que 1.0 correspond à tout.

Anestoderm
Pourcentage de mélange.

0.0 rend les pixels totalement transparents ou pas du tout transparents.

Des valeurs plus élevées donnent des pixels semi-transparents, avec une transparence plus élevée plus
la couleur des pixels est similaire à la couleur de la clé.

Exemples

· Rendre transparent chaque pixel vert de l'image d'entrée :

ffmpeg -i input.png -vf colorkey=green out.png

· Superposer une vidéo sur écran vert sur une image d'arrière-plan statique.

ffmpeg -i background.png -i video.mp4 -filter_complex "[1:v]colorkey=0x3BBD1E:0.3:0.2[ckout];[0:v][ckout]overlay[out]" -map "[out]" sortie.flv

niveaux de couleur
Ajustez les images d'entrée vidéo à l'aide des niveaux.

Le filtre accepte les options suivantes :

rime
gimin
bimine
viser
Ajustez le point noir d'entrée rouge, vert, bleu et alpha. Les plages autorisées pour les options sont
"[-1.0, 1.0]". Les valeurs par défaut sont 0.

Rimax
Gimax
bimax
Aimax
Ajustez le point blanc d'entrée rouge, vert, bleu et alpha. Les plages autorisées pour les options sont
"[-1.0, 1.0]". Les valeurs par défaut sont 1.

Les niveaux d'entrée sont utilisés pour éclaircir les hautes lumières (tons clairs), assombrir les ombres (sombres
tons), modifiez l'équilibre des tons clairs et sombres.

romin
Gomine
bonjour
Aomine
Ajustez le point noir de sortie rouge, vert, bleu et alpha. Les plages autorisées pour les options sont
"[0, 1.0]". Les valeurs par défaut sont 0.

romax
gomax
bomax
aomax
Ajustez le point blanc de sortie rouge, vert, bleu et alpha. Les plages autorisées pour les options sont
"[0, 1.0]". Les valeurs par défaut sont 1.

Les niveaux de sortie permettent la sélection manuelle d'une plage de niveaux de sortie limitée.

Exemples

· Rendre la sortie vidéo plus sombre :

niveaux de couleur=rimin=0.058:gimin=0.058:bimin=0.058

· Augmenter le contraste:

colorlevels=rimin=0.039:gimin=0.039:bimin=0.039:rimax=0.96:gimax=0.96:bimax=0.96

· Rendre la sortie vidéo plus légère :

niveaux de couleur=rimax=0.902:gimax=0.902:bimax=0.902

· Augmenter la luminosité :

niveaux de couleur=romin=0.5:gomin=0.5:bomin=0.5

mélangeur de canaux de couleur
Ajustez les images d'entrée vidéo en remixant les canaux de couleur.

Ce filtre modifie un canal de couleur en ajoutant les valeurs associées aux autres canaux
des mêmes pixels. Par exemple si la valeur à modifier est rouge, la valeur de sortie sera :

= * + * + * + *

Le filtre accepte les options suivantes :

rr
rg
rb
ra Ajuster la contribution des canaux d'entrée rouge, vert, bleu et alpha pour le rouge de sortie
canaliser. La valeur par défaut est 1 pour rret 0 pour rg, rb ainsi que ra.

gr
gg
gb
ga Ajuster la contribution des canaux d'entrée rouge, vert, bleu et alpha pour le vert de sortie
canaliser. La valeur par défaut est 1 pour gget 0 pour gr, gb ainsi que ga.

br
bg
bb
ba Ajuster la contribution des canaux d'entrée rouge, vert, bleu et alpha pour le bleu de sortie
canaliser. La valeur par défaut est 1 pour bbet 0 pour br, bg ainsi que ba.

ar
ag
ab
aa Ajuster la contribution des canaux d'entrée rouge, vert, bleu et alpha pour l'alpha de sortie
canaliser. La valeur par défaut est 1 pour aaet 0 pour ar, ag ainsi que ab.

Les plages autorisées pour les options sont "[-2.0, 2.0]".

Exemples

· Convertir la source en niveaux de gris :

colorchannelmixer=.3:.4:.3:0:.3:.4:.3:0:.3:.4:.3

· Simulez des tons sépia :

colorchannelmixer=.393:.769:.189:0:.349:.686:.168:0:.272:.534:.131

matrice de couleurs
Convertir la matrice de couleur.

Le filtre accepte les options suivantes :

src
dst Spécifiez la matrice de couleurs source et de destination. Les deux valeurs doivent être spécifiées.

Les valeurs acceptées sont :

bt709
BT.709

bt601
BT.601

smpte240m
SMPTE-240M

Fcc FCC

Par exemple pour convertir de BT.601 en SMPTE-240M, utilisez la commande :

matrice de couleurs=bt601:smpte240m

copier
Copiez la source d'entrée inchangée dans la sortie. Ceci est principalement utile à des fins de test.

récolte
Recadrez la vidéo d'entrée aux dimensions données.

Il accepte les paramètres suivants :

w, out_w
La largeur de la vidéo de sortie. La valeur par défaut est "iw". Cette expression est évaluée uniquement
une fois lors de la configuration du filtre, ou lorsque le w or out_w la commande est envoyée.

h, out_h
La hauteur de la vidéo de sortie. La valeur par défaut est "ih". Cette expression est évaluée
une seule fois lors de la configuration du filtre, ou lorsque le h or out_h la commande est envoyée.

x La position horizontale, dans la vidéo d'entrée, du bord gauche de la vidéo de sortie. Ce
par défaut "(in_w-out_w)/2". Cette expression est évaluée par image.

y La position verticale, dans la vidéo d'entrée, du bord supérieur de la vidéo de sortie. Ce
par défaut "(in_h-out_h)/2". Cette expression est évaluée par image.

garder_aspect
S'il est défini sur 1, le format d'affichage de la sortie sera le même que celui de l'entrée, en
changer le rapport hauteur/largeur de l'échantillon de sortie. La valeur par défaut est 0.

La out_w, out_h, x, y les paramètres sont des expressions contenant les constantes suivantes :

x
y Les valeurs calculées pour x ainsi que y. Ils sont évalués pour chaque nouvelle trame.

en W
in_h
La largeur et la hauteur d'entrée.

iw
ih Ce sont les mêmes que en W ainsi que in_h.

out_w
out_h
La largeur et la hauteur de sortie (rognées).

ow
oh Ce sont les mêmes que out_w ainsi que out_h.

a même que iw / ih

sar rapport d'aspect de l'échantillon d'entrée

donner rapport d'aspect d'affichage d'entrée, c'est le même que (iw / ih) * sar

hsub
vssub
valeurs de sous-échantillon de chrominance horizontale et verticale. Par exemple pour le format pixel
"yuv422p" hsub est 2 et vssub est 1.

n Le numéro de la trame d'entrée, à partir de 0.

poster la position dans le fichier de la trame d'entrée, NAN si inconnue

t L'horodatage exprimé en secondes. C'est NAN si l'horodatage d'entrée est inconnu.

L'expression pour out_w peut dépendre de la valeur de out_h, et l'expression de out_h
peut dépendre de out_w, mais ils ne peuvent pas dépendre de x ainsi que y, comme x ainsi que y sont évalués après
out_w ainsi que out_h.

La x ainsi que y les paramètres spécifient les expressions pour la position du coin supérieur gauche de
la zone de sortie (non recadrée). Ils sont évalués pour chaque trame. Si la valeur évaluée
n'est pas valide, il est approximé à la valeur valide la plus proche.

L'expression pour x peut dépendre de y, et l'expression de y peut dépendre de x.

Exemples

· Zone de recadrage avec la taille 100x100 à la position (12,34).

recadrage=100:100:12:34

En utilisant les options nommées, l'exemple ci-dessus devient :

recadrer=w=100:h=100:x=12:y=34

· Recadrer la zone de saisie centrale au format 100x100 :

recadrage=100:100

· Recadrez la zone d'entrée centrale avec la taille 2/3 de la vidéo d'entrée :

recadrage=2/3*in_w:2/3*in_h

· Recadrer le carré central de la vidéo d'entrée :

crop=out_w=in_h
recadrage=in_h

· Délimitez le rectangle avec le coin supérieur gauche placé à la position 100:100 et le
coin inférieur droit correspondant au coin inférieur droit de l'image d'entrée.

recadrage=in_w-100:in_h-100:100:100

· Recadrer 10 pixels des bordures gauche et droite et 20 pixels du haut et du bas
limites

recadrage=in_w-2*10:in_h-2*20

· Ne conserver que le quart inférieur droit de l'image d'entrée :

recadrage=in_w/2:in_h/2:in_w/2:in_h/2

· Hauteur de coupe pour obtenir l'harmonie grecque :

recadrage=in_w:1/PHI*in_w

· Appliquer l'effet tremblant :

crop=in_w/2:in_h/2:(in_w-out_w)/2+((in_w-out_w)/2)*sin(n/10):(in_h-out_h)/2 +((in_h-out_h)/2)*sin(n/7)

· Appliquer un effet de caméra erratique en fonction de l'horodatage :

crop=in_w/2:in_h/2:(in_w-out_w)/2+((in_w-out_w)/2)*sin(t*10):(in_h-out_h)/2 +((in_h-out_h)/2)*sin(t*13)"

· Définir x en fonction de la valeur de y :

crop=in_w/2:in_h/2:y:10+10*sin(n/10)

Commandes

Ce filtre prend en charge les commandes suivantes :

w, out_w
h, out_h
x
y Définir la largeur/hauteur de la vidéo de sortie et la position horizontale/verticale dans l'entrée
vidéo. La commande accepte la même syntaxe que l'option correspondante.

Si l'expression spécifiée n'est pas valide, elle est conservée à sa valeur actuelle.

détection de recadrage
Détection automatique de la taille du recadrage.

Il calcule les paramètres de recadrage nécessaires et imprime les paramètres recommandés via
le système de journalisation. Les dimensions détectées correspondent à la zone non noire de l'entrée
Vidéo.

Il accepte les paramètres suivants :

limite
Définir un seuil de valeur de noir plus élevé, qui peut être spécifié en option à partir de rien (0)
à tout (255 pour les formats basés sur 8 bits). Une valeur d'intensité supérieure à l'ensemble
la valeur est considérée comme non noire. La valeur par défaut est 24. Vous pouvez également spécifier une valeur
entre 0.0 et 1.0 qui sera mis à l'échelle en fonction de la profondeur de bit du pixel
le format.

Round
La valeur par laquelle la largeur/hauteur doit être divisible. La valeur par défaut est 16. Le décalage
est automatiquement ajusté pour centrer la vidéo. Utilisez 2 pour obtenir uniquement des dimensions paires
(nécessaire pour la vidéo 4:2:2). 16 est le meilleur lors de l'encodage vers la plupart des codecs vidéo.

réinitialiser_compte, réinitialiser
Réglez le compteur qui détermine après combien de trames cropdetect réinitialisera le
la plus grande zone vidéo précédemment détectée et recommencer pour détecter l'optimum actuel
zone de culture. La valeur par défaut est 0.

Cela peut être utile lorsque les logos des chaînes déforment la zone vidéo. 0 indique 'jamais
reset', et renvoie la plus grande zone rencontrée pendant la lecture.

courbes
Appliquez des ajustements de couleur à l'aide de courbes.

Ce filtre est similaire aux outils de courbes Adobe Photoshop et GIMP. Chaque composant (rouge,
vert et bleu) a ses valeurs définies par N points clés liés les uns aux autres à l'aide d'un
courbe. L'axe des x représente les valeurs de pixel de l'image d'entrée, et l'axe des y la nouvelle
valeurs de pixels à définir pour la trame de sortie.

Par défaut, une courbe composante est définie par les deux points (0;0) ainsi que (1;1). Cela crée un
ligne droite où chaque valeur de pixel d'origine est "ajustée" à sa propre valeur, ce qui signifie
aucun changement à l'image.

Le filtre permet de redéfinir ces deux points et d'en ajouter d'autres. Une nouvelle courbe (à l'aide d'un
interpolation spline cubique naturelle) sera définie pour passer en douceur à travers tous ces nouveaux
coordonnées. Les nouveaux points définis doivent être strictement croissants sur l'axe des x, et
leur x ainsi que y les valeurs doivent être dans le [0;1] intervalle. Si les courbes calculées devaient aller
en dehors des espaces vectoriels, les valeurs seront tronquées en conséquence.

S'il n'y a pas de point clé défini dans "x=0", le filtre insérera automatiquement un (0;0)
point. De la même manière, s'il n'y a pas de point clé défini dans "x=1", le filtre
insérer automatiquement un (1;1) point.

Le filtre accepte les options suivantes :

préréglé
Sélectionnez l'un des préréglages de couleurs disponibles. Cette option peut être utilisée en complément de la
r, g, b paramètres; dans ce cas, les dernières options sont prioritaires sur le préréglage
valeurs. Les préréglages disponibles sont :

aucun
couleur_négative
processus croisés
plus foncé
augmenter le contraste
plus léger
contraste_linéaire
moyen_contraste
négatif
contraste_fort
esprit vintage

La valeur par défaut est "aucun".

maîtriser, m
Définissez les points clés principaux. Ces points définiront une cartographie de seconde passe. Il est
parfois appelé mappage de « luminance » ou de « valeur ». Il peut être utilisé avec r, g, b or TOUTE
car il agit comme une LUT de post-traitement.

rouge, r
Définissez les points clés pour le composant rouge.

(en vert) g
Définissez les points clés de la composante verte.

bleu, b
Définissez les points clés pour le composant bleu.

TOUTE Définissez les points clés pour tous les composants (hors master). Peut être utilisé en plus
aux autres options de composants de points clés. Dans ce cas, le ou les composants non réglés
repli sur ce TOUTE réglage.

fichier ps
Spécifiez un fichier de courbes Photoshop (".asv") à partir duquel importer les paramètres.

Pour éviter certains conflits de syntaxe de filtergraph, chaque liste de points clés doit être définie en utilisant
la syntaxe suivante : "x0/y0 x1/y1 x2/y2 ...".

Exemples

· Augmenter légèrement le niveau moyen de bleu :

courbes=bleu='0.5/0.58'

· Effet vintage :

curves=r='0/0.11 .42/.51 1/0.95':g='0.50/0.48':b='0/0.22 .49/.44 1/0.8'

On obtient ici les coordonnées suivantes pour chacun des composants :

rouge "(0;0.11) (0.42;0.51) (1;0.95)"

et une transition qui soit juste.
"(0;0) (0.50;0.48) (1;1)"

Bleu
"(0;0.22) (0.49;0.44) (1;0.80)"

· L'exemple précédent peut également être réalisé avec le préréglage intégré associé :

courbes=préréglage=vintage

· Ou simplement:

courbes=vintage

· Utilisez un préréglage Photoshop et redéfinissez les points du composant vert :

courbes=psfile='MyCurvesPresets/purple.asv':green='0.45/0.53'

dctdnoiz
Débruitez les trames à l'aide du DCT 2D (filtrage dans le domaine fréquentiel).

Ce filtre n'est pas conçu pour le temps réel.

Le filtre accepte les options suivantes :

sigma, s
Réglez la constante sigma du bruit.

Ce sigma définit un seuil strict de "3 * sigma" ; chaque coefficient DCT (absolu
valeur) en dessous de ce seuil sera abandonné.

Si vous avez besoin d'un filtrage plus avancé, consultez expr.

La valeur par défaut est 0.

chevauchement
Définissez le nombre de pixels qui se chevauchent pour chaque bloc. Étant donné que le filtre peut être lent, vous pouvez
vouloir réduire cette valeur, au prix d'un filtre moins efficace et au risque de
divers artefacts.

Si la valeur de chevauchement ne permet pas de traiter toute la largeur ou la hauteur d'entrée, un
un avertissement sera affiché et les bordures correspondantes ne seront pas débruitées.

La valeur par défaut est taille de bloc-1, qui est le meilleur réglage possible.

expression, e
Définissez l'expression du facteur de coefficient.

Pour chaque coefficient d'un bloc DCT, cette expression sera évaluée comme un multiplicateur
valeur du coefficient.

Si cette option est définie, le sigma l'option sera ignorée.

La valeur absolue du coefficient est accessible via le c variable.

n Met le taille de bloc en utilisant le nombre de bits. "1<n" définit le taille de bloc, qui est le
largeur et hauteur des blocs traités.

La valeur par défaut est 3 (8x8) et peut être élevé à 4 pour taille de bloc de 16x16. Noter
que la modification de ce paramètre a d'énormes conséquences sur la vitesse de traitement. Aussi un
une plus grande taille de bloc ne signifie pas nécessairement un meilleur débruitage.

Exemples

Appliquer un débruitage avec un sigma de 4.5:

dctdnoiz = 4.5

La même opération peut être réalisée en utilisant le système d'expression :

dctdnoiz=e='gte(c, 4.5*3)'

Débruitage violent en utilisant une taille de bloc de "16x16":

dctdnoiz=15:n=4

débander
Supprimez les artefacts de bande de la vidéo d'entrée. Cela fonctionne en remplaçant les pixels en bandes par
valeur moyenne des pixels référencés.

Le filtre accepte les options suivantes :

1e
2e
3e
4e
Définissez le seuil de détection des bandes pour chaque plan. La valeur par défaut est 0.02. La plage valide est
0.00003 à 0.5. Si la différence entre le pixel actuel et le pixel de référence est inférieure à
seuil, il sera considéré comme bagué.

gamme, r
Plage de détection de bandes en pixels. La valeur par défaut est 16. Si positif, nombre aléatoire dans la plage
0 pour définir la valeur sera utilisé. Si elle est négative, la valeur absolue exacte sera utilisée. Les
range définit un carré de quatre pixels autour du pixel courant.

direction, d
Définir la direction en radians à partir de laquelle quatre pixels seront comparés. Si positif, aléatoire
la direction de 0 à la direction définie sera sélectionnée. Si négatif, exact de la valeur absolue
sera choisi. Par exemple, la direction 0, -PI ou -2*PI radians ne sélectionnera que les pixels sur
même ligne et -PI/2 ne sélectionnera que les pixels de la même colonne.

tache
Si activé, le pixel actuel est comparé à la valeur moyenne des quatre
pixels. La valeur par défaut est activée. Si désactivé, le pixel actuel est comparé aux quatre
pixels environnants. Le pixel est considéré en bandes si seulement les quatre différences avec
les pixels environnants sont inférieurs au seuil.

décimer
Supprimez les images dupliquées à intervalles réguliers.

Le filtre accepte les options suivantes :

cycle
Définissez le nombre d'images dont une sera supprimée. Régler ceci sur N signifie un
cadre dans chaque lot de N les images seront supprimées. La valeur par défaut est 5.

dupliquer
Définissez le seuil de détection des doublons. Si la métrique de différence pour une trame est
inférieur ou égal à cette valeur, il est alors déclaré comme doublon. La valeur par défaut est 1.1

schrresh
Définir le seuil de changement de scène. La valeur par défaut est 15.

blocx
polyédrique
Définissez la taille des blocs des axes x et y utilisés lors des calculs métriques. Plus grand
les blocs donnent une meilleure suppression du bruit, mais aussi une plus mauvaise détection des petits
mouvements. Doit être une puissance de deux. La valeur par défaut est 32.

ppsrc
Marquez l'entrée principale comme entrée prétraitée et activez le flux d'entrée source propre. Cette
permet à l'entrée d'être prétraitée avec divers filtres pour aider les métriques
calcul tout en gardant la sélection de trame sans perte. Lorsqu'il est réglé sur 1, le premier
flux est pour l'entrée pré-traitée, et le deuxième flux est la source propre de
où les cadres conservés sont choisis. La valeur par défaut est 0.

chroma
Définissez si la chrominance est prise en compte ou non dans les calculs métriques. La valeur par défaut est 1.

dégonfler
Appliquez un effet de dégonflage à la vidéo.

Ce filtre remplace le pixel par le locales(3x3) moyenne en ne prenant en compte que
valeurs inférieures au pixel.

Il accepte les options suivantes :

seuil0
seuil1
seuil2
seuil3
Limitez le changement maximum pour chaque avion, la valeur par défaut est 65535. Si 0, l'avion restera
inchangé.

dejudeur
Supprimez les saccades produites par le contenu téléciné partiellement entrelacé.

Le saccade peut être introduit, par exemple, par remonter filtre. Si la source d'origine était
contenu partiellement téléciné alors la sortie de "pullup,dejudder" aura une variable
fréquence d'images. Peut modifier la fréquence d'images enregistrée du conteneur. A part ce changement,
ce filtre n'affectera pas la vidéo à fréquence d'images constante.

L'option disponible dans ce filtre est :

cycle
Spécifiez la longueur de la fenêtre sur laquelle le saccade se répète.

Accepte tout entier supérieur à 1. Les valeurs utiles sont :

4 Si l'original a été téléciné de 24 à 30 fps (Film en NTSC).

5 Si l'original a été téléciné de 25 à 30 fps (PAL vers NTSC).

20 Si un mélange des deux.

La valeur par défaut est 4.

délogo
Supprimer un logo de chaîne de télévision par une simple interpolation des pixels environnants. Il suffit de définir un
rectangle recouvrant le logo et le regarder disparaître (et parfois quelque chose d'encore plus laid
apparaissent - votre kilométrage peut varier).

Il accepte les paramètres suivants :

x
y Spécifiez les coordonnées du coin supérieur gauche du logo. Ils doivent être spécifiés.

w
h Spécifiez la largeur et la hauteur du logo à effacer. Ils doivent être spécifiés.

B: et, t
Spécifiez l'épaisseur du bord flou du rectangle (ajouté à w ainsi que h). La
la valeur par défaut est 4.

montrer
Lorsqu'il est défini sur 1, un rectangle vert est dessiné sur l'écran pour simplifier la recherche du bon
x, y, wet h paramètres. La valeur par défaut est 0.

Le rectangle est dessiné sur les pixels les plus à l'extérieur qui seront (en partie) remplacés par
valeurs interpolées. Les valeurs des pixels suivants immédiatement à l'extérieur de ce rectangle
dans chaque direction sera utilisé pour calculer les valeurs de pixels interpolées à l'intérieur du
rectangle.

Exemples

· Définir un rectangle couvrant la zone avec les coordonnées du coin supérieur gauche 0,0 et la taille
100x77, et une bande de taille 10 :

delogo=x=0:y=0:w=100:h=77:band=10

secouer
Essayez de corriger les petits changements de décalage horizontal et/ou vertical. Ce filtre permet de supprimer
tremblement de l'appareil photo en tenant un appareil photo à la main, en heurtant un trépied, en se déplaçant sur un véhicule, etc.

Le filtre accepte les options suivantes :

x
y
w
h Spécifiez une zone rectangulaire où limiter la recherche de vecteurs de mouvement. Si on le désire
la recherche de vecteurs de mouvement peut être limitée à une zone rectangulaire du cadre
défini par son coin supérieur gauche, sa largeur et sa hauteur. Ces paramètres ont le même
ce qui signifie que le filtre drawbox qui peut être utilisé pour visualiser la position de la
cadre de délimitation.

Ceci est utile lorsque le mouvement simultané de sujets dans le cadre peut être
confondu avec le mouvement de la caméra par la recherche de vecteur de mouvement.

Si tout ou partie de x, y, w ainsi que h sont réglés sur -1, alors la pleine image est utilisée. Ceci permet
options ultérieures à définir sans spécifier la boîte englobante pour le vecteur de mouvement
chercher.

Par défaut - recherchez l'ensemble du cadre.

rx
ry Spécifiez l'étendue maximale du mouvement dans les directions x et y dans la plage 0-64 pixels.
Par défaut 16.

bord
Spécifiez comment générer des pixels pour remplir les blancs au bord du cadre. Disponible
les valeurs sont:

Vide, 0
Remplir des zéros aux emplacements vides

original, 1
Image originale à des emplacements vierges

serrer, 2
Valeur d'arête extrudée aux emplacements vides

miroir, 3
Bord en miroir aux emplacements vides

La valeur par défaut est miroir.

taille de bloc
Spécifiez la taille de bloc à utiliser pour la recherche de mouvement. Plage 4-128 pixels, valeur par défaut 8.

contraste
Spécifiez le seuil de contraste pour les blocs. Seuls les blocs avec plus que le spécifié
le contraste (différence entre les pixels les plus sombres et les plus clairs) sera pris en compte. Varier
1-255, par défaut 125.

recherche
Spécifiez la stratégie de recherche. Les valeurs disponibles sont :

complet, 0
Définir une recherche exhaustive

Moins, 1
Définir une recherche moins exhaustive.

La valeur par défaut est complet.

nom de fichier
S'il est défini, un journal détaillé de la recherche de mouvement est écrit dans le fichier spécifié.

OpenCL
Si défini sur 1, spécifiez en utilisant les capacités OpenCL, uniquement disponible si FFmpeg était
configuré avec "--enable-opencl". La valeur par défaut est 0.

détélécine
Appliquer un inverse exact de l'opération de télécinéma. Il nécessite un modèle prédéfini
spécifié à l'aide de l'option pattern qui doit être la même que celle transmise au télécinéma
filtre.

Ce filtre accepte les options suivantes :

premier_champ
sommet, t
champ supérieur en premier

bas, b
bottom field first La valeur par défaut est "top".

modèle
Une chaîne de chiffres représentant le modèle de pulldown que vous souhaitez appliquer. Le défaut
la valeur est 23.

start_frame
Un nombre représentant la position de la première image par rapport au télécinéma
modèle. Ceci doit être utilisé si le flux est coupé. La valeur par défaut est 0.

dilatation
Appliquez un effet de dilatation à la vidéo.

Ce filtre remplace le pixel par le locales(3x3) maximum.

Il accepte les options suivantes :

seuil0
seuil1
seuil2
seuil3
Limitez le changement maximum pour chaque avion, la valeur par défaut est 65535. Si 0, l'avion restera
inchangé.

les coordonnées
Drapeau qui spécifie le pixel auquel se référer. La valeur par défaut est 255, c'est-à-dire que les huit pixels sont
utilisé.

Les drapeaux vers les cartes de coordonnées locales 3x3 comme ceci :

+1 (2)3
+4 (5)XNUMX XNUMX
+6 (7)8

tiroir
Dessinez une boîte colorée sur l'image d'entrée.

Il accepte les paramètres suivants :

x
y Les expressions qui spécifient les coordonnées du coin supérieur gauche de la boîte. C'est par défaut
à 0.

largeur, w
la taille, h
Les expressions qui spécifient la largeur et la hauteur de la boîte ; si 0 ils sont
interprété comme la largeur et la hauteur d'entrée. La valeur par défaut est 0.

couleur, c
Précisez la couleur de la case à écrire. Pour la syntaxe générale de cette option, cochez
la section "Couleur" dans le manuel ffmpeg-utils. Si la valeur spéciale "invert" est utilisée,
la couleur du bord de la boîte est la même que celle de la vidéo avec luma inversé.

épaisseur, t
L'expression qui définit l'épaisseur du bord de la boîte. La valeur par défaut est 3.

Voir ci-dessous pour la liste des constantes acceptées.

Les paramètres pour x, y, w ainsi que h ainsi que t sont des expressions contenant les constantes suivantes :

donner Le rapport d'aspect d'affichage d'entrée, c'est le même que (w / h) * sar.

hsub
vssub
valeurs de sous-échantillon de chrominance horizontale et verticale. Par exemple pour le format pixel
"yuv422p" hsub est 2 et vssub est 1.

in_h, ih
en W, iw
La largeur et la hauteur d'entrée.

sar Le rapport hauteur/largeur de l'échantillon d'entrée.

x
y Les coordonnées de décalage x et y où la boîte est dessinée.

w
h La largeur et la hauteur de la boîte dessinée.

t L'épaisseur de la boîte dessinée.

Ces constantes permettent x, y, w, h ainsi que t expressions pour se référer les unes aux autres, donc vous
peut par exemple spécifier "y=x/dar" ou "h=w/dar".

Exemples

· Dessinez une boîte noire autour du bord de l'image d'entrée :

tiroir

· Dessinez une boîte de couleur rouge et d'une opacité de 50 % :

boîte de tirage=10:20:200:60 :[email protected]

L'exemple précédent peut être spécifié comme :

drawbox=x=10:y=20:w=200:h=60:color=[email protected]

· Remplissez la case de couleur rose :

drawbox=x=10:y=10:w=100:h=100:color=[email protected]:t=maximum

· Dessinez un masque rouge 2:2.40 de 1 pixels :

drawbox=x=-t:y=0.5*(ih-iw/2.4)-t:w=iw+t*2:h=iw/2.4+t*2:t=2:c=red

graphique, graphique
Dessinez un graphique à l'aide des métadonnées vidéo ou audio d'entrée.

Il accepte les paramètres suivants :

m1 Définissez la clé de métadonnées de la première image à partir de laquelle les valeurs de métadonnées seront utilisées pour dessiner un graphique.

fg1 Définir la 1ère expression de couleur de premier plan.

m2 Définissez la clé de métadonnées de la 2e image à partir de laquelle les valeurs de métadonnées seront utilisées pour dessiner un graphique.

fg2 Définir la 2ème expression de couleur de premier plan.

m3 Définissez la clé de métadonnées de la 3e image à partir de laquelle les valeurs de métadonnées seront utilisées pour dessiner un graphique.

fg3 Définir la 3ème expression de couleur de premier plan.

m4 Définissez la clé de métadonnées de la 4e image à partir de laquelle les valeurs de métadonnées seront utilisées pour dessiner un graphique.

fg4 Définir la 4ème expression de couleur de premier plan.

m. Définir la valeur minimale de la valeur des métadonnées.

max Définir la valeur maximale de la valeur des métadonnées.

bg Définir la couleur d'arrière-plan du graphique. La valeur par défaut est le blanc.

mode
Définir le mode graphique.

Les valeurs disponibles pour le mode sont :

barre
point
en ligne

La valeur par défaut est "ligne".

diapositive
Réglez le mode diapositive.

Les valeurs disponibles pour la diapositive sont :

cadre
Dessinez un nouveau cadre lorsque la bordure droite est atteinte.

remplacer
Remplacez les anciennes colonnes par des nouvelles.

volute
Faites défiler de droite à gauche.

faire défiler
Faites défiler de gauche à droite.

La valeur par défaut est "cadre".

taille
Définir la taille de la vidéo graphique. Pour la syntaxe de cette option, cochez la case "Vidéo Taille"
in le ffmpeg-utils Manuel. La valeur par défaut est "900x256".

Les expressions de couleur de premier plan peuvent utiliser les variables suivantes :

MIN Valeur minimale de la valeur des métadonnées.

MAX Valeur maximale de la valeur des métadonnées.

VAL Valeur actuelle de la clé de métadonnées.

La couleur est définie comme 0xAABBGGRR.

Exemple utilisant les métadonnées de statistiques de signal filtre:

signalstats, drawgraph=lavfi.signalstats.YAVG:min=0:max=255

Exemple utilisant les métadonnées de ebur128 filtre:

ebur128=metadata=1,adrawgraph=lavfi.r128.M:min=-120:max=5

grille
Tracez une grille sur l'image d'entrée.

Il accepte les paramètres suivants :

x
y Les expressions qui spécifient les coordonnées d'un point d'intersection de la grille
(destiné à configurer le décalage). Les deux sont par défaut à 0.

largeur, w
la taille, h
Les expressions qui spécifient la largeur et la hauteur de la cellule de la grille, si 0 elles sont
interprété comme la largeur et la hauteur d'entrée, respectivement, moins "l'épaisseur", donc l'image
est encadré. La valeur par défaut est 0.

couleur, c
Spécifiez la couleur de la grille. Pour la syntaxe générale de cette option, cochez la case
Section "Couleur" dans le manuel ffmpeg-utils. Si la valeur spéciale "invert" est utilisée, le
la couleur de la grille est la même que la vidéo avec luma inversé.

épaisseur, t
L'expression qui définit l'épaisseur de la ligne de grille. La valeur par défaut est 1.

Voir ci-dessous pour la liste des constantes acceptées.

Les paramètres pour x, y, w ainsi que h ainsi que t sont des expressions contenant les constantes suivantes :

donner Le rapport d'aspect d'affichage d'entrée, c'est le même que (w / h) * sar.

hsub
vssub
valeurs de sous-échantillon de chrominance horizontale et verticale. Par exemple pour le format pixel
"yuv422p" hsub est 2 et vssub est 1.

in_h, ih
en W, iw
La largeur et la hauteur de la cellule de la grille d'entrée.

sar Le rapport hauteur/largeur de l'échantillon d'entrée.

x
y Les coordonnées x et y d'un point d'intersection de la grille (destiné à configurer
décalage).

w
h La largeur et la hauteur de la cellule dessinée.

t L'épaisseur de la cellule dessinée.

Ces constantes permettent x, y, w, h ainsi que t expressions pour se référer les unes aux autres, donc vous
peut par exemple spécifier "y=x/dar" ou "h=w/dar".

Exemples

· Dessinez une grille avec cellule 100x100 pixels, épaisseur 2 pixels, avec couleur rouge et un
opacité de 50% :

drawgrid=largeur=100:hauteur=100:épaisseur=2:couleur=[email protected]

· Dessinez une grille 3x3 blanche avec une opacité de 50% :

grille de dessin=w=iw/3:h=ih/3:t=2:c=[email protected]

dessiner le texte
Dessinez une chaîne de texte ou du texte à partir d'un fichier spécifié au-dessus d'une vidéo, en utilisant le libfreetype
bibliothèque.

Pour activer la compilation de ce filtre, vous devez configurer FFmpeg avec
"--enable-libfreetype". Pour activer la police de secours par défaut et le fonte option dont vous avez besoin
configurez FFmpeg avec "--enable-libfontconfig". Pour activer le text_shaping option, vous
besoin de configurer FFmpeg avec "--enable-libfribidi".

Syntaxe

Il accepte les paramètres suivants :

boîte Utilisé pour dessiner un cadre autour du texte en utilisant la couleur d'arrière-plan. La valeur doit être soit 1
(activer) ou 0 (désactiver). La valeur par défaut de boîte est 0.

bordure de boîte
Définissez la largeur de la bordure à dessiner autour de la boîte à l'aide de couleur de la boîte. Le défaut
valeur de bordure de boîte est 0.

couleur de la boîte
La couleur à utiliser pour dessiner la zone autour du texte. Pour la syntaxe de cette option, cochez
la section "Couleur" dans le manuel ffmpeg-utils.

La valeur par défaut de couleur de la boîte est blanc".

frontière
Définissez la largeur de la bordure à dessiner autour du texte à l'aide de couleur de la bordureL’
valeur par défaut de frontière est 0.

couleur de la bordure
Définissez la couleur à utiliser pour dessiner la bordure autour du texte. Pour la syntaxe de ce
option, vérifiez la section "Couleur" dans le manuel ffmpeg-utils.

La valeur par défaut de couleur de la bordure est noir".

avec des données
Sélectionnez comment le texte est élargi. Peut être "none", "strftime" (obsolète) ou
"normal" (par défaut). Voir le drawtext_expansion, Texte avec des données section ci-dessous pour
détails.

fix_bounds
Si vrai, vérifiez et corrigez les coordonnées du texte pour éviter l'écrêtage.

couleur de la police
La couleur à utiliser pour dessiner les polices. Pour la syntaxe de cette option, cochez la case
Section "Couleur" dans le manuel ffmpeg-utils.

La valeur par défaut de couleur de la police est noir".

fontcolor_expr
Chaîne qui est développée de la même manière que texte obtenir une dynamique couleur de la police valeur. Par
par défaut, cette option a une valeur vide et n'est pas traitée. Lorsque cette option est définie, il
remplacements couleur de la police option.

fonte
La famille de polices à utiliser pour dessiner du texte. Par défaut Sans.

fichier de polices
Le fichier de police à utiliser pour dessiner du texte. Le chemin doit être inclus. Ce paramètre
est obligatoire si la prise en charge de fontconfig est désactivée.

dessiner
Cette option n'existe pas, veuillez consulter le système de chronologie

Alpha
Dessinez le texte en appliquant la fusion alpha. La valeur peut être soit un nombre compris entre 0.0
et 1.0 L'expression accepte les mêmes variables x, y faire. La valeur par défaut est 1.
S'il vous plaît voir fontcolor_expr

taille de police
La taille de police à utiliser pour dessiner du texte. La valeur par défaut de taille de police est 16.

text_shaping
S'il est défini sur 1, essayez de façonner le texte (par exemple, inversez l'ordre
texte à gauche et joindre des caractères arabes) avant de le dessiner. Sinon, dessinez simplement le
texte exactement comme indiqué. Par défaut 1 (si pris en charge).

ft_load_flags
Les drapeaux à utiliser pour charger les polices.

Les drapeaux mappent les drapeaux correspondants pris en charge par libfreetype et sont une combinaison
des valeurs suivantes:

défaut
no_scale
no_hiting
rendement
no_bitmap
disposition_verticale
force_autohint
crop_bitmap
pédant
ignore_global_advance_width
no_recurse
ignorer_transformer
monochrome
conception_linéaire
no_autohint

La valeur par défaut est "par défaut".

Pour plus d'informations, consultez la documentation des indicateurs de libfreetype FT_LOAD_*.

couleur de l'ombre
La couleur à utiliser pour dessiner une ombre derrière le texte dessiné. Pour la syntaxe de
cette option, vérifiez la section "Couleur" dans le manuel ffmpeg-utils.

La valeur par défaut de couleur de l'ombre est noir".

ombrex
ténébreux
Les décalages x et y pour la position de l'ombre du texte par rapport à la position du
texte. Il peut s'agir de valeurs positives ou négatives. La valeur par défaut pour les deux est
"0".

numéro_début
Le numéro de trame de départ pour la variable n/frame_num. La valeur par défaut est « 0 ».

taille de tabulation
La taille en nombre d'espaces à utiliser pour le rendu de l'onglet. La valeur par défaut est 4.

timecode
Définissez la représentation initiale du code temporel au format "hh:mm:ss[:;.]ff". Ça peut être utilisé
avec ou sans paramètre de texte. taux_timecode l'option doit être spécifiée.

taux_timecode, taux, r
Réglez la fréquence d'images du code temporel (code temporel uniquement).

texte
La chaîne de texte à dessiner. Le texte doit être une séquence de caractères codés en UTF-8.
Ce paramètre est obligatoire si aucun fichier n'est spécifié avec le paramètre fichier texte.

fichier texte
Un fichier texte contenant du texte à dessiner. Le texte doit être une séquence de code UTF-8
caractères.

Ce paramètre est obligatoire si aucune chaîne de texte n'est spécifiée avec le paramètre texte.

Si les deux texte ainsi que fichier texte sont spécifiés, une erreur est renvoyée.

Recharger
S'il est défini sur 1, le fichier texte sera rechargé avant chaque trame. Assurez-vous de le mettre à jour
atomiquement, ou il peut être lu partiellement, ou même échouer.

x
y Les expressions qui spécifient les décalages où le texte sera dessiné dans la vidéo
Cadre. Ils sont relatifs à la bordure supérieure/gauche de l'image de sortie.

La valeur par défaut de x ainsi que y est "0".

Voir ci-dessous pour la liste des constantes et fonctions acceptées.

Les paramètres pour x ainsi que y sont des expressions contenant les constantes suivantes et
les fonctions:

donner rapport d'aspect d'affichage d'entrée, c'est le même que (w / h) * sar

hsub
vssub
valeurs de sous-échantillon de chrominance horizontale et verticale. Par exemple pour le format pixel
"yuv422p" hsub est 2 et vssub est 1.

ligne_h, lh
la hauteur de chaque ligne de texte

main_h, h, H
la hauteur d'entrée

main_w, w, W
la largeur d'entrée

max_glyph_a, ascension
la distance maximale entre la ligne de base et la coordonnée de grille la plus élevée/supérieure utilisée pour
placez un point de contour de glyphe, pour tous les glyphes rendus. C'est une valeur positive, due
à l'orientation de la grille avec l'axe Y vers le haut.

max_glyph_d, descente
la distance maximale entre la ligne de base et la coordonnée de grille la plus basse utilisée pour placer un
point de contour du glyphe, pour tous les glyphes rendus. Il s'agit d'une valeur négative, en raison de
l'orientation de la grille, avec l'axe Y vers le haut.

max_glyphe_h
hauteur maximale des glyphes, c'est-à-dire la hauteur maximale de tous les glyphes contenus dans le
texte rendu, il équivaut à ascension - descente.

max_glyphe_w
largeur maximale des glyphes, c'est-à-dire la largeur maximale de tous les glyphes contenus dans le
texte rendu

n le nombre de trame d'entrée, à partir de 0

rands(min, max)
renvoie un nombre aléatoire compris entre m. ainsi que max

sar Le rapport hauteur/largeur de l'échantillon d'entrée.

t horodatage exprimé en secondes, NAN si l'horodatage d'entrée est inconnu

texte_h, th
la hauteur du texte rendu

texte_w, tw
la largeur du texte rendu

x
y les coordonnées de décalage x et y où le texte est dessiné.

Ces paramètres permettent au x ainsi que y expressions pour se référer les unes aux autres, vous pouvez donc pour
exemple, spécifiez "y=x/dar".

Texte avec des données

If avec des données est réglé sur "strftime", le filtre reconnaît strftime() séquences dans le
texte fourni et les développe en conséquence. Consultez la documentation de strftime(). Ce
la fonctionnalité est obsolète.

If avec des données est défini sur "aucun", le texte est imprimé textuellement.

If avec des données est défini sur "normal" (ce qui est la valeur par défaut), le mécanisme d'expansion suivant
est utilisé.

Le caractère barre oblique inverse \, suivi de n'importe quel caractère, s'étend toujours à la seconde
caractère.

Les séquences de la forme "%{...}" sont développées. Le texte entre les accolades est une fonction
nom, éventuellement suivi d'arguments séparés par ':'. Si les arguments contiennent des
caractères ou délimiteurs (':' ou '}'), ils doivent être échappés.

Notez qu'ils doivent probablement aussi être échappés en tant que valeur pour le texte option dans la
chaîne d'argument de filtre et comme argument de filtre dans la description de filtergraph, et
éventuellement aussi pour la coque, cela fait jusqu'à quatre niveaux d'évasion ; à l'aide d'un fichier texte
évite ces problèmes.

Les fonctions suivantes sont disponibles :

expression, e
Le résultat de l'évaluation de l'expression.

Il doit prendre un argument spécifiant l'expression à évaluer, qui accepte le
mêmes constantes et fonctions que le x ainsi que y valeurs. Notez que toutes les constantes ne doivent pas
être utilisé, par exemple la taille du texte n'est pas connue lors de l'évaluation de l'expression, donc le
des constantes texte_w ainsi que texte_h aura une valeur indéfinie.

expr_int_format, fei
Évaluez la valeur de l'expression et la sortie sous forme d'entier formaté.

Le premier argument est l'expression à évaluer, tout comme pour le expr la fonction.
Le deuxième argument spécifie le format de sortie. Les valeurs autorisées sont x, X, d ainsi que u.
Ils sont traités exactement comme dans la fonction "printf". Le troisième paramètre est facultatif
et définit le nombre de positions prises par la sortie. Il peut être utilisé pour ajouter un rembourrage
avec des zéros à partir de la gauche.

heure de gm
L'heure à laquelle le filtre s'exécute, exprimée en UTC. Il peut accepter un argument :
a strftime() chaîne de formatage.

heure locale
L'heure à laquelle le filtre s'exécute, exprimée dans le fuseau horaire local. Ça peut
accepter un argument : un strftime() chaîne de formatage.

métadonnées
Métadonnées du cadre. Il doit prendre un argument spécifiant la clé de métadonnées.

n, num_cadre
Le numéro de trame, à partir de 0.

pict_type
Une description à 1 caractère du type d'image actuel.

pts L'horodatage de l'image actuelle. Cela peut prendre jusqu'à deux arguments.

Le premier argument est le format de l'horodatage ; il est par défaut "flt" pendant quelques secondes car
un nombre décimal avec une précision de la microseconde ; "hms" signifie formaté
[-]HH:MM:SS.mmm horodatage avec une précision de la milliseconde.

Le deuxième argument est un décalage ajouté à l'horodatage.

Exemples

· Dessinez "Test Text" avec la police FreeSerif, en utilisant les valeurs par défaut pour l'option
paramètres.

drawtext="fontfile=/usr/share/fonts/truetype/freefont/FreeSerif.ttf: text='Test Text'"

· Dessinez 'Test Text' avec la police FreeSerif de taille 24 à la position x=100 et y=50 (en comptant
dans le coin supérieur gauche de l'écran), le texte est jaune entouré d'un cadre rouge. Les deux
le texte et le cadre ont une opacité de 20%.

drawtext="fontfile=/usr/share/fonts/truetype/freefont/FreeSerif.ttf: text='Test Text':\
x=100 : y=50 : fontsize=24 : fontcolor=[email protected]: case=1: casecolor=[email protected]"

Notez que les guillemets doubles ne sont pas nécessaires si les espaces ne sont pas utilisés dans le
liste de paramètres.

· Afficher le texte au centre de l'image vidéo :

drawtext="fontsize=30:fontfile=FreeSerif.ttf:text='hello world':x=(w-text_w)/2:y=(h-text_h)/2"

· Afficher une ligne de texte glissant de droite à gauche dans la dernière rangée de l'image vidéo. le
filet LONGUE LIGNE est supposé contenir une seule ligne sans retour à la ligne.

drawtext="fontsize=15:fontfile=FreeSerif.ttf:text=LONG_LINE:y=h-line_h:x=-50*t"

· Afficher le contenu du fichier CRÉDITS en bas du cadre et faites défiler vers le haut.

drawtext="fontsize=20:fontfile=FreeSerif.ttf:textfile=CREDITS:y=h-20*t"

· Dessinez une seule lettre verte "g", au centre de la vidéo d'entrée. La ligne de base du glyphe
est placé à mi-hauteur de l'écran.

drawtext="fontsize=60:fontfile=FreeSerif.ttf:fontcolor=green:text=g:x=(w-max_glyph_w)/2:y=h/2-ascent"

· Afficher le texte pendant 1 seconde toutes les 3 secondes :

drawtext="fontfile=FreeSerif.ttf:fontcolor=white:x=100:y=x/dar:enable=lt(mod(t\,3)\,1):text='blink'"

· Utilisez fontconfig pour définir la police. Notez que les deux points doivent être échappés.

drawtext='fontfile=Linux Libertine O-40\:style=Semibold:text=FFmpeg'

· Imprimer la date d'un encodage en temps réel (voir strftime(sept)):

drawtext='fontfile=FreeSans.ttf:text=%{localtime\:%a %b %d %Y}'

· Afficher le texte en fondu entrant et sortant (apparaît/disparaît) :

#!/ Bin / sh
DS=1.0 # début d'affichage
DE=10.0 # fin d'affichage
FID=1.5 # durée de fondu enchaîné
FOD=5 # durée de fondu
ffplay -f lavfi "color,drawtext=text=TEST:fontsize=50:fontfile=FreeSerif.ttf:fontcolor_expr=ff0000%{eif\\\\: clip(255*(1*between(t\\, $DS + $FID\\, $DE - $FOD) + ((t - $DS)/$FID)*entre(t\\, $DS\\, $DS + $FID) + (-(t - $DE) /$FOD)*entre(t\\, $DE - $FOD\\, $DE) )\\, 0\\, 255) \\\\: x\\\\: 2 }"

Pour plus d'informations sur libfreetype, consultez :http://www.freetype.org/>.

Pour plus d'informations sur fontconfig, vérifiez :
<http://freedesktop.org/software/fontconfig/fontconfig-user.html>.

Pour plus d'informations sur libfribidi, consultez :http://fribidi.org/>.

détecter bord
Détectez et dessinez les bords. Le filtre utilise l'algorithme Canny Edge Detection.

Le filtre accepte les options suivantes :

faible
Élevée
Définissez les valeurs de seuil bas et haut utilisées par l'algorithme de seuillage de Canny.

Le seuil haut sélectionne les pixels de bord « forts », qui sont ensuite connectés via
8-connectivité avec les pixels de bord "faibles" sélectionnés par le seuil bas.

faible ainsi que Élevée les valeurs de seuil doivent être choisies dans la plage [0,1], et faible devrait être
inférieur ou égal à Élevée.

Valeur par défaut pour faible est "20/255", et la valeur par défaut pour Élevée est "50/255".

mode
Définissez le mode de dessin.

fils
Dessinez des fils blancs/gris sur fond noir.

mélange de couleurs
Mélangez les couleurs pour créer un effet peinture/bande dessinée.

La valeur par défaut est fils.

Exemples

· Détection de front standard avec valeurs personnalisées pour le seuillage d'hystérésis :

edgedetect=bas=0.1:haut=0.4

· Effet peinture sans seuillage :

edgedetect=mode=colormix:high=0

eq
Réglez la luminosité, le contraste, la saturation et le réglage approximatif du gamma.

Le filtre accepte les options suivantes :

contraste
Définissez l'expression de contraste. La valeur doit être une valeur flottante comprise entre "-2.0" et 2.0.
La valeur par défaut est "0".

luminosité
Définissez l'expression de la luminosité. La valeur doit être une valeur flottante comprise entre "-1.0" et 1.0.
La valeur par défaut est "0".

saturation
Définissez l'expression de saturation. La valeur doit être un flottant compris entre 0.0 et 3.0. le
la valeur par défaut est "1".

gamma
Définissez l'expression gamma. La valeur doit être un flottant dans la plage 0.1 à 10.0. Le défaut
la valeur est "1".

gamma_r
Définissez l'expression gamma pour le rouge. La valeur doit être un flottant dans la plage 0.1 à 10.0. le
la valeur par défaut est "1".

gamma_g
Définissez l'expression gamma pour le vert. La valeur doit être un flottant dans la plage 0.1 à 10.0.
La valeur par défaut est "1".

gamma_b
Définissez l'expression gamma pour le bleu. La valeur doit être un flottant dans la plage 0.1 à 10.0. le
la valeur par défaut est "1".

poids_gamma
Définissez l'expression du poids gamma. Il peut être utilisé pour réduire l'effet d'un gamma élevé
valeur sur les zones d'image lumineuses, par exemple les empêcher de devenir suramplifiées et tout simplement
blanc. La valeur doit être un flottant compris entre 0.0 et 1.0. Une valeur de 0.0 transforme le gamma
correction tout en bas tandis que 1.0 le laisse à sa pleine puissance. La valeur par défaut est "1".

eval
Définir quand les expressions pour la luminosité, le contraste, la saturation et les expressions gamma
sont évalués.

Il accepte les valeurs suivantes :

init
n'évalue les expressions qu'une seule fois lors de l'initialisation du filtre ou lorsqu'une commande
est traité

cadre
évaluer les expressions pour chaque trame entrante

La valeur par défaut est init.

Les expressions acceptent les paramètres suivants :

n nombre de trames de la trame d'entrée à partir de 0

poster position d'octet du paquet correspondant dans le fichier d'entrée, NAN si non spécifié

r fréquence d'images de la vidéo d'entrée, NAN si la fréquence d'images d'entrée est inconnue

t horodatage exprimé en secondes, NAN si l'horodatage d'entrée est inconnu

Commandes

Le filtre prend en charge les commandes suivantes :

contraste
Définissez l'expression de contraste.

luminosité
Définissez l'expression de la luminosité.

saturation
Définissez l'expression de saturation.

gamma
Définissez l'expression gamma.

gamma_r
Définissez l'expression gamma_r.

gamma_g
Définir l'expression gamma_g.

gamma_b
Définir l'expression gamma_b.

poids_gamma
Définir l'expression gamma_weight.

La commande accepte la même syntaxe que l'option correspondante.

Si l'expression spécifiée n'est pas valide, elle est conservée à sa valeur actuelle.

l'érosion
Appliquez un effet d'érosion à la vidéo.

Ce filtre remplace le pixel par le locales(3x3) minimum.

Il accepte les options suivantes :

seuil0
seuil1
seuil2
seuil3
Limitez le changement maximum pour chaque avion, la valeur par défaut est 65535. Si 0, l'avion restera
inchangé.

les coordonnées
Drapeau qui spécifie le pixel auquel se référer. La valeur par défaut est 255, c'est-à-dire que les huit pixels sont
utilisé.

Les drapeaux vers les cartes de coordonnées locales 3x3 comme ceci :

+1 (2)3
+4 (5)XNUMX XNUMX
+6 (7)8

plans d'extraction
Extraire les composants du canal de couleur du flux vidéo d'entrée dans une vidéo distincte en niveaux de gris
ruisseaux.

Le filtre accepte l'option suivante :

avions
Définir le(s) plan(s) à extraire.

Les valeurs disponibles pour les avions sont :

y
u
v
a
r
g
b

Le choix de plans non disponibles dans l'entrée entraînera une erreur. Cela signifie que vous
ne peut pas sélectionner les plans "r", "g", "b" avec les plans "y", "u", "v" en même temps.

Exemples

· Extraire le composant de canal de couleur luma, u et v de l'image vidéo d'entrée en 3 niveaux de gris
les sorties:

ffmpeg -i video.avi -filter_complex 'extractplanes=y+u+v[y][u][v]' -map '[y]' y.avi -map '[u]' u.avi -map '[ v]' v.avi

elbg
Appliquez un effet postérisé à l'aide de l'algorithme ELBG (Enhanced LBG).

Pour chaque image d'entrée, le filtre calculera le mappage optimal de l'entrée à la
sortie étant donné la longueur du livre de codes, c'est-à-dire le nombre de couleurs de sortie distinctes.

Ce filtre accepte les options suivantes.

longueur_codebook, l
Définir la longueur du livre de codes. La valeur doit être un entier positif et représente le nombre
de couleurs de sortie distinctes. La valeur par défaut est 256.

nb_pas, n
Définissez le nombre maximal d'itérations à appliquer pour calculer le mappage optimal. le
plus la valeur est élevée, meilleur est le résultat et plus le temps de calcul est élevé. Défaut
la valeur est 1.

la graine, s
Définir une valeur de départ aléatoire, doit être un entier compris entre 0 et UINT32_MAX. Si non
spécifié, ou s'il est explicitement défini sur -1, le filtre essaiera d'utiliser une bonne graine aléatoire
sur la base du meilleur effort.

pal8
Définir le format de pixel de sortie pal8. Cette option ne fonctionne pas avec une longueur de livre de codes supérieure
que 256.

fondu
Appliquez un effet de fondu d'entrée/sortie à la vidéo d'entrée.

Il accepte les paramètres suivants :

Type, t
Le type d'effet peut être soit "in" pour un fondu d'entrée, soit "out" pour un effet de fondu de sortie.
La valeur par défaut est "dans".

start_frame, s
Spécifiez le numéro de l'image pour commencer à appliquer l'effet de fondu. La valeur par défaut est 0.

nb_frames, n
Le nombre d'images que dure l'effet de fondu. A la fin de l'effet de fondu, le
la vidéo de sortie aura la même intensité que la vidéo d'entrée. A la fin du fondu-
transition de sortie, la vidéo de sortie sera remplie avec la Couleur. La valeur par défaut est
25.

Alpha
S'il est défini sur 1, fondu uniquement sur le canal alpha, s'il en existe un sur l'entrée. La valeur par défaut est 0.

Heure de début, st
Spécifiez l'horodatage (en secondes) de l'image pour commencer à appliquer l'effet de fondu. Si
les deux start_frame et start_time sont spécifiés, le fondu commencera à celui qui vient
dernière. La valeur par défaut est 0.

durée, d
Le nombre de secondes pendant lesquelles l'effet de fondu doit durer. A la fin du fondu enchaîné
effet la vidéo de sortie aura la même intensité que la vidéo d'entrée, à la fin de
la transition de fondu sortant la vidéo de sortie sera remplie avec le Couleur. Si
la durée et nb_frames sont spécifiés, la durée est utilisée. La valeur par défaut est 0 (nb_frames
est utilisé par défaut).

couleur, c
Spécifiez la couleur du fondu. La valeur par défaut est "noir".

Exemples

· Fondu dans les 30 premières images de la vidéo :

fondu=en:0:30

La commande ci-dessus équivaut à :

fondu=t=in:s=0:n=30

· Estompez les 45 dernières images d'une vidéo de 200 images :

fondu = sortie:155:45
fondu=type=out:start_frame=155:nb_frames=45

· Fondu dans les 25 premières images et fondu dans les 25 dernières images d'une vidéo de 1000 images :

fondu=entrée:0:25, fondu=sortie:975:25

· Rendre les 5 premières images jaunes, puis fondu enchaîné à partir des images 5-24 :

fondu=in:5:20:couleur=jaune

· Fondu en alpha sur les 25 premières images de la vidéo :

fondu=in:0:25:alpha=1

· Rendez les 5.5 premières secondes noires, puis fondu enchaîné pendant 0.5 seconde :

fondu=t=in:st=5.5:d=0.5

fftfilter
Appliquer des expressions arbitraires aux échantillons dans le domaine fréquentiel

dc_Y
Ajustez la valeur CC (gain) du plan de luminance de l'image. Le filtre accepte un
valeur entière comprise entre 0 et 1000. La valeur par défaut est définie sur 0.

dc_U
Ajustez la valeur dc (gain) du 1er plan de chrominance de l'image. Le filtre accepte un
valeur entière comprise entre 0 et 1000. La valeur par défaut est définie sur 0.

dc_V
Ajustez la valeur CC (gain) du 2e plan de chrominance de l'image. Le filtre accepte un
valeur entière comprise entre 0 et 1000. La valeur par défaut est définie sur 0.

lourd
Définissez l'expression du poids du domaine fréquentiel pour le plan de luminance.

poids_U
Définissez l'expression du poids du domaine fréquentiel pour le 1er plan de chrominance.

poids_V
Définissez l'expression du poids du domaine fréquentiel pour le 2e plan de chrominance.

Le filtre accepte les variables suivantes :

X
Y Les coordonnées de l'échantillon actuel.

W
H La largeur et la hauteur de l'image.

Exemples

· Passe-haut :

fftfilt=dc_Y=128:weight_Y='squish(1-(Y+X)/100)'

· Passe-bas:

fftfilt=dc_Y=0:weight_Y='squish((Y+X)/100-1)'

· Aiguiser :

fftfilt=dc_Y=0:weight_Y='1+squish(1-(Y+X)/100)'

champ
Extraire un seul champ d'une image entrelacée en utilisant l'arithmétique de la foulée pour éviter le gaspillage
Temps CPU. Les trames de sortie sont marquées comme non entrelacées.

Le filtre accepte les options suivantes :

type
Précisez s'il faut extraire le champ du haut (si la valeur est 0 ou "top") ou le champ du bas
(si la valeur est 1 ou "en bas").

correspondance sur le terrain
Filtre de correspondance de champ pour le télécinéma inversé. Il s'agit de reconstruire la progressivité
images d'un flux téléciné. Le filtre ne supprime pas les images dupliquées, donc pour obtenir
un "fieldmatch" inverse complet de télécinéma doit être suivi d'un filtre de décimation tel
as décimer dans le filtre graphique.

La séparation de l'appariement de champ et de la décimation est notamment motivée par la
possibilité d'insérer un filtre de désentrelacement de repli entre les deux. Si la source
a un contenu mixte téléciné et réel entrelacé, "fieldmatch" ne pourra pas correspondre
champs pour les parties entrelacées. Mais ces cadres peignés restants seront marqués comme
entrelacé, et peut donc être désentrelacé par un filtre ultérieur tel que Yadif before
décimation.

En plus des différentes options de configuration, "fieldmatch" peut prendre une seconde optionnelle
flux, activé via le ppsrc option. Si activé, la reconstruction des images sera
sur la base des champs et des trames de ce deuxième flux. Cela permet à la première entrée d'être
pré-traités afin d'aider les différents algorithmes du filtre, tout en gardant le
sortie sans perte (en supposant que les champs correspondent correctement). En règle générale, une personne connaissant le terrain
le débruiteur ou les réglages de luminosité/contraste peuvent aider.

A noter que ce filtre utilise les mêmes algorithmes que TIVTC/TFM (projet AviSynth) et
VIVTC/VFM (projet VapourSynth). Ce dernier est un clone léger de TFM à partir duquel "fieldmatch"
est basé sur. Bien que la sémantique et l'utilisation soient très proches, certains noms de comportement et d'options
peut différer.

La décimer le filtre ne fonctionne actuellement que pour une entrée à fréquence d'images constante. Si votre entrée a
Le contenu mixte téléciné (30 ips) et progressif avec une fréquence d'images inférieure à 24 ips utilise le
la chaîne de filtrage suivante pour produire le flux cfr nécessaire :
"dejudder,fps=30000/1001,fieldmatch,decimate".

Le filtre accepte les options suivantes :

de commander
Spécifiez l'ordre des champs supposé du flux d'entrée. Les valeurs disponibles sont :

auto
Détection automatique de la parité (utilisez la valeur de parité interne de FFmpeg).

bff Supposons d'abord le champ du bas.

tff Supposons d'abord le champ supérieur.

A noter qu'il est parfois recommandé de ne pas se fier à la parité annoncée par le flux.

La valeur par défaut est auto.

mode
Définissez le mode de correspondance ou la stratégie à utiliser. pc le mode est le plus sûr dans le sens où il
ne risque pas de créer des saccades dues à des images en double lorsque cela est possible, mais s'il y a
de mauvaises modifications ou des champs mélangés, il finira par produire des images peignées lorsqu'une bonne correspondance
pourrait réellement exister. D'autre part, pcn_ub le mode est le plus risqué en termes de
créant des saccades, mais trouvera presque toujours un bon cadre s'il y en a un. le
les autres valeurs sont toutes quelque part entre les deux pc ainsi que pcn_ub en termes de risque de saccades
et créer des cadres en double au lieu de trouver de bonnes correspondances dans les sections avec de mauvaises modifications,
champs orphelins, champs mixtes, etc.

Plus de détails sur p/c/n/u/b sont disponibles dans p/c/n/u/b sens .

Les valeurs disponibles sont :

pc Correspondance à 2 voies (p/c)

pc_n
Correspondance bidirectionnelle et essai de la 2e correspondance si toujours peigné (p/c + n)

pc_u
Correspondance bidirectionnelle et essai de la 2e correspondance (même ordre) si toujours peigné (p/c + u)

pc_n_ub
Correspondance bidirectionnelle, essayer la 2e correspondance si toujours peignée et essayer les 3e/4e correspondances si
encore peigné (p/c + n + u/b)

pcn Correspondance à 3 voies (p/c/n)

pcn_ub
Correspondance à trois et essayer les 3e/4e correspondances si les 5 correspondances d'origine sont
détecté comme peigné (p/c/n + u/b)

La parenthèse à la fin indique les correspondances qui seraient utilisées pour ce mode
en supposant de commander=tff (Et champ on auto or top).

En termes de vitesse pc le mode est de loin le plus rapide et pcn_ub est le plus lent.

La valeur par défaut est pc_n.

ppsrc
Marquez le flux d'entrée principal en tant qu'entrée prétraitée et activez l'entrée secondaire
stream comme source propre pour sélectionner les champs. Voir l'introduction du filtre pour
plus de détails. C'est similaire au clip2 fonction de VFM/TFM.

La valeur par défaut est 0 (désactivé).

champ
Définissez le champ à partir duquel faire correspondre. Il est recommandé de régler ce paramètre sur la même valeur que de commander
sauf si vous rencontrez des échecs de correspondance avec ce paramètre. Dans certaines circonstances
changer le champ utilisé pour la correspondance peut avoir un impact important sur la correspondance
performance. Les valeurs disponibles sont :

auto
Automatique (même valeur que de commander).

bas
Match à partir du champ du bas.

top Match à partir du champ du haut.

La valeur par défaut est auto.

mchroma
Définissez si la chrominance est incluse ou non lors des comparaisons de matchs. Dans la plupart des cas, il
est recommandé de laisser cette option activée. Vous devez définir ce paramètre sur 0 uniquement si votre clip a
de mauvais problèmes de chrominance tels que des arcs-en-ciel importants ou d'autres artefacts. Mettre cela à 0
pourrait également être utilisé pour accélérer les choses au prix d'une certaine précision.

La valeur par défaut est 1.

y0
y1 Ceux-ci définissent une bande d'exclusion qui exclut les lignes entre y0 ainsi que y1 d'être
inclus dans la décision d'appariement sur le terrain. Une bande d'exclusion peut être utilisée pour ignorer
des sous-titres, un logo ou d'autres éléments susceptibles d'interférer avec la correspondance. y0 définit le
début de la ligne de balayage et y1 définit la ligne de fin ; toutes les lignes entre les deux y0 ainsi que y1
(Y compris y0 ainsi que y1) sera ignoré. Réglage y0 ainsi que y1 à la même valeur sera
désactiver la fonctionnalité. y0 ainsi que y1 la valeur par défaut est 0.

schrresh
Définir le seuil de détection de changement de scène en pourcentage du changement maximal sur la luminance
avion. Les bonnes valeurs se situent dans la plage "[8.0, 14.0]". La détection de changement de scène est seulement
pertinent en cas match de peigne=sc. La gamme pour schrresh est "[0.0, 100.0]".

La valeur par défaut est 12.0.

match de peigne
Quand combat n'est pas aucun, "fieldmatch" prendra en compte les scores peignés de
matchs au moment de décider quel match utiliser comme match final. Les valeurs disponibles sont :

aucun
Pas de correspondance finale basée sur les scores peignés.

sc Les scores peignés ne sont utilisés que lorsqu'un changement de scène est détecté.

plein
Utilisez des scores peignés tout le temps.

La valeur par défaut est sc.

peignedbg
Forcez "fieldmatch" pour calculer les métriques peignées pour certaines correspondances et les imprimer.
Ce paramètre est connu sous le nom micro dans le vocabulaire TFM/VFM. Les valeurs disponibles sont :

aucun
Pas de calcul forcé.

pcn Forcer les calculs p/c/n.

pcnub
Forcer les calculs p/c/n/u/b.

La valeur par défaut est aucun.

seuil
Il s'agit du seuil de peignage de zone utilisé pour la détection de trame peignée. Ceci essentiellement
contrôle à quel point le peignage « fort » ou « visible » doit être détecté. Des valeurs plus élevées signifient
le peignage doit être plus visible et des valeurs plus petites signifient que le peignage peut être moins visible ou
fort et toujours être détecté. Les paramètres valides sont de "-1" (chaque pixel sera
détecté comme peigné) à 255 (aucun pixel ne sera détecté comme peigné). Il s'agit essentiellement d'un
valeur de différence de pixels. Une bonne plage est "[8, 12]".

La valeur par défaut est 9.

chroma
Définit si la chrominance est prise en compte ou non dans la décision de trame peignée. Désactiver uniquement
ceci si votre source a des problèmes de chrominance (arc-en-ciel, etc.) qui causent des problèmes
pour la détection de trame peignée avec chrominance activée. En fait, en utilisant chroma=0 is
généralement plus fiable, sauf dans le cas où il n'y a de chrominance que dans le
la source.

La valeur par défaut est 0.

blocx
polyédrique
Définissez respectivement la taille de l'axe des x et de l'axe des y de la fenêtre utilisée pendant le cadre peigné
détection. Cela a à voir avec la taille de la zone dans laquelle comble les pixels sont
doit être détecté comme peigné pour qu'une trame soit déclarée peignée. Voir le comble
description du paramètre pour plus d'informations. Les valeurs possibles sont n'importe quel nombre qui est une puissance
de 2 commençant à 4 et allant jusqu'à 512.

La valeur par défaut est 16.

comble
Le nombre de pixels peignés à l'intérieur de l'un des polyédrique by blocx blocs de taille sur le
trame pour que la trame soit détectée comme peignée. Tandis que seuil contrôle la « visibilité » du
peignage doit être, ce paramètre contrôle "combien" de peignage il doit y avoir dans n'importe quel
zone localisée (une fenêtre définie par le blocx ainsi que polyédrique paramètres) sur le cadre.
La valeur minimale est 0 et la valeur maximale est "blocky x blockx" (à quel point aucune trame ne sera
jamais être détecté comme peigné). Ce paramètre est connu sous le nom MI dans le vocabulaire TFM/VFM.

La valeur par défaut est 80.

p/c/n/u/b sens

p/c/n

Nous supposons le flux téléciné suivant :

Champs supérieurs : 1 2 2 3 4
Champs inférieurs : 1 2 3 4 4

Les numéros correspondent au cadre progressif auquel les champs se rapportent. Ici, les deux premiers
les montures sont progressives, les 3ème et 4ème sont peignées, et ainsi de suite.

Lorsque "fieldmatch" est configuré pour exécuter une correspondance à partir du bas (champ=bas) c'est ainsi
ce flux d'entrée est transformé :

Flux d'entrée:
V 1 2 2 3 4
B 1 2 3 4 4 <-- référence correspondante

Correspondances : ccnnc

Flux de sortie :
V 1 2 3 4 4
B 1 2 3 4 4

À la suite de la correspondance des champs, nous pouvons voir que certaines images sont dupliquées. Pour effectuer
un télécinéma inversé complet, il faut s'appuyer sur un filtre de décimation après cette opération.
Voir par exemple le décimer filtre.

La même opération correspond maintenant à partir des champs supérieurs (champ=top) ressemble à ça:

Flux d'entrée:
T 1 2 2 3 4 <-- référence correspondante
B 1 2 3 4 4

Matchs : ccppc

Flux de sortie :
V 1 2 2 3 4
B 1 2 2 3 4

Dans ces exemples, nous pouvons voir ce que p, c ainsi que n moyenne; fondamentalement, ils se réfèrent au cadre et
champ de parité opposée :

*<p correspond au champ de la parité opposée dans la trame précédente>
*<c correspond au champ de la parité opposée dans la trame courante>
*<n correspond au champ de la parité opposée dans la trame suivante>

tu/b

La u ainsi que b les correspondances sont un peu spéciales dans le sens où elles correspondent à l'opposé
drapeau de parité. Dans les exemples suivants, nous supposons que nous correspondons actuellement au 2e
cadre (Haut :2, bas :2). Selon le match, un « x » est placé au-dessus et au-dessous de chaque
champs correspondants.

Avec fond assorti (champ=bas):

Correspondance : cpnbu

xxxxx
Haut 1 2 2 1 2 2 1 2 2 1 2 2 1 2 2
Bas 1 2 3 1 2 3 1 2 3 1 2 3 1 2 3
xxxxx

Trames de sortie :
2 1 2 2 2
2 2 2 1 3

Avec top assorti (champ=top):

Correspondance : cpnbu

xxxxx
Haut 1 2 2 1 2 2 1 2 2 1 2 2 1 2 2
Bas 1 2 3 1 2 3 1 2 3 1 2 3 1 2 3
xxxxx

Trames de sortie :
2 2 2 1 2
2 1 3 2 2

Exemples

IVTC simple d'un premier flux téléciné de premier plan :

fieldmatch=order=tff:combmatch=none, décimer

IVTC avancé, avec repli activé Yadif pour les cadres encore peignés :

fieldmatch=order=tff:combmatch=complet, yadif=deint=entrelacé, décimer

ordre des champs
Transformez l'ordre des champs de la vidéo d'entrée.

Il accepte les paramètres suivants :

de commander
L'ordre des champs de sortie. Les valeurs valides sont tff pour le premier champ en premier ou bff pour le bas
champ en premier.

La valeur par défaut est tff.

La transformation se fait en déplaçant le contenu de l'image vers le haut ou vers le bas d'une ligne, et
remplir la ligne restante avec le contenu d'image approprié. Cette méthode est cohérente
avec la plupart des convertisseurs d'ordre de champ de diffusion.

Si la vidéo d'entrée n'est pas signalée comme étant entrelacée, ou si elle est déjà signalée comme étant
de l'ordre des champs de sortie requis, alors ce filtre ne modifie pas la vidéo entrante.

Il est très utile lors de la conversion vers ou à partir de matériel PAL DV, qui est le champ inférieur en premier.

Par exemple :

ffmpeg -i in.vob -vf "fieldorder=bff" out.dv

FIFO
Tamponnez les images d'entrée et envoyez-les lorsqu'elles sont demandées.

Il est principalement utile lorsqu'il est inséré automatiquement par le framework libavfilter.

Il ne prend pas de paramètres.

trouver_rect
Trouver un objet rectangulaire

Il accepte les options suivantes :

objet
Le chemin du fichier de l'image de l'objet doit être en gray8.

порог
Seuil de détection, la valeur par défaut est 0.5.

mipmaps
Nombre de mipmaps, la valeur par défaut est 3.

xmin, ouais, xmax, ymax
Spécifie le rectangle dans lequel rechercher.

Exemples

· Générer une palette représentative d'une vidéo donnée en utilisant ffmpeg:

ffmpeg -i fichier.ts -vf find_rect=newref.pgm,cover_rect=cover.jpg:mode=cover new.mkv

couverture_rect
Couvrir un objet rectangulaire

Il accepte les options suivantes :

couverture
Le chemin du fichier de l'image de couverture facultative doit être au format yuv420.

mode
Définir le mode de couverture.

Il accepte les valeurs suivantes :

couverture
couvrez-le par l'image fournie

tache
le couvrir en interpolant les pixels environnants

La valeur par défaut est tache.

Exemples

· Générer une palette représentative d'une vidéo donnée en utilisant ffmpeg:

ffmpeg -i fichier.ts -vf find_rect=newref.pgm,cover_rect=cover.jpg:mode=cover new.mkv

le format
Convertissez la vidéo d'entrée dans l'un des formats de pixels spécifiés. Libavfilter essaiera de
choisissez celui qui convient comme entrée pour le filtre suivant.

Il accepte les paramètres suivants :

pix_fmts
Une liste de noms de formats de pixels séparés par des « | », tels que « pix_fmts=yuv420p|monow|rgb24 ».

Exemples

· Convertir la vidéo d'entrée en yuv420p le format

format=pix_fmts=yuv420p

Convertir la vidéo d'entrée dans l'un des formats de la liste

format=pix_fmts=yuv420p|yuv444p|yuv410p

fps
Convertissez la vidéo à une fréquence d'images constante spécifiée en dupliquant ou en supprimant des images comme
nécessaire.

Il accepte les paramètres suivants :

fps La fréquence d'images de sortie souhaitée. La valeur par défaut est 25.

Round
Méthode d'arrondi.

Les valeurs possibles sont :

zéro
zéro rond vers 0

inf arrondir à 0

down
rond vers -infini

up rond vers +infini

près
arrondir au plus proche

La valeur par défaut est "proche".

Heure de début
Supposons que le premier PTS doit être la valeur donnée, en secondes. Cela permet de
remplissage/découpage au début du flux. Par défaut, aucune hypothèse n'est faite sur la
le PTS attendu de la première image, donc aucun remplissage ou rognage n'est effectué. Par exemple, ce
peut être défini sur 0 pour compléter le début avec des doublons de la première image si une vidéo
le flux commence après le flux audio ou pour rogner les images avec un PTS négatif.

Alternativement, les options peuvent être spécifiées sous forme de chaîne plate : fps[:Round].

Voir aussi paramètres filtre.

Exemples

· Une utilisation type pour régler les fps à 25 :

ips=ips=25

· Définit le fps à 24, en utilisant l'abréviation et la méthode d'arrondi pour arrondir au plus proche :

fps=fps=film:rond=proche

pack cadre
Emballez deux flux vidéo différents dans une vidéo stéréoscopique, en définissant les métadonnées appropriées sur
codecs pris en charge. Les deux vues doivent avoir la même taille, la même fréquence d'images et le même traitement
s'arrêtera à la fin de la vidéo plus courte. Veuillez noter que vous pouvez facilement ajuster la vue
propriétés avec le escaliers ainsi que fps filtres

Il accepte les paramètres suivants :

le format
Le format d'emballage souhaité. Les valeurs prises en charge sont :

sbs Les vues sont côte à côte (par défaut).

languette Les vues se superposent.

lignes
Les vues sont emballées par ligne.

colonnes
Les vues sont emballées par colonne.

séquence d'images
Les vues sont intercalées dans le temps.

Quelques exemples:

# Convertir les vues gauche et droite en une vidéo séquentielle
ffmpeg -i LEFT -i RIGHT -filter_complex framepack=frameseq SORTIE

# Convertir les vues en une vidéo côte à côte avec la même résolution de sortie que l'entrée
ffmpeg -i LEFT -i RIGHT -filter_complex [0:v]scale=w=iw/2[left],[1:v]scale=w=iw/2[right],[left][right]framepack=sbs SORTIR

framerate
Modifiez la fréquence d'images en interpolant de nouvelles images de sortie vidéo à partir des images source.

Ce filtre n'est pas conçu pour fonctionner correctement avec des supports entrelacés. Si vous souhaitez
modifier la fréquence d'images du média entrelacé, vous devez alors désentrelacer avant cela
filtre et réentrelace après ce filtre.

Une description des options acceptées suit.

fps Spécifiez les images de sortie par seconde. Cette option peut également être spécifiée comme valeur
seul. La valeur par défaut est 50.

interp_start
Spécifiez le début d'une plage où l'image de sortie sera créée en tant que linéaire
interpolation de deux trames. La plage est [0-255], la valeur par défaut est 15.

interp_end
Spécifiez la fin d'une plage où le cadre de sortie sera créé en tant que linéaire
interpolation de deux trames. La plage est [0-255], la valeur par défaut est 240.

scène
Spécifiez le niveau auquel un changement de scène est détecté comme une valeur comprise entre 0 et 100 pour
indiquer une nouvelle scène; une valeur faible reflète une faible probabilité pour la trame actuelle de
introduire une nouvelle scène, tandis qu'une valeur plus élevée signifie que l'image actuelle est plus susceptible de
être une. La valeur par défaut est 7.

drapeaux
Spécifiez les indicateurs influençant le processus de filtrage.

Valeur disponible pour drapeaux est:

scène_change_detect, scd
Activer la détection de changement de scène en utilisant la valeur de l'option scène. Ce drapeau est
activé par défaut.

pas de cadre
Sélectionnez une image toutes les N-ièmes images.

Ce filtre accepte l'option suivante :

étape
Sélectionnez le cadre après chaque "pas" cadres. Les valeurs autorisées sont des entiers positifs supérieurs
que 0. La valeur par défaut est 1.

plus libre
Appliquez un effet Frei0r à la vidéo d'entrée.

Pour activer la compilation de ce filtre, vous devez installer l'en-tête frei0r et
configurez FFmpeg avec "--enable-frei0r".

Il accepte les paramètres suivants :

nom_filtre
Le nom de l'effet Frei0r à charger. Si la variable d'environnement FREI0R_CHEMIN is
défini, l'effet frei0r est recherché dans chacun des répertoires spécifiés par le
liste séparée par des deux-points dans FREIOR_PATH. Sinon, les chemins frei0r standard sont
recherché, dans cet ordre : ACCUEIL/.frei0r-1/lib/, /usr/local/lib/frei0r-1/,
/usr/lib/frei0r-1/.

filtre_params
Une liste de paramètres séparés par des '|' à transmettre à l'effet Frei0r.

Un paramètre d'effet frei0r peut être un booléen (sa valeur est soit "y" soit "n"), un double, un
couleur (spécifiée comme R/G/B, Où R, Get B sont des nombres à virgule flottante compris entre 0.0 et
1.0, inclus) ou par une description de couleur spécifiée dans la section "Couleur" dans le ffmpeg-
manuel utils), une position (spécifiée comme X/Y, Où X ainsi que Y sont des nombres à virgule flottante)
et/ou une chaîne.

Le nombre et les types de paramètres dépendent de l'effet chargé. Si un paramètre d'effet est
non spécifié, la valeur par défaut est définie.

Exemples

· Appliquer l'effet distort0r en définissant les deux premiers paramètres doubles :

frei0r=nom_filtre=distort0r:filter_params=0.5|0.01

· Appliquer l'effet colordistance, en prenant une couleur comme premier paramètre :

frei0r=distance de couleur : 0.2/0.3/0.4
frei0r=distance de couleur :violet
frei0r=distance de couleur:0x112233

· Appliquer l'effet de perspective, en spécifiant les positions de l'image en haut à gauche et en haut à droite :

frei0r=perspective:0.2/0.2|0.8/0.2

Pour plus d'informations, voirhttp://frei0r.dyne.org>

fspp
Appliquez un post-traitement simple et rapide. C'est une version plus rapide de spp.

Il divise (I)DCT en passes horizontales/verticales. Contrairement au simple post-traitement
filtre, l'un d'eux est effectué une fois par bloc, pas par pixel. Cela permet beaucoup
vitesse plus élevée.

Le filtre accepte les options suivantes :

qualité
Définir la qualité. Cette option définit le nombre de niveaux pour la moyenne. Il accepte un
entier compris entre 4 et 5. La valeur par défaut est 4.

qp Forcer un paramètre de quantification constant. Il accepte un entier compris entre 0 et 63. Si non
défini, le filtre utilisera le QP du flux vidéo (si disponible).

force
Réglez la force du filtre. Il accepte un entier compris entre -15 et 32. Les valeurs inférieures signifient plus
détails mais aussi plus d'artefacts, tandis que des valeurs plus élevées rendent l'image plus lisse mais aussi
plus flou. La valeur par défaut est 0 X PSNR optimal.

use_bframe_qp
Activez l'utilisation du QP à partir des B-Frames s'il est défini sur 1. L'utilisation de cette option peut entraîner
scintillement car les B-Frames ont souvent un QP plus important. La valeur par défaut est 0 (non activé).

gq
Le filtre accepte les options suivantes :

lum_expr, lum
Définissez l'expression de luminance.

cb_expr, cb
Définissez l'expression du bleu de chrominance.

cr_expr, cr
Définissez l'expression du rouge de chrominance.

alpha_expr, a
Définissez l'expression alpha.

expr_rouge, r
Définissez l'expression rouge.

expression_verte, g
Définissez l'expression verte.

expression_bleue, b
Définissez l'expression bleue.

L'espace colorimétrique est sélectionné en fonction des options spécifiées. Si l'un des lum_expr,
cb_exprou cr_expr options est spécifiée, le filtre sélectionnera automatiquement un YCbCr
espace colorimétrique. Si l'un des expr_rouge, expression_verteou expression_bleue options est spécifié, il sera
sélectionnez un espace colorimétrique RVB.

Si l'une des expressions de chrominance n'est pas définie, elle retombe sur l'autre. Sinon
l'expression alpha est spécifiée, elle sera évaluée à une valeur opaque. Si aucune chrominance
expressions sont spécifiées, elles seront évaluées à l'expression de luminance.

Les expressions peuvent utiliser les variables et fonctions suivantes :

N Le numéro séquentiel de la trame filtrée, à partir de 0.

X
Y Les coordonnées de l'échantillon actuel.

W
H La largeur et la hauteur de l'image.

SW
SH Echelle de largeur et de hauteur en fonction du plan actuellement filtré. c'est le rapport
entre le nombre de pixels du plan de luminance correspondant et ceux du plan courant. Par exemple
pour YUV4:2:0, les valeurs sont "1,1" pour le plan de luminance et "0.5,0.5" pour les plans de chrominance.

T Temps de l'image actuelle, exprimé en secondes.

p(x, y)
Renvoie la valeur du pixel à l'emplacement (x,y) du plan courant.

lum(x, y)
Renvoie la valeur du pixel à l'emplacement (x,y) du plan de luminance.

bc(x, y)
Renvoie la valeur du pixel à l'emplacement (x,y) du plan de chrominance de différence de bleu.
Renvoie 0 s'il n'y a pas de tel plan.

cr(x, y)
Renvoie la valeur du pixel à l'emplacement (x,y) du plan de chrominance de différence rouge.
Renvoie 0 s'il n'y a pas de tel plan.

r(x, y)
g(x, y)
b(x, y)
Renvoie la valeur du pixel à l'emplacement (x,y) de la composante rouge/vert/bleu.
Renvoie 0 s'il n'y a pas de tel composant.

alpha(x, y)
Renvoie la valeur du pixel à l'emplacement (x,y) du plan alpha. Renvoie 0 s'il y a
n'est pas un tel avion.

Pour les fonctions, si x ainsi que y sont en dehors de la zone, la valeur sera automatiquement écrêtée à
le bord le plus proche.

Exemples

· Retournez l'image horizontalement :

geq=p(WX\,Y)

· Générer une onde sinusoïdale bidimensionnelle, avec un angle "PI/3" et une longueur d'onde de 100 pixels :

geq=128 + 100*sin(2*(PI/100)*(cos(PI/3)*(X-50*T) + sin(PI/3)*Y)):128:128

· Générez une lumière mobile énigmatique de fantaisie :

nullsrc=s=256x256,geq=aléatoire(1)/hypot(X-cos(N*0.07)*W/2-W/2\,Y-sin(N*0.09)*H/2-H/2)^2*1000000*sin(N*0.02):128:128

· Générer un effet de gaufrage rapide :

format=gris,geq=lum_expr='(p(X,Y)+(256-p(X-4,Y-4)))/2'

· Modifier les composants RVB en fonction de la position des pixels :

geq=r='X/W*r(X,Y)':g='(1-X/W)*g(X,Y)':b='(HY)/H*b(X,Y) )'

· Créez un dégradé radial de la même taille que l'entrée (voir aussi le vignette
filtre):

geq=lum=255*gauss((X/W-0.5)*3)*gauss((Y/H-0.5)*3)/Gauss(0) /Gauss(0),format=gris

· Créez un dégradé linéaire à utiliser comme masque pour un autre filtre, puis composez avec
revêtement. Dans cet exemple, la vidéo deviendra progressivement plus floue du haut vers le
le bas de l'axe des ordonnées tel que défini par le gradient linéaire :

ffmpeg -i input.mp4 -filter_complex "geq=lum=255*(Y/H),format=gray[grad];[0:v]boxblur=4[blur];[blur][grad]alphamerge[alpha] ;[0:v][alpha]overlay" output.mp4

Diplômé
Corrigez les artefacts de bandes qui sont parfois introduits dans des régions presque plates en
troncature à une profondeur de couleur de 8 bits. Interpolez les dégradés qui doivent aller là où les bandes
sont, et les tergiverser.

Il est conçu pour la lecture uniquement. Ne l'utilisez pas avant la compression avec perte, car
la compression a tendance à perdre le dither et à ramener les bandes.

Il accepte les paramètres suivants :

force
La quantité maximale par laquelle le filtre modifiera n'importe quel pixel. C'est aussi le
seuil pour détecter les régions presque plates. Les valeurs acceptables vont de 51 à 64 ;
la valeur par défaut est 1.2. Les valeurs hors plage seront écrêtées dans la plage valide.

radius
Le quartier auquel ajuster le dégradé. Un rayon plus large permet des dégradés plus lisses,
mais empêche également le filtre de modifier les pixels à proximité des régions détaillées.
Les valeurs acceptables sont 8-32 ; la valeur par défaut est 16. Les valeurs hors limites seront
écrêté à la plage valide.

Alternativement, les options peuvent être spécifiées sous forme de chaîne plate : force[:radius]

Exemples

· Appliquer le filtre avec une force de 3.5 et un rayon de 8 :

gradfun = 3.5: 8

· Spécifiez le rayon, en omettant la force (qui reviendra à la valeur par défaut) :

gradfun=rayon=8

hadclut
Appliquez un Hald CLUT à un flux vidéo.

La première entrée est le flux vidéo à traiter, et la seconde est le Hald CLUT. la moitié
L'entrée CLUT peut être une simple image ou un flux vidéo complet.

Le filtre accepte les options suivantes :

le plus court
Forcer l'arrêt lorsque l'entrée la plus courte se termine. La valeur par défaut est 0.

répéter en dernier
Continuez à appliquer le dernier CLUT après la fin du flux. Une valeur de 0 désactive le
filtre après que la dernière trame de la CLUT est atteinte. La valeur par défaut est 1.

"haldclut" a également les mêmes options d'interpolation que lut3d (les deux filtres partagent le même
internes).

Vous trouverez plus d'informations sur le Hald CLUT sur le site Web d'Eskil Steenberg (Hald CLUT
auteur) àhttp://www.quelsolaar.com/technology/clut.html>.

Workflow exemples

Hald CLUT flux vidéo

Générer un flux Hald CLUT d'identité modifié avec divers effets :

ffmpeg -f lavfi -i B =8 -vf "hue=H=2*PI*t:s=sin(2*PI*t)+1, curves=cross_process" -t 10 -c:v ffv1 clut.nut

Remarque : assurez-vous d'utiliser un codec sans perte.

Ensuite, utilisez-le avec "haldclut" pour l'appliquer sur un flux aléatoire :

ffmpeg -f lavfi -i mandelbrot -i clut.nut -filter_complex '[0][1] haldclut' -t 20 mandelclut.mkv

Le Hald CLUT sera appliqué aux 10 premières secondes (durée de écrou.clut), puis le
la dernière image de ce flux CLUT sera appliquée aux images restantes du
ruisseau "mandelbrot".

Hald CLUT avec aperçu

Un Hald CLUT est censé être une image au carré de "Level*Level*Level" par
Pixels "Niveau*Niveau*Niveau". Pour un Hald CLUT donné, FFmpeg sélectionnera le plus grand
carré commençant en haut à gauche de l'image. Les pixels de remplissage restants (en bas ou
à droite) sera ignoré. Cette zone peut être utilisée pour ajouter un aperçu du Hald CLUT.

En règle générale, le Hald CLUT généré suivant sera pris en charge par le filtre « haldclut » :

ffmpeg -f lavfi -i B =8 -vf "
pad=iw+320 [padded_clut] ;
smptebars=s=320x256, diviser [a][b] ;
[padded_clut][a] overlay=W-320:h, curves=color_negative [main] ;
[main][b] overlay=W-320" -frames:v 1 clut.png

Il contient l'original et un aperçu de l'effet du CLUT : les barres de couleur SMPTE sont
affichées en haut à droite et en dessous des mêmes barres de couleur traitées par les changements de couleur.

Ensuite, l'effet de ce Hald CLUT peut être visualisé avec :

ffplay input.mkv -vf "movie=clut.png, [in] haldclut"

hflip
Retournez la vidéo d'entrée horizontalement.

Par exemple, pour retourner horizontalement la vidéo d'entrée avec ffmpeg:

ffmpeg -i in.avi -vf "hflip" out.avi

histoq
Ce filtre applique une égalisation globale de l'histogramme des couleurs image par image.

Il peut être utilisé pour corriger une vidéo dont la plage d'intensités de pixels est compressée. le
le filtre redistribue les intensités des pixels pour égaliser leur distribution sur le
plage d'intensité. Il peut être considéré comme un "filtre de contraste à réglage automatique". Cette
Le filtre n'est utile que pour corriger une vidéo source dégradée ou mal capturée.

Le filtre accepte les options suivantes :

force
Déterminez le montant d'égalisation à appliquer. Au fur et à mesure que la force diminue, le
la distribution des intensités de pixels se rapproche de plus en plus de celle de la trame d'entrée.
La valeur doit être un nombre flottant dans la plage [0,1] et la valeur par défaut est 0.200.

intensité
Définir l'intensité maximale pouvant être générée et mettre à l'échelle les valeurs de sortie
de manière appropriée. La force doit être réglée comme vous le souhaitez, puis l'intensité peut être
limité si nécessaire pour éviter le lessivage. La valeur doit être un nombre flottant dans la plage
[0,1] et la valeur par défaut est 0.210.

anti bandages
Réglez le niveau d'antibanding. S'il est activé, le filtre variera aléatoirement la luminance de
pixels de sortie d'une petite quantité pour éviter les bandes de l'histogramme. Les valeurs possibles sont
"aucun", "faible" ou "fort". La valeur par défaut est "aucun".

histogramme
Calculez et dessinez un histogramme de distribution des couleurs pour la vidéo d'entrée.

L'histogramme calculé est une représentation de la distribution des composantes de couleur dans un
l'image.

Le filtre accepte les options suivantes :

mode
Définir le mode histogramme.

Il accepte les valeurs suivantes :

niveaux
Histogramme standard qui affiche la distribution des composants de couleur dans une image.
Affiche le graphique des couleurs pour chaque composant de couleur. Affiche la distribution des Y, U, V,
Composantes A ou R, V, B, selon le format d'entrée, dans l'image actuelle. Au dessous de
chaque graphique un compteur d'échelle de composante de couleur est affiché.

Couleur
Affiche les valeurs de chrominance (placement des couleurs U/V) dans un graphique à deux dimensions (qui est
appelé vecteurscope). Plus un pixel est brillant dans le vecteurscope, plus il y a de pixels de
l'image d'entrée correspond à ce pixel (c'est-à-dire que plus de pixels ont cette chrominance
valeur). La composante V est affichée sur l'axe horizontal (X), avec la plus à gauche
côté étant V = 0 et le côté le plus à droite étant V = 255. La composante U est
affiché sur l'axe vertical (Y), le haut représentant U = 0 et le bas
représentant U = 255.

La position d'un pixel blanc dans le graphique correspond à la valeur de chrominance d'un
pixel du clip d'entrée. Le graphique peut donc être utilisé pour lire la teinte (couleur
saveur) et la saturation (la dominance de la teinte dans la couleur). Comme la teinte de
une couleur change, elle se déplace autour du carré. Au centre de la place le
la saturation est nulle, ce qui signifie que le pixel correspondant n'a pas de couleur. Si la
la quantité d'une couleur spécifique est augmentée (tout en laissant les autres couleurs inchangées)
la saturation augmente et l'indicateur se déplace vers le bord du carré.

couleur 2
Valeurs de chrominance dans le vecteurscope, similaires à "couleur", mais les valeurs de chrominance réelles sont
affiché.

forme d'onde
Graphique de composante de couleur par ligne/colonne. En mode ligne, le graphique sur le côté gauche
représente la valeur du composant de couleur 0 et le côté droit représente la valeur = 255. Dans
mode colonne, le côté supérieur représente la valeur du composant de couleur = 0 et le côté inférieur
représente la valeur = 255.

La valeur par défaut est "niveaux".

niveau_hauteur
Réglez la hauteur du niveau dans "levels". La valeur par défaut est 200. La plage autorisée est [50, 2048].

échelle_hauteur
Définissez la hauteur de l'échelle de couleurs dans les "niveaux". La valeur par défaut est 12. La plage autorisée est [0, 40].

étape
Définir l'étape pour le mode « forme d'onde ». Des valeurs plus petites sont utiles pour savoir combien de valeurs de
la même luminance est répartie sur les lignes/colonnes d'entrée. La valeur par défaut est 10.
La plage autorisée est [1, 255].

mode_forme d'onde
Définir le mode pour la "forme d'onde". Peut être soit "ligne", soit "colonne". La valeur par défaut est "ligne".

forme d'onde_miroir
Définissez le mode de mise en miroir pour la "forme d'onde". 0 signifie non mis en miroir, 1 signifie mis en miroir. En miroir
mode, des valeurs plus élevées seront représentées sur le côté gauche pour le mode "ligne" et en haut
pour le mode "colonne". La valeur par défaut est 0 (sans miroir).

mode d'affichage
Réglez le mode d'affichage pour la "forme d'onde" et les "niveaux". Il accepte les valeurs suivantes :

parade
Afficher un graphique séparé pour les composants de couleur côte à côte dans la forme d'onde "ligne"
mode ou l'un en dessous de l'autre en mode forme d'onde « colonne » pour l'histogramme « forme d'onde »
mode. Pour le mode histogramme « niveaux », les graphiques de composante de couleur sont placés ci-dessous
L'un et l'autre.

L'utilisation de ce mode d'affichage en mode histogramme « forme d'onde » permet de repérer facilement les couleurs
projette les hautes lumières et les ombres d'une image, en comparant les contours des
graphiques du haut et du bas de chaque forme d'onde. Puisque les blancs, les gris et les noirs sont
caractérisé par des quantités exactement égales de rouge, vert et bleu, des zones neutres de
l'image doit afficher trois formes d'onde de largeur/hauteur à peu près égales. Si non,
la correction est facile à effectuer en effectuant des réglages de niveau sur les trois formes d'onde.

revêtement
Présente des informations identiques à celles du « défilé », sauf que les graphiques
représentant des composants de couleur sont superposés directement les uns sur les autres.

Ce mode d'affichage en mode histogramme « waveform » permet de repérer plus facilement
différences ou similitudes dans les zones de chevauchement des composants de couleur qui sont
censés être identiques, comme les blancs neutres, les gris ou les noirs.

La valeur par défaut est "parade".

modes_niveaux
Définir le mode pour les "niveaux". Peut être soit "linéaire", soit "logarithmique". La valeur par défaut est "linéaire".

composants électriques
Définissez les composants de couleur à afficher pour le mode "niveaux". La valeur par défaut est 7.

Exemples

· Calculer et dessiner l'histogramme :

ffplay -i input -vf histogramme

hqdn3d
Il s'agit d'un filtre antibruit 3D de haute précision/qualité. Il vise à réduire le bruit de l'image,
produire des images fluides et rendre les images fixes vraiment immobiles. Il devrait améliorer
compressibilité.

Il accepte les paramètres facultatifs suivants :

luma_spatial
Un nombre à virgule flottante non négatif qui spécifie la force de luminance spatiale. Ce
la valeur par défaut est 4.0.

chrominance_spatiale
Un nombre à virgule flottante non négatif qui spécifie la force de chrominance spatiale. Ce
par défaut à 3.0*luma_spatial/ 4.0.

luma_tmp
Un nombre à virgule flottante qui spécifie la force temporelle de luma. Il est par défaut
6.0 *luma_spatial/ 4.0.

chroma_tmp
Un nombre à virgule flottante qui spécifie la force temporelle de la chrominance. Il est par défaut
luma_tmp*chrominance_spatiale/luma_spatial.

hqx
Appliquez un filtre de grossissement de haute qualité conçu pour le pixel art. Ce filtre était
créé à l'origine par Maxim Stepin.

Il accepte l'option suivante :

n Définissez la dimension de mise à l'échelle : 2 pour "hq2x", 3 pour "hq3x" et 4 pour "hq4x". La valeur par défaut est 3.

pile h
Empilez les vidéos d'entrée horizontalement.

Tous les flux doivent être du même format de pixels et de la même hauteur.

Notez que ce filtre est plus rapide que d'utiliser revêtement ainsi que chemin filtre pour créer la même sortie.

Le filtre accepte l'option suivante :

nb_entrées
Définir le nombre de flux d'entrée. La valeur par défaut est 2.

teinte
Modifier la teinte et/ou la saturation de l'entrée.

Il accepte les paramètres suivants :

h Spécifiez l'angle de teinte en nombre de degrés. Il accepte une expression, et par défaut
à "0".

s Spécifiez la saturation dans la plage [-10,10]. Il accepte une expression et prend par défaut la valeur
"1".

H Spécifiez l'angle de teinte en nombre de radians. Il accepte une expression, et par défaut
à "0".

b Spécifiez la luminosité dans la plage [-10,10]. Il accepte une expression et prend par défaut la valeur
"0".

h ainsi que H sont mutuellement exclusifs et ne peuvent pas être spécifiés en même temps.

La b, h, H ainsi que s les valeurs d'option sont des expressions contenant les constantes suivantes :

n nombre de trames de la trame d'entrée à partir de 0

pts horodatage de présentation de la trame d'entrée exprimé en unités de base de temps

r fréquence d'images de la vidéo d'entrée, NAN si la fréquence d'images d'entrée est inconnue

t horodatage exprimé en secondes, NAN si l'horodatage d'entrée est inconnu

tb base de temps de la vidéo d'entrée

Exemples

· Réglez la teinte à 90 degrés et la saturation à 1.0 :

teinte=h=90:s=1

· Même commande mais exprimant la teinte en radians :

teinte=H=PI/2:s=1

· Faites pivoter la teinte et faites osciller la saturation entre 0 et 2 sur une période de 1 seconde :

teinte="H=2*PI*t : s=sin(2*PI*t)+1"

· Appliquer un effet de fondu de saturation de 3 secondes à partir de 0 :

teinte="s=min(t/3\,1)"

L'expression générale de fondu d'entrée peut s'écrire :

hue="s=min(0\, max((t-START)/DURATION\, 1))"

· Appliquer un effet de fondu de saturation de 3 secondes à partir de 5 secondes :

teinte="s=max(0\, min(1\, (8-t)/3))"

L'expression générale du fondu sortant peut être écrite comme suit :

hue="s=max(0\, min(1\, (DEBUT+DUREE-t)/DUREE))"

Commandes

Ce filtre prend en charge les commandes suivantes :

b
s
h
H Modifiez la teinte et/ou la saturation et/ou la luminosité de la vidéo d'entrée. le
La commande accepte la même syntaxe que l'option correspondante.

Si l'expression spécifiée n'est pas valide, elle est conservée à sa valeur actuelle.

idée
Détecter le type d'entrelacement vidéo.

Ce filtre essaie de détecter si les images d'entrée sont entrelacées, progressives, supérieures ou inférieures
champ en premier. Il essaiera également de détecter les champs qui se répètent entre des images adjacentes
(signe de télécinéma).

La détection de trame unique ne prend en compte que les trames immédiatement adjacentes lors de la classification de chacune
Cadre. La détection de trames multiples intègre l'historique de classification des précédents
cadres.

Le filtre enregistrera ces valeurs de métadonnées :

single.current_frame
Type de trame actuelle détecté à l'aide de la détection d'une seule trame. L'un des : ``tff'' (en haut
champ en premier), ``bff'' (champ du bas en premier), ``progressif'' ou ``indéterminé''

célibataire.tff
Nombre cumulé d'images détectées comme champ supérieur en premier à l'aide de la détection d'une seule image.

multiple.tff
Nombre cumulé d'images détectées comme champ supérieur en premier à l'aide d'images multiples
détection.

célibataire.bff
Nombre cumulé d'images détectées comme champ inférieur en premier à l'aide d'une seule image
détection.

multiple.current_frame
Type de trame actuelle détecté à l'aide de la détection de trames multiples. L'un des : ``tff'' (en haut
champ en premier), ``bff'' (champ du bas en premier), ``progressif'' ou ``indéterminé''

multiple.bff
Nombre cumulé d'images détectées comme champ du bas en premier à l'aide d'images multiples
détection.

unique.progressif
Nombre cumulé d'images détectées comme progressives à l'aide de la détection d'une seule image.

multiple.progressif
Nombre cumulé d'images détectées comme progressives à l'aide de la détection d'images multiples.

célibataire.indéterminé
Nombre cumulé d'images qui n'ont pas pu être classées à l'aide de la détection d'une seule image.

multiple.indéterminé
Nombre cumulé de trames qui n'ont pas pu être classées à l'aide de trames multiples
détection.

répété.current_frame
Quel champ dans la trame actuelle est répété à partir de la dernière. L'un des "ni",
``haut'', ou ``bas''.

répété.ni
Nombre cumulé d'images sans champ répété.

répété.top
Nombre cumulé d'images avec le champ supérieur répété à partir du haut de l'image précédente
champ.

répété.bas
Nombre cumulé d'images avec le champ du bas répété à partir de l'image précédente
champ du bas.

Le filtre accepte les options suivantes :

intl_thres
Définir le seuil d'entrelacement.

prog_thres
Définir le seuil progressif.

répéter_thres
Seuil de détection de champ répété.

demi vie
Nombre de trames après lequel la contribution d'une trame donnée aux statistiques est réduite de moitié
(c'est-à-dire qu'il ne contribue que pour 0.5 à sa classification). La valeur par défaut de 0 signifie que
toutes les images vues reçoivent un poids total de 1.0 pour toujours.

analyser_entrelacé_flag
Lorsque ce n'est pas 0, idet utilisera le nombre d'images spécifié pour déterminer si
le drapeau entrelacé est précis, il ne comptera pas les trames indéterminées. Si le drapeau
s'avère exact, il sera utilisé sans autre calcul, s'il est
jugée inexacte, elle sera effacée sans aucun autre calcul. Cette
permet d'insérer le filtre idet comme méthode de calcul faible pour nettoyer le
drapeau entrelacé

il
Désentrelacer ou entrelacer les champs.

Ce filtre permet de traiter des champs d'images entrelacées sans les désentrelacer.
Le désentrelacement divise l'image d'entrée en 2 champs (appelés demi-images). Lignes impaires
sont déplacés vers la moitié supérieure de l'image de sortie, même les lignes vers la moitié inférieure. Tu peux
les traiter (filtrer) indépendamment puis les ré-entrelacer.

Le filtre accepte les options suivantes :

luma_mode, l
mode_chrome, c
alpha_mode, a
Valeurs disponibles pour luma_mode, mode_chrome ainsi que alpha_mode sont:

aucun
Ne fais rien.

désentrelacer, d
Désentrelacer les champs, en les plaçant les uns au-dessus des autres.

entrelacer, i
Entrelacer les champs. Inversez l'effet du désentrelacement.

La valeur par défaut est "aucun".

luma_swap, ls
chroma_swap, cs
alpha_swap, as
Échangez les champs luma/chroma/alpha. Échangez les lignes paires et impaires. La valeur par défaut est 0.

gonfler
Appliquez un effet de gonflage à la vidéo.

Ce filtre remplace le pixel par le locales(3x3) moyenne en ne prenant en compte que
valeurs supérieures au pixel.

Il accepte les options suivantes :

seuil0
seuil1
seuil2
seuil3
Limitez le changement maximum pour chaque avion, la valeur par défaut est 65535. Si 0, l'avion restera
inchangé.

entrelacer
Filtre d'entrelacement simple à partir de contenus progressifs. Cela s'intercale en haut (ou en bas)
lignes provenant d'images impaires avec des lignes inférieures (ou supérieures) provenant d'images paires, réduisant de moitié la fréquence d'images
et en préservant la hauteur de l'image.

Original Original Nouveau Cadre
Cadre 'j' Cadre 'j+1' (tff)
========== =========== ==================
Ligne 0 --------------------> Cadre 'j' Ligne 0
Ligne 1 Ligne 1 ----> Cadre 'j+1' Ligne 1
Ligne 2 ---------------------> Cadre 'j' Ligne 2
Ligne 3 Ligne 3 ----> Cadre 'j+1' Ligne 3
... ... ...
Le nouveau cadre + 1 sera généré par le cadre 'j+2' et le cadre 'j+3' et ainsi de suite

Il accepte les paramètres facultatifs suivants :

balayage
Ceci détermine si la trame entrelacée est prise à partir de l'événement pair (tff - par défaut) ou
lignes impaires (bff) de la trame progressive.

passe-bas
Activer (par défaut) ou désactiver le filtre passe-bas vertical pour éviter l'entrelacement de Twitter
et réduire les motifs de moiré.

kerndeint
Désentrelacez la vidéo d'entrée en appliquant le désentrelacement adaptatif du noyau de Donald Graft. Travailler sur
parties entrelacées d'une vidéo pour produire des images progressives.

La description des paramètres acceptés suit.

battre
Définissez le seuil qui affecte la tolérance du filtre lors de la détermination si un pixel
la ligne doit être traitée. Il doit s'agir d'un entier compris dans la plage [0,255] et la valeur par défaut est 10.
Une valeur de 0 entraînera l'application du traitement sur tous les pixels.

Localisation Peignez les pixels dépassant la valeur seuil en blanc s'il est défini sur 1. La valeur par défaut est 0.

de commander
Définissez l'ordre des champs. Échangez les champs si défini sur 1, laissez les champs seuls si 0. La valeur par défaut est 0.

net
Activez la netteté supplémentaire si elle est définie sur 1. La valeur par défaut est 0.

bidirectionnel
Activez la netteté bidirectionnelle si elle est définie sur 1. La valeur par défaut est 0.

Exemples

· Appliquer les valeurs par défaut :

kerndeint=thresh=10:map=0:order=0:sharp=0:twoway=0

· Activer l'affûtage supplémentaire :

kerndeint=pointu=1

· Peignez les pixels traités en blanc :

kerndeint=carte=1

correction des lentilles
Corriger la distorsion radiale de l'objectif

Ce filtre peut être utilisé pour corriger la distorsion radiale pouvant résulter de l'utilisation de
objectifs grand angle, et ainsi rectifier à nouveau l'image. Pour trouver les bons paramètres, on peut
utiliser des outils disponibles par exemple dans le cadre d'opencv ou simplement d'essais et d'erreurs. Utiliser
opencv utilise l'échantillon d'étalonnage (sous samples/cpp) des sources opencv et extrait
les coefficients k1 et k2 de la matrice résultante.

Notez qu'effectivement le même filtre est disponible dans les outils open source Krita et
Digikam du projet KDE.

Contrairement à la vignette filtre, qui peut également être utilisé pour compenser les erreurs d'objectif, ce
filtre corrige la distorsion de l'image, alors que vignette corrige la luminosité
distribution, vous pouvez donc utiliser les deux filtres ensemble dans certains cas, bien que vous
devra s'occuper de la commande, c'est-à-dire si le vignettage doit être appliqué avant ou
après correction de l'objectif.

Options

Le filtre accepte les options suivantes :

cx Coordonnée x relative du point focal de l'image, et donc du centre de la
Distorsion. Cette valeur a une plage [0,1] et est exprimée en fractions de l'image
largeur.

cy Coordonnée y relative du point focal de l'image, et donc du centre de la
Distorsion. Cette valeur a une plage [0,1] et est exprimée en fractions de l'image
la taille.

k1 Coefficient du terme de correction quadratique. 0.5 signifie aucune correction.

k2 Coefficient du terme de correction double quadratique. 0.5 signifie aucune correction.

La formule qui génère la correction est :

r_src = r_cible * (1 + k1 * (r_cible / r_0)^2 + k2 * (r_cible / r_0)^4)

De r_0 est la moitié de la diagonale de l'image et r_src ainsi que r_cible sont les distances de la
point focal dans les images source et cible, respectivement.

lut3d
Appliquez une LUT 3D à une vidéo d'entrée.

Le filtre accepte les options suivantes :

filet
Définissez le nom du fichier 3D LUT.

Formats actuellement pris en charge :

3dl Effets secondaires

cube
Iridas

dat DaVinci

m3d Pandora

interpréter
Sélectionnez le mode d'interpolation.

Les valeurs disponibles sont :

le plus proche
Utilisez les valeurs du point défini le plus proche.

trilinéaire
Interpolez les valeurs en utilisant les 8 points définissant un cube.

tétraédrique
Interpolez les valeurs à l'aide d'un tétraèdre.

lut, lutrgb, lutyuv
Calculer une table de correspondance pour lier chaque valeur d'entrée de composant de pixel à une valeur de sortie,
et l'appliquer à la vidéo d'entrée.

lutyuv applique une table de recherche à une vidéo d'entrée YUV, lutrgb à une vidéo d'entrée RVB.

Ces filtres acceptent les paramètres suivants :

c0 définir la première expression de composant de pixel

c1 définir l'expression du deuxième composant de pixel

c2 définir l'expression du troisième composant de pixel

c3 définir la quatrième expression de composante de pixel, correspond à la composante alpha

r définir l'expression du composant rouge

g définir l'expression du composant vert

b définir l'expression du composant bleu

a expression de la composante alpha

y définir l'expression du composant Y/luminance

u définir l'expression du composant U/Cb

v définir l'expression du composant V/Cr

Chacun d'eux spécifie l'expression à utiliser pour calculer la table de recherche pour le
les valeurs des composantes de pixels correspondantes.

La composante exacte associée à chacun des c* les options dépendent du format en entrée.

La LUT le filtre nécessite les formats de pixels YUV ou RVB en entrée, lutrgb nécessite RVB
formats de pixels en entrée, et lutyuv nécessite YUV.

Les expressions peuvent contenir les constantes et fonctions suivantes :

w
h La largeur et la hauteur d'entrée.

vague La valeur d'entrée pour le composant de pixel.

clipval
La valeur d'entrée, écrêtée sur le minval-maxval Luxinar.

maxval
La valeur maximale pour le composant de pixel.

minval
La valeur minimale pour le composant de pixel.

négval
La valeur négative de la valeur du composant de pixel, tronquée au minval-maxval gamme;
il correspond à l'expression "maxval-clipval+minval".

clip(valeur)
La valeur calculée en vague, accroché au minval-maxval Luxinar.

gammaval(gamma)
La valeur de correction gamma calculée de la valeur du composant de pixel, écrêtée sur le
minval-maxval intervalle. Il correspond à l'expression
"pow((clipval-minval)/(maxval-minval)\,gamma)*(maxval-minval)+minval"

Toutes les expressions par défaut sont "val".

Exemples

· Annulation de la vidéo d'entrée :

lutrgb="r=maxval+minval-val:g=maxval+minval-val:b=maxval+minval-val"
lutyuv="y=maxval+minval-val:u=maxval+minval-val:v=maxval+minval-val"

Ce qui précède est le même que :

lutrgb="r=negval:g=negval:b=negval"
lutyuv="y=negval:u=negval:v=negval"

· Luminance négative :

lutyuv=y=negval

· Supprimez les composants de chrominance, transformant la vidéo en une image en tons de gris :

lutyuv="u=128:v=128"

· Appliquer un effet de combustion luma :

lutyuv="y=2*val"

· Supprimer les composants verts et bleus :

lutrgb="g=0:b=0"

· Définir une valeur de canal alpha constante à l'entrée :

format=rgba,lutrgb=a="maxval-minval/2"

· Corriger le gamma de luminance par un facteur de 0.5 :

lutyuv=y=gammaval(0.5)

· Jeter les bits de luminance les moins significatifs :

lutyuv=y='bitand(val, 128+64+32)'

plans de fusion
Fusionnez les composants du canal de couleur à partir de plusieurs flux vidéo.

Le filtre accepte jusqu'à 4 flux d'entrée et fusionne les plans d'entrée sélectionnés avec la sortie
Vidéo.

Ce filtre accepte les options suivantes :

cartographie
Définissez le mappage de l'entrée sur le plan de sortie. La valeur par défaut est 0.

Les mappages sont spécifiés sous forme de bitmap. Il doit être spécifié sous forme de nombre hexadécimal
sous la forme 0xAa[Bb[Cc[Dd]]]. 'Aa' décrit la cartographie pour le premier plan du
flux de sortie. 'A' définit le numéro du flux d'entrée à utiliser (de 0 à 3), et 'a'
le numéro de plan de l'entrée correspondante à utiliser (de 0 à 3). Le reste de la
mappages est similaire, 'Bb' décrit le mappage pour le deuxième plan du flux de sortie,
« Cc » décrit le mappage du troisième plan du flux de sortie et « Dd » décrit le
mappage pour le quatrième plan du flux de sortie.

le format
Définir le format de pixel de sortie. La valeur par défaut est "yuva444p".

Exemples

· Fusionnez trois flux vidéo gris de même largeur et hauteur en un seul flux vidéo :

[a0][a1][a2]mergeplanes=0x001020:yuv444p

· Fusionnez le 1er flux yuv444p et le 2e flux vidéo gris dans le flux vidéo yuva444p :

[a0][a1]mergeplanes=0x00010210:yuva444p

· Échangez les avions Y et A dans le flux yuva444p :

format=yuva444p,mergeplanes=0x03010200:yuva444p

· Échangez les avions U et V dans le flux yuv420p :

format=yuv420p,mergeplanes=0x000201:yuv420p

· Diffusez un clip rgb24 sur yuv444p :

format=rgb24,mergeplanes=0x000102:yuv444p

mcdeint
Appliquez un désentrelacement à compensation de mouvement.

Il a besoin d'un champ par trame en entrée et doit donc être utilisé avec yadif=1/3 ou
équivalent.

Ce filtre accepte les options suivantes :

mode
Réglez le mode de désentrelacement.

Il accepte l'une des valeurs suivantes :

vite
moyenne
lent
utiliser l'estimation de mouvement itérative

extra_lent
comme lent, mais utilisez plusieurs cadres de référence.

La valeur par défaut est vite.

parité
Définissez la parité de champ d'image supposée pour la vidéo d'entrée. Ce doit être l'un des
valeurs suivantes:

0, tff
assumer le champ supérieur en premier

1, bff
assumer le champ du bas en premier

La valeur par défaut est bff.

qp Définissez le paramètre de quantification par bloc (QP) utilisé par l'encodeur interne.

Des valeurs plus élevées devraient donner un champ vectoriel de mouvement plus fluide mais moins optimal
vecteurs individuels. La valeur par défaut est 1.

décimer
Déposez des images qui ne diffèrent pas beaucoup de l'image précédente afin de réduire l'image
taux.

L'utilisation principale de ce filtre est pour l'encodage à très faible débit (par exemple, le streaming via une connexion commutée
modem), mais il pourrait en théorie être utilisé pour réparer des films qui ont été inversés
incorrectement.

Une description des options acceptées suit.

max Définir le nombre maximum de trames consécutives pouvant être supprimées (si positives), ou
l'intervalle minimum entre les images perdues (si négatif). Si la valeur est 0, le
trame est supprimée sans tenir compte du nombre de trames précédemment supprimées séquentiellement.

La valeur par défaut est 0.

hi
lo
manteau
Définissez les valeurs de seuil de chute.

Valeurs pour hi ainsi que lo sont pour des blocs de 8x8 pixels et représentent la valeur réelle du pixel
différences, donc un seuil de 64 correspond à 1 unité de différence pour chaque pixel,
ou le même réparti différemment sur le bloc.

Une trame est candidate à l'abandon si aucun bloc 8x8 ne diffère de plus d'un seuil
of hi, et si pas plus de manteau blocs (1 signifiant l'image entière) diffèrent de plus de
un seuil de lo.

Valeur par défaut pour hi est 64*12, valeur par défaut pour lo est 64*5, et la valeur par défaut pour
manteau est 0.33.

nier
Annulez la vidéo d'entrée.

Il accepte un entier en entrée ; s'il est différent de zéro, il annule la composante alpha (si disponible).
La valeur par défaut en entrée est 0.

aucun format
Force libavfilter à n'utiliser aucun des formats de pixels spécifiés pour l'entrée du suivant
filtre.

Il accepte les paramètres suivants :

pix_fmts
Une liste de noms de formats de pixels séparés par des « | », tels que apix_fmts=yuv420p|monow|rgb24".

Exemples

· Forcer libavfilter à utiliser un format différent de yuv420p pour l'entrée dans le vflip
filtre:

noformat=pix_fmts=yuv420p,vflip

· Convertissez la vidéo d'entrée dans l'un des formats non contenus dans la liste :

noformat=yuv420p|yuv444p|yuv410p

bruit
Ajouter du bruit sur le cadre d'entrée vidéo.

Le filtre accepte les options suivantes :

all_seed
c0_graine
c1_graine
c2_graine
c3_graine
Définir la graine de bruit pour un composant de pixel spécifique ou tous les composants de pixel en cas de
all_seed. La valeur par défaut est 123457.

all_force, tout
c0_force, c0s
c1_force, c1s
c2_force, c2s
c3_force, c3s
Définir l'intensité du bruit pour un composant de pixel spécifique ou tous les composants de pixel au cas où
all_force. La valeur par défaut est 0. La plage autorisée est [0, 100].

tous_flags, tout
c0_flags, c0f
c1_flags, c1f
c2_flags, c2f
c3_flags, c3f
Définir des indicateurs de composant de pixel ou définir des indicateurs pour tous les composants si tous_flags. Disponible
les valeurs des indicateurs de composant sont :

a bruit temporel moyenné (plus doux)

p mélanger du bruit aléatoire avec un motif (semi) régulier

t bruit temporel (le motif du bruit change entre les images)

u bruit uniforme (gaussien sinon)

Exemples

Ajoutez du bruit temporel et uniforme à la vidéo d'entrée :

bruit=alls=20:allf=t+u

nul
Passez la source vidéo inchangée à la sortie.

ocv
Appliquez une transformation vidéo à l'aide de libopencv.

Pour activer ce filtre, installez la bibliothèque libopencv et les en-têtes et configurez FFmpeg avec
"--enable-libopencv".

Il accepte les paramètres suivants :

nom_filtre
Le nom du filtre libopencv à appliquer.

filtre_params
Les paramètres à passer au filtre libopencv. Si non spécifié, les valeurs par défaut
sont supposées.

Référez-vous à la documentation officielle de libopencv pour des informations plus précises :
<http://docs.opencv.org/master/modules/imgproc/doc/filtering.html>

Plusieurs filtres libopencv sont pris en charge ; voir les sous-sections suivantes.

dilater

Dilater une image en utilisant un élément structurant spécifique. Il correspond à la libopencv
fonction "cvDilate".

Il accepte les paramètres : struct_el|nb_itérations.

struct_el représente un élément structurant, et a la syntaxe :
colsxlignes+ancre_xxancre_y/forme

cols ainsi que lignes représenter le nombre de colonnes et de lignes de l'élément structurant,
ancre_x ainsi que ancre_y le point d'ancrage, et forme la forme de l'élément structurant.
forme doit être "rect", "cross", "ellipse" ou "custom".

Si la valeur de forme est "personnalisé", il doit être suivi d'une chaîne de la forme
"=nom de fichier". Le fichier avec le nom nom de fichier est supposé représenter une image binaire, avec chaque
caractère imprimable correspondant à un pixel lumineux. Lorsqu'une coutume forme est utilisé, cols ainsi que
lignes sont ignorés, le nombre ou les colonnes et les lignes du fichier lu sont pris en compte à la place.

La valeur par défaut pour struct_el est "3x3+0x0/rect".

nb_itérations spécifie le nombre de fois que la transformation est appliquée à l'image, et
la valeur par défaut est 1.

Quelques exemples:

# Utiliser les valeurs par défaut
ocv=dilater

# Dilater à l'aide d'un élément structurant avec une croix 5x5, en itérant deux fois
ocv=filter_name=dilate:filter_params=5x5+2x2/cross|2

# Lisez la forme du fichier diamond.shape, en itérant deux fois.
# Le fichier diamond.shape peut contenir un motif de caractères comme celui-ci
#*
#***
# *****
#***
#*
# Les colonnes et les lignes spécifiées sont ignorées
# mais les coordonnées du point d'ancrage ne sont pas
ocv=dilate:0x0+2x2/custom=diamond.shape|2

éroder

Éroder une image en utilisant un élément structurant spécifique. Il correspond à la libopencv
fonction "cvErode".

Il accepte les paramètres : struct_el:nb_itérations, avec la même syntaxe et sémantique que
le dilater filtre.

lisse

Lisser la vidéo d'entrée.

Le filtre prend les paramètres suivants : type|param1|param2|param3|param4.

type est le type de filtre lisse à appliquer et doit être l'une des valeurs suivantes :
"blur", "blur_no_scale", "median", "gaussian" ou "bilatéral". La valeur par défaut est
"gaussienne".

Le sens de param1, param2, param3et param4 dépendent du type lisse. param1 ainsi que
param2 accepter les valeurs entières positives ou 0. param3 ainsi que param4 accepter la virgule flottante
valeurs.

La valeur par défaut pour param1 est 3. La valeur par défaut pour les autres paramètres est 0.

Ces paramètres correspondent aux paramètres affectés à la fonction libopencv
"cvSmooth".

revêtement
Superposez une vidéo sur une autre.

Il prend deux entrées et a une sortie. La première entrée est la vidéo "principale" sur laquelle le
la deuxième entrée est superposée.

Il accepte les paramètres suivants :

Une description des options acceptées suit.

x
y Définissez l'expression des coordonnées x et y de la vidéo superposée sur le
vidéo. La valeur par défaut est « 0 » pour les deux expressions. Si l'expression est invalide,
il est défini sur une valeur énorme (ce qui signifie que la superposition ne sera pas affichée dans le
zone visible de sortie).

eof_action
L'action à entreprendre lorsque EOF est rencontré sur l'entrée secondaire ; il accepte l'un des
les valeurs suivantes :

répéter
Répétez la dernière image (par défaut).

à la fin
Terminez les deux flux.

pass
Passez l'entrée principale à travers.

eval
Définir quand les expressions pour xet y sont évalués.

Il accepte les valeurs suivantes :

init
n'évalue les expressions qu'une seule fois lors de l'initialisation du filtre ou lorsqu'une commande
est traité

cadre
évaluer les expressions pour chaque trame entrante

La valeur par défaut est cadre.

le plus court
S'il est défini sur 1, force la sortie à se terminer lorsque l'entrée la plus courte se termine. Défaut
la valeur est 0.

le format
Définissez le format de la vidéo de sortie.

Il accepte les valeurs suivantes :

yuv420
forcer la sortie YUV420

yuv422
forcer la sortie YUV422

yuv444
forcer la sortie YUV444

rgb forcer la sortie RVB

La valeur par défaut est yuv420.

rgb (obsolète)
S'il est défini sur 1, force le filtre à accepter les entrées dans l'espace colorimétrique RVB. Valeur par défaut
est 0. Cette option est dépréciée, utilisez le format à la place.

répéter en dernier
S'il est défini sur 1, forcez le filtre à dessiner la dernière image de superposition sur l'entrée principale jusqu'à ce que
la fin du ruisseau. Une valeur de 0 désactive ce comportement. La valeur par défaut est 1.

La xet y les expressions peuvent contenir les paramètres suivants.

main_w, W
main_h, H
La largeur et la hauteur d'entrée principale.

superposition_w, w
superposition_h, h
La largeur et la hauteur d'entrée de superposition.

x
y Les valeurs calculées pour x ainsi que y. Ils sont évalués pour chaque nouvelle trame.

hsub
vssub
valeurs de sous-échantillon de chrominance horizontale et verticale du format de sortie. Par exemple pour
le format de pixels "yuv422p" hsub est 2 et vssub est 1.

n le nombre de trame d'entrée, à partir de 0

poster la position dans le fichier de la trame d'entrée, NAN si inconnue

t L'horodatage, exprimé en secondes. C'est NAN si l'horodatage d'entrée est inconnu.

Notez que le n, poster, t les variables ne sont disponibles que lorsque l'évaluation est effectuée / cadre,
et évaluera à NAN quand eval est fixé à init.

Sachez que les images sont extraites de chaque vidéo d'entrée dans l'ordre d'horodatage, par conséquent, si leur
les horodatages initiaux diffèrent, c'est une bonne idée de faire passer les deux entrées par un
setpts=PTS-STARTPTS filtre pour qu'ils commencent dans le même horodatage zéro, comme dans l'exemple
pour le film le filtre le fait.

Vous pouvez enchaîner plus de superpositions mais vous devriez tester l'efficacité d'une telle approche.

Commandes

Ce filtre prend en charge les commandes suivantes :

x
y Modifiez les x et y de l'entrée overlay. La commande accepte la même syntaxe du
option correspondante.

Si l'expression spécifiée n'est pas valide, elle est conservée à sa valeur actuelle.

Exemples

· Dessinez la superposition à 10 pixels du coin inférieur droit de la vidéo principale :

superposition=main_w-overlay_w-10:main_h-overlay_h-10

En utilisant les options nommées, l'exemple ci-dessus devient :

superposition=x=main_w-overlay_w-10:y=main_h-overlay_h-10

· Insérez un logo PNG transparent dans le coin inférieur gauche de l'entrée, en utilisant le ffmpeg
outil avec l'option "-filter_complex":

ffmpeg -i entrée -i logo -filter_complex 'overlay=10:main_h-overlay_h-10' sortie

· Insérez 2 logos PNG transparents différents (deuxième logo dans le coin inférieur droit) à l'aide
le ffmpeg outil:

ffmpeg -i entrée -i logo1 -i logo2 -filter_complex 'overlay=x=10:y=Hh-10,overlay=x=Ww-10:y=Hh-10' sortie

· Ajoutez une couche de couleur transparente au-dessus de la vidéo principale ; "LxH" doit spécifier la taille de
l'entrée principale du filtre de superposition :

[email protected]:size=LxH [sur]; [in][over] superposition [out]

· Jouez une vidéo originale et une version filtrée (ici avec le filtre deshakes) côte à côte
côté en utilisant le ffplay outil:

ffplay input.avi -vf 'split[a][b]; [a]pad=iw*2:ih[src] ; [b]deshake[filt] ; [src][filt]overlay=w'

La commande ci-dessus est la même que :

ffplay input.avi -vf 'split[b], pad=iw*2[src], [b]deshake, [src]overlay=w'

· Faire une superposition coulissante apparaissant de gauche à droite en haut de l'écran
depuis le temps 2 :

superposition=x='if(gte(t,2), -w+(t-2)*20, NAN)':y=0

· Composez la sortie en mettant côte à côte deux vidéos d'entrée :

ffmpeg -i left.avi -i right.avi -filter_complex "
nullsrc=taille=200x100 [arrière-plan] ;
[0:v] setpts=PTS-STARTPTS, échelle=100x100 [gauche] ;
[1:v] setpts=PTS-STARTPTS, échelle=100x100 [droite] ;
[arrière-plan][gauche] overlay=shortest=1 [arrière-plan+gauche] ;
[arrière-plan+gauche][droite] overlay=shortest=1:x=100 [gauche+droite]
"

· Masquez 10 à 20 secondes d'une vidéo en appliquant le filtre delogo à une section

ffmpeg -i test.avi -codec:v:0 wmv2 -ar 11025 -b:v 9000k
-vf '[in]split[split_main][split_delogo];[split_delogo]trim=start=360:end=371,delogo=0:0:640:480[delogoed];[split_main][delogoed]overlay=eof_action=pass[out]'
masqué.avi

· Enchaîner plusieurs overlays en cascade :

nullsrc=s=200x200 [bg] ;
testsrc=s=100x100, split=4 [in0][in1][in2][in3];
[in0] lutrgb=r=0, [bg] overlay=0:0 [mid0] ;
[in1] lutrgb=g=0, [mid0] overlay=100:0 [mid1] ;
[in2] lutrgb=b=0, [mid1] overlay=0:100 [mid2] ;
[in3] null, [mid2] superposition=100:100 [out0]

bruit odieux
Appliquez le débruiteur Overcomplete Wavelet.

Le filtre accepte les options suivantes :

profondeur
Réglez la profondeur.

Des valeurs de profondeur plus élevées débruitent davantage les composants à basse fréquence, mais ralentissent
filtration.

Doit être un entier compris entre 8 et 16, la valeur par défaut est 8.

luma_force, ls
Réglez la force de luminance.

Doit être une valeur double dans la plage 0-1000, la valeur par défaut est 1.0.

chroma_force, cs
Réglez la force de chrominance.

Doit être une valeur double dans la plage 0-1000, la valeur par défaut est 1.0.

chemin
Ajoutez des rembourrages à l'image d'entrée et placez l'entrée d'origine à l'emplacement prévu x, y
coordonnées.

Il accepte les paramètres suivants :

largeur, w
la taille, h
Spécifiez une expression pour la taille de l'image de sortie avec les remplissages ajoutés. Si la
la valeur pour largeur or la taille est 0, la taille d'entrée correspondante est utilisée pour la sortie.

La largeur expression peut faire référence à la valeur définie par le la taille expression et vice
versa.

La valeur par défaut de largeur ainsi que la taille est 0.

x
y Spécifiez les décalages pour placer l'image d'entrée dans la zone rembourrée, en respectant
au bord supérieur/gauche de l'image de sortie.

La x expression peut faire référence à la valeur définie par le y expression, et vice-versa.

La valeur par défaut de x ainsi que y est 0.

Couleur
Spécifiez la couleur de la zone rembourrée. Pour la syntaxe de cette option, cochez la case "Couleur"
dans le manuel ffmpeg-utils.

La valeur par défaut de Couleur est noir".

La valeur pour le largeur, la taille, xet y les options sont des expressions contenant les éléments suivants
constantes :

en W
in_h
La largeur et la hauteur de la vidéo d'entrée.

iw
ih Ce sont les mêmes que en W ainsi que in_h.

out_w
out_h
La largeur et la hauteur de sortie (la taille de la zone rembourrée), comme spécifié par le largeur
ainsi que la taille expressions.

ow
oh Ce sont les mêmes que out_w ainsi que out_h.

x
y Les décalages x et y tels que spécifiés par le x ainsi que y expressions, ou NAN si pas encore
spécifié.

a même que iw / ih

sar rapport d'aspect de l'échantillon d'entrée

donner rapport d'aspect d'affichage d'entrée, c'est le même que (iw / ih) * sar

hsub
vssub
Les valeurs de sous-échantillon de chrominance horizontale et verticale. Par exemple pour le format pixel
"yuv422p" hsub est 2 et vssub est 1.

Exemples

· Ajoutez des rembourrages avec la couleur "violet" à la vidéo d'entrée. La taille de la vidéo de sortie est
640x480, et le coin supérieur gauche de la vidéo d'entrée est placé à la colonne 0, rangée 40

pad=640:480:0:40:violet

L'exemple ci-dessus est équivalent à la commande suivante :

pad=largeur=640:hauteur=480:x=0:y=40:couleur=violet

· Complétez l'entrée pour obtenir une sortie avec des dimensions augmentées de 3/2, et mettez l'entrée
vidéo au centre de la zone capitonnée :

pad="3/2*iw:3/2*ih:(ow-iw)/2:(oh-ih)/2"

· Complétez l'entrée pour obtenir une sortie au carré avec une taille égale à la valeur maximale entre les
largeur et hauteur d'entrée, et placez la vidéo d'entrée au centre de la zone rembourrée :

pad="max(iw\,ih):ow:(ow-iw)/2:(oh-ih)/2"

· Complétez l'entrée pour obtenir un rapport w/h final de 16:9 :

pad="ih*16/9:ih:(ow-iw)/2:(oh-ih)/2"

· Dans le cas d'une vidéo anamorphique, afin de régler correctement l'aspect de l'affichage de sortie, il
est nécessaire d'utiliser sar dans l'expression, selon la relation :

(ih * X / ih) * sar = sortie_dar
X = sortie_dar / sar

Ainsi, l'exemple précédent doit être modifié pour :

pad="ih*16/9/sar:ih:(ow-iw)/2:(oh-ih)/2"

· Doublez la taille de sortie et placez la vidéo d'entrée dans le coin inférieur droit de la
zone rembourrée de sortie :

pad="2*iw:2*ih:ow-iw:oh-ih"

palettegen
Générez une palette pour un flux vidéo entier.

Il accepte les options suivantes :

max_couleurs
Définissez le nombre maximum de couleurs à quantifier dans la palette. Remarque : la palette
contiennent encore 256 couleurs; les entrées de palette inutilisées seront noires.

réserve_transparent
Créez une palette de 255 couleurs maximum et réservez la dernière pour la transparence.
La réservation de la couleur de transparence est utile pour l'optimisation GIF. S'il n'est pas défini, le
le maximum de couleurs dans la palette sera de 256. Vous voudrez probablement désactiver cette option
pour une image autonome. Défini par défaut.

stats_mode
Définir le mode statistiques.

Il accepte les valeurs suivantes :

plein
Calculez des histogrammes plein cadre.

diff
Calculez les histogrammes uniquement pour la partie qui diffère de l'image précédente. Cela pourrait
être pertinent pour donner plus d'importance à la partie mobile de votre entrée si le
l'arrière-plan est statique.

La valeur par défaut est plein.

Le filtre exporte également les métadonnées du cadre "lavfi.color_quant_ratio" ("nb_color_in /
nb_color_out") que vous pouvez utiliser pour évaluer le degré de quantification des couleurs du
palette. Ces informations sont également visibles sur info niveau de journalisation.

Exemples

· Générer une palette représentative d'une vidéo donnée en utilisant ffmpeg:

ffmpeg -i input.mkv -vf palettegen palette.png

paletteuse
Utilisez une palette pour sous-échantillonner un flux vidéo d'entrée.

Le filtre prend deux entrées : un flux vidéo et une palette. La palette doit être un 256
image en pixels.

Il accepte les options suivantes :

tergiversent
Sélectionnez le mode de tramage. Les algorithmes disponibles sont :

Bavière
Tramage bayer 8x8 commandé (déterministe)

Heckbert
Le tramage tel que défini par Paul Heckbert en 1982 (diffusion d'erreur simple). Noter:
ce tramage est parfois considéré comme « faux » et est inclus comme référence.

floyd_steinberg
Tramage Floyd et Steinberg (diffusion d'erreurs)

sierra2
Frankie Sierra tramage v2 (diffusion d'erreurs)

sierra2_4a
Frankie Sierra tramage v2 "Lite" (erreur de diffusion)

La valeur par défaut est sierra2_4a.

bayer_scale
Quand Bavière tramage est sélectionné, cette option définit l'échelle du motif (comment
beaucoup le motif hachuré est visible). Une valeur faible signifie un motif plus visible pour
moins de bandes et une valeur plus élevée signifie un motif moins visible au prix de plus de bandes.

L'option doit être une valeur entière dans la plage [0,5]. La valeur par défaut est 2.

mode_diff
Si défini, définissez la zone à traiter

rectangle
Seul le rectangle changeant sera retraité. Ceci est similaire au GIF
mécanisme de compression de recadrage/décalage. Cette option peut être utile pour la vitesse si
seule une partie de l'image change et a des cas d'utilisation tels que la limitation de la portée
de la diffusion d'erreur tergiversent au rectangle qui délimite la scène en mouvement (il
conduit à une sortie plus déterministe si la scène ne change pas beaucoup, et en tant que
résultat moins de bruit de mouvement et une meilleure compression GIF).

La valeur par défaut est aucun.

Exemples

· Utiliser une palette (générée par exemple avec palettegen) pour encoder un GIF en utilisant ffmpeg:

ffmpeg -i input.mkv -i palette.png -lavfi paletteuse output.gif

objectifs
Perspective correcte de la vidéo non enregistrée perpendiculairement à l'écran.

Une description des paramètres acceptés suit.

x0
y0
x1
y1
x2
y2
x3
y3 Définir l'expression des coordonnées en haut à gauche, en haut à droite, en bas à gauche et en bas à droite
coins. Les valeurs par défaut sont "0:0:W:0:0:H:W:H" avec lesquelles la perspective restera
inchangé. Si l'option "sens" est définie sur "source", alors les points spécifiés seront
être envoyé aux coins de la destination. Si l'option "sens" est définie sur
"destination", alors les coins de la source seront envoyés au
coordonnées.

Les expressions peuvent utiliser les variables suivantes :

W
H la largeur et la hauteur de l'image vidéo.

interpolation
Définir l'interpolation pour la correction de la perspective.

Il accepte les valeurs suivantes :

linéaire
cubique

La valeur par défaut est linéaire.

sens
Définir l'interprétation des options de coordonnées.

Il accepte les valeurs suivantes :

0, la source
Point d'envoi dans la source spécifié par les coordonnées données aux coins de la
destination.

1, destination
Envoyez les coins de la source au point de la destination spécifié par le
coordonnées données.

La valeur par défaut est la source.

phase
Retardez la vidéo entrelacée d'un temps de trame afin que l'ordre des trames change.

L'utilisation prévue est de corriger les films PAL qui ont été capturés avec le champ opposé
pour le transfert film-à-vidéo.

Une description des paramètres acceptés suit.

mode
Réglez le mode de phase.

Il accepte les valeurs suivantes :

t Capturez l'ordre des champs en premier, transférez en bas d'abord. Le filtre retardera le
champ du bas.

b Capturez l'ordre des champs en bas d'abord, transférez en haut d'abord. Le filtre retardera le sommet
champ.

p Capturez et transférez avec le même ordre de champ. Ce mode n'existe que pour le
documentation des autres options auxquelles se référer, mais si vous la sélectionnez réellement, le
le filtre ne fera fidèlement rien.

a Capturez l'ordre des champs déterminé automatiquement par les indicateurs de champ, transférez ci-contre.
Le filtre sélectionne parmi t ainsi que b modes trame par trame en utilisant des indicateurs de champ. Si
aucune information de champ n'est disponible, alors cela fonctionne comme u.

u Capture inconnue ou variable, transfert ci-contre. Le filtre sélectionne parmi t ainsi que b sur un
image par image en analysant les images et en sélectionnant l'alternative qui
produit la meilleure correspondance entre les champs.

T Capturez en premier, transfert inconnu ou variable. Le filtre sélectionne parmi t ainsi que p
en utilisant l'analyse d'images.

B Capturez par le bas en premier, transfert inconnu ou variable. Le filtre sélectionne parmi b ainsi que p
en utilisant l'analyse d'images.

A Capture déterminée par des indicateurs de terrain, transfert inconnu ou variable. Filtrer les sélections
parmi t, b ainsi que p en utilisant des indicateurs de terrain et l'analyse d'images. Si aucune information de champ n'est
disponible, alors cela fonctionne comme U. C'est le mode par défaut.

U Capture et transfert inconnus ou variables. Le filtre sélectionne parmi t, b ainsi que p
en utilisant uniquement l'analyse d'images.

pixdesctest
Filtre de test de descripteur de format de pixel, principalement utile pour les tests internes. La vidéo de sortie
doit être égal à la vidéo d'entrée.

Par exemple :

format=monow, pixdesctest

peut être utilisé pour tester la définition du descripteur de format de pixel monoblanc.

pp
Activez la chaîne spécifiée de sous-filtres de post-traitement à l'aide de libpostproc. Cette bibliothèque
devrait être automatiquement sélectionné avec une version GPL ("--enable-gpl"). Les sous-filtres doivent être
séparés par '/' et peuvent être désactivés en ajoutant un '-'. Chaque sous-filtre et quelques options
ont un nom court et un nom long qui peuvent être utilisés de manière interchangeable, c'est-à-dire dr/dering sont les
même.

Les filtres acceptent les options suivantes :

sous-filtres
Définir la chaîne de sous-filtres de post-traitement.

Tous les sous-filtres partagent des options communes pour déterminer leur portée :

a/autoq
Respectez les commandes de qualité pour ce sous-filtre.

c/chromé
Faites également un filtrage de chrominance (par défaut).

y/nochrome
Ne filtrez que la luminance (pas de chrominance).

n/noluma
Ne filtrez que la chrominance (pas de luminance).

Ces options peuvent être ajoutées après le nom du sous-filtre, séparées par un '|'.

Les sous-filtres disponibles sont :

hb/hdeblock[|différence[|planéité]]
Filtre de déblocage horizontal

différence
Facteur de différence où des valeurs plus élevées signifient plus de déblocage (par défaut : 32).

platitude
Seuil de planéité où des valeurs inférieures signifient plus de déblocage (par défaut : 39).

vb/vdeblock[|différence[|planéité]]
Filtre de déblocage vertical

différence
Facteur de différence où des valeurs plus élevées signifient plus de déblocage (par défaut : 32).

platitude
Seuil de planéité où des valeurs inférieures signifient plus de déblocage (par défaut : 39).

ha/hadeblock[|différence[|planéité]]
Filtre de déblocage horizontal précis

différence
Facteur de différence où des valeurs plus élevées signifient plus de déblocage (par défaut : 32).

platitude
Seuil de planéité où des valeurs inférieures signifient plus de déblocage (par défaut : 39).

va/vadeblock[|différence[|planéité]]
Filtre de déblocage vertical précis

différence
Facteur de différence où des valeurs plus élevées signifient plus de déblocage (par défaut : 32).

platitude
Seuil de planéité où des valeurs inférieures signifient plus de déblocage (par défaut : 39).

Les filtres de déblocage horizontal et vertical partagent les valeurs de différence et de planéité afin que
vous ne pouvez pas définir des seuils horizontaux et verticaux différents.

h1/x1hdebloc
Filtre de déblocage horizontal expérimental

v1/x1vdeblock
Filtre de déblocage vertical expérimental

docteur/dering
Filtre de deringing

tn/tmpnoise[|seuil1[|seuil2[|seuil3]]], temporel bruit réducteur
seuil1
plus grand -> filtrage plus fort

seuil2
plus grand -> filtrage plus fort

seuil3
plus grand -> filtrage plus fort

al/autolevels[:f/Fullrange], automatique luminosité / contraste de la plateforme prothétique
f/plage complète
Étirez la luminance à "0-255".

lb/linblenddeint
Filtre de désentrelacement de mélange linéaire qui désentrelace le bloc donné en filtrant tout
lignes avec un filtre "(1 2 1)".

li/linipoldeint
Filtre de désentrelacement à interpolation linéaire qui désentrelace le bloc donné en
interpolant linéairement toutes les deux lignes.

ci/cubicipoldeint
Le filtre de désentrelacement à interpolation cubique désentrelace le bloc donné en cubique
interpolant toutes les deux lignes.

md/mediadeint
Filtre de désentrelacement médian qui désentrelace le bloc donné en appliquant une médiane
filtre toutes les deux lignes.

fd/ffmpegdeint
Filtre de désentrelacement FFmpeg qui désentrelace le bloc donné en filtrant chaque
deuxième ligne avec un filtre "(-1 4 2 4 -1)".

l5/passe-bas5
Filtre de désentrelacement FIR passe-bas appliqué verticalement qui désentrelace le bloc donné
en filtrant toutes les lignes avec un filtre "(-1 2 6 2 -1)".

fq/forceQuant[|quantificateur]
Remplace la table de quantification de l'entrée par le quantificateur constant que vous spécifiez.

quantificateur
Quantificateur à utiliser

de/défaut
Combinaison de filtres pp par défaut ("hb|a,vb|a,dr|a")

fa/rapide
Combinaison de filtres pp rapide ("h1|a,v1|a,dr|a")

ac Combinaison de filtres pp de haute qualité ("ha|a|128|7,va|a,dr|a")

Exemples

· Appliquer un déblocage horizontal et vertical, un déringage et une luminosité/contraste automatique :

pp=hb/vb/dr/al

· Appliquer des filtres par défaut sans correction de luminosité/contraste :

pp=de/-al

· Appliquer les filtres par défaut et le débruiteur temporel :

pp=par défaut/tmpnoise|1|2|3

· Appliquez le déblocage sur la luminance uniquement et activez ou désactivez le déblocage vertical
automatiquement en fonction du temps CPU disponible :

pp=hb|y/vb|a

pp7
Appliquer le filtre de post-traitement 7. C'est une variante du spp filtre, similaire à spp = 6 avec 7
point DCT, où seul l'échantillon central est utilisé après IDCT.

Le filtre accepte les options suivantes :

qp Forcer un paramètre de quantification constant. Il accepte un entier compris entre 0 et 63. Si
pas défini, le filtre utilisera le QP du flux vidéo (si disponible).

mode
Définir le mode de seuillage. Les modes disponibles sont :

dur
Définir un seuillage strict.

qualité, que vous pourrez utilisé
Définissez un seuillage doux (meilleur effet de désactivation, mais probablement plus flou).

moyenne
Définir un seuillage moyen (bons résultats, par défaut).

psnr
Obtenir le PSNR (Peak Signal to Noise Ratio) moyen, maximum et minimum entre deux
vidéos d'entrée.

Ce filtre prend en entrée deux vidéos d'entrée, la première entrée est considérée comme la "principale"
source et est transmis sans modification à la sortie. La deuxième entrée est utilisée comme "référence"
vidéo pour le calcul du PSNR.

Les deux entrées vidéo doivent avoir la même résolution et le même format de pixel pour que ce filtre fonctionne
correctement. Il suppose également que les deux entrées ont le même nombre de trames, qui sont
comparés un par un.

Le PSNR moyen obtenu est imprimé via le système de journalisation.

Le filtre stocke le MSE accumulé (erreur quadratique moyenne) de chaque trame, et à la fin
du traitement, il est moyenné sur toutes les images de manière égale, et la formule suivante est
demandé pour obtenir le PSNR :

PSNR = 10*log10(MAX^2/MSE)

Où MAX est la moyenne des valeurs maximales de chaque composante de l'image.

La description des paramètres acceptés suit.

fichier_stats, f
Si spécifié, le filtre utilisera le fichier nommé pour enregistrer le PSNR de chaque individu
cadre.

Le fichier imprimé si fichier_statistiques est sélectionné, contient une séquence de paires clé/valeur du
formulaire key:Plus-value pour chaque couple d'images comparé.

Une description de chaque paramètre affiché suit :

n numéro séquentiel de la trame d'entrée, à partir de 1

mse_moy
Erreur quadratique moyenne différence moyenne pixel par pixel des images comparées, moyennée
sur tous les composants de l'image.

mse_y, mse_u, mse_v, mse_r, mse_g, mse_g, mse_a
Erreur quadratique moyenne différence moyenne pixel par pixel des images comparées pour le
composant spécifié par le suffixe.

psnr_y, psnr_u, psnr_v, psnr_r, psnr_g, psnr_b, psnr_a
Rapport signal/bruit de crête des trames comparées pour le composant spécifié par le
suffixe.

Par exemple :

movie=ref_movie.mpg, setpts=PTS-STARTPTS [principal] ;
[principal][ref] psnr="stats_file=stats.log" [sortie]

Sur cet exemple le fichier d'entrée en cours de traitement est comparé au fichier de référence
ref_film.mpg. Le PSNR de chaque trame individuelle est stocké dans statistiques.log.

remonter
Filtre d'inversion pulldown (télécinéma inverse), capable de gérer le télécinéma dur mixte,
Contenu progressif 24000/1001 ips et progressif 30000/1001 ips.

Le filtre pullup est conçu pour tirer parti du contexte futur dans la prise de ses décisions.
Ce filtre est sans état dans le sens où il ne se verrouille pas sur un modèle à suivre, mais
il attend plutôt avec impatience les champs suivants afin d'identifier les correspondances et de reconstruire
cadres progressifs.

Pour produire du contenu avec une fréquence d'images uniforme, insérez le filtre fps après pullup, utilisez
"fps=24000/1001" si la fréquence d'images d'entrée est de 29.97fps, "fps=24" pour 30fps et le (rare)
entrée télécinée 25fps.

Le filtre accepte les options suivantes :

jl
jr
jt
jb Ces options définissent la quantité de « poubelles » à ignorer à gauche, à droite, en haut et en bas
de l'image, respectivement. Gauche et droite sont en unités de 8 pixels, tandis que haut et
bas sont en unités de 2 lignes. La valeur par défaut est de 8 pixels de chaque côté.

sb Définissez les pauses strictes. Définir cette option sur 1 réduira les chances de filtre
générer une trame non concordante occasionnelle, mais cela peut également entraîner un nombre excessif
d'images à supprimer pendant les séquences à mouvement élevé. Inversement, le mettre à -1
rendra les champs de correspondance de filtre plus faciles. Cela peut aider au traitement de la vidéo où
il y a un léger flou entre les champs, mais peut aussi provoquer un entrelacement
trames dans la sortie. La valeur par défaut est 0.

mp Définissez le plan métrique à utiliser. Il accepte les valeurs suivantes :

l Utilisez le plan luma.

u Utilisez le plan bleu chroma.

v Utilisez le plan rouge chroma.

Cette option peut être définie pour utiliser le plan de chrominance au lieu du plan de luminance par défaut pour faire
calculs du filtre. Cela peut améliorer la précision sur du matériel source très propre, mais
plus probablement diminuera la précision, surtout s'il y a du bruit de chrominance (arc-en-ciel
effet) ou n'importe quelle vidéo en niveaux de gris. Le but principal de la mise mp à un plan de chrominance est
pour réduire la charge CPU et rendre le pullup utilisable en temps réel sur les machines lentes.

Pour de meilleurs résultats (sans cadres dupliqués dans le fichier de sortie), il est nécessaire de changer
la fréquence d'images de sortie. Par exemple, pour inverser l'entrée NTSC télécinéma :

ffmpeg -i entrée -vf pullup -r 24000/1001 ...

qp
Modifiez les paramètres de quantification vidéo (QP).

Le filtre accepte l'option suivante :

qp Définir l'expression pour le paramètre de quantification.

L'expression est évaluée via l'API eval et peut contenir, entre autres, le
constantes suivantes :

connu
1 si l'indice n'est pas 129, 0 sinon.

qp Indice séquentiel commençant de -129 à 128.

Exemples

· Quelques équations comme :

qp=2+2*péché(PI*qp)

aléatoire
Videz les images vidéo du cache interne des images dans un ordre aléatoire. Aucun cadre n'est
mis au rebut. Inspiré par plus libre filtre nerveux.

cadres
Définir la taille en nombre de trames du cache interne, dans une plage de 2 à 512. La valeur par défaut est 30.

seed
Définir la graine pour le générateur de nombres aléatoires, doit être un entier compris entre 0 et
"UINT32_MAX". S'il n'est pas spécifié, ou s'il est explicitement défini sur moins de 0, le filtre
essayez d'utiliser une bonne graine aléatoire sur la base du meilleur effort.

enlever le grain
Le filtre removegrain est un débruiteur spatial pour la vidéo progressive.

m0 Définir le mode pour le premier avion.

m1 Définir le mode pour le deuxième plan.

m2 Définir le mode pour le troisième plan.

m3 Réglez le mode pour le quatrième plan.

La plage de modes va de 0 à 24. La description de chaque mode est la suivante :

0 Laissez le plan d'entrée inchangé. Défaut.

1 Coupe le pixel avec le minimum et le maximum des 8 pixels voisins.

2 Coupe le pixel avec les deuxièmes minimum et maximum des 8 pixels voisins.

3 Coupe le pixel avec le troisième minimum et maximum des 8 pixels voisins.

4 Coupe le pixel avec le quatrième minimum et maximum des 8 pixels voisins. Cette
équivaut à un filtre médian.

5 Coupure sensible à la ligne donnant le changement minimal.

6 Coupure sensible à la ligne, intermédiaire.

7 Coupure sensible à la ligne, intermédiaire.

8 Coupure sensible à la ligne, intermédiaire.

9 Découpage sensible à la ligne sur une ligne où les pixels voisins sont les plus proches.

10 Remplace le pixel cible par le plus proche voisin.

11 [1 2 1] flou de noyau horizontal et vertical.

12 Identique au mode 11.

13 Mode Bob, interpole le champ supérieur à partir de la ligne où les pixels voisins sont les
le plus proche.

14 Mode Bob, interpole le champ inférieur à partir de la ligne où les pixels voisins sont les
le plus proche.

15 Mode Bob, interpole le champ supérieur. Identique à 13 mais avec une interpolation plus compliquée
formule.

16 Mode Bob, interpole le champ inférieur. Identique au 14 mais avec un plus compliqué
formule d'interpolation.

17 Coupe le pixel avec le minimum et le maximum respectivement le maximum et le minimum
de chaque paire de pixels voisins opposés.

18 Coupure sensible aux lignes utilisant des voisins opposés dont la plus grande distance de la
le pixel actuel est minime.

19 Remplace le pixel par la moyenne de ses 8 voisins.

20 Fait la moyenne des 9 pixels ([1 1 1] flou horizontal et vertical).

21 Coupe les pixels en utilisant les moyennes du voisin opposé.

22 Identique au mode 21 mais plus simple et plus rapide.

23 Petit retrait de bord et de halo, mais réputé inutile.

24 Similaire au 23.

supprimer le logo
Supprimez le logo d'une chaîne de télévision à l'aide d'un fichier image pour déterminer quels pixels constituent le
logo. Il fonctionne en remplissant les pixels qui composent le logo avec les pixels voisins.

Le filtre accepte les options suivantes :

nom de fichier, f
Définissez le fichier bitmap de filtre, qui peut être n'importe quel format d'image pris en charge par libavformat.
La largeur et la hauteur du fichier image doivent correspondre à celles du flux vidéo en cours
traité.

Les pixels de l'image bitmap fournie avec une valeur de zéro ne sont pas considérés comme faisant partie du
logo, les pixels non nuls sont considérés comme faisant partie du logo. Si vous utilisez du blanc (255) pour le logo
et noir (0) pour le reste, vous serez en sécurité. Pour faire le filtre bitmap, il est
recommandé de prendre une capture d'écran d'un cadre noir avec le logo visible, puis
en utilisant un filtre à seuil suivi du filtre d'érosion une ou deux fois.

Si nécessaire, de petites taches peuvent être corrigées manuellement. N'oubliez pas que si les pixels du logo ne sont pas
couvert, la qualité du filtre sera très réduite. Marquer trop de pixels dans le
le logo ne fait pas autant mal, mais il augmentera la quantité de flou nécessaire pour couvrir
sur l'image et détruira plus d'informations que nécessaire, et des pixels supplémentaires
ralentir les choses sur un grand logo.

champs de répétition
Ce filtre utilise le drapeau repeat_field des en-têtes Video ES et des champs de répétitions dures
en fonction de sa valeur.

sens inverse, sont inversés
Inverser un clip.

Avertissement : Ce filtre nécessite de la mémoire pour mettre en mémoire tampon l'intégralité du clip, c'est pourquoi un rognage est suggéré.

Exemples

· Prenez les 5 premières secondes d'un clip et inversez-le.

trim=fin=5,inverse

tourner
Faites pivoter la vidéo d'un angle arbitraire exprimé en radians.

Le filtre accepte les options suivantes :

Une description des paramètres facultatifs suit.

angle, a
Définissez une expression pour l'angle de rotation de la vidéo d'entrée dans le sens des aiguilles d'une montre,
exprimé en nombre de radians. Une valeur négative entraînera un
rotation. Par défaut, il est défini sur "0".

Cette expression est évaluée pour chaque trame.

dehors_w, ow
Définissez l'expression de largeur de sortie, la valeur par défaut est "iw". Cette expression est évaluée
une seule fois lors de la configuration.

out_h, oh
Définissez l'expression de hauteur de sortie, la valeur par défaut est "ih". Cette expression est évaluée
une seule fois lors de la configuration.

bilinéaire
Activez l'interpolation bilinéaire si elle est définie sur 1, une valeur de 0 la désactive. La valeur par défaut est
1.

la couleur de remplissage, c
Définissez la couleur utilisée pour remplir la zone de sortie non couverte par l'image pivotée. Pour le
syntaxe générale de cette option, vérifiez la section "Couleur" dans le manuel ffmpeg-utils.
Si la valeur spéciale "aucun" est sélectionnée, aucun arrière-plan n'est imprimé (utile pour
exemple si l'arrière-plan n'est jamais affiché).

La valeur par défaut est "noir".

Les expressions pour l'angle et la taille de sortie peuvent contenir les constantes suivantes et
les fonctions:

n numéro séquentiel de la trame d'entrée, à partir de 0. C'est toujours NAN avant le
la première image est filtrée.

t temps en secondes de la trame d'entrée, il est mis à 0 lorsque le filtre est configuré. Ce
est toujours NAN avant que la première trame ne soit filtrée.

hsub
vssub
valeurs de sous-échantillon de chrominance horizontale et verticale. Par exemple pour le format pixel
"yuv422p" hsub est 2 et vssub est 1.

en W, iw
in_h, ih
la largeur et la hauteur de la vidéo d'entrée

dehors_w, ow
out_h, oh
la largeur et la hauteur de sortie, c'est-à-dire la taille de la zone rembourrée telle que spécifiée par le
largeur ainsi que la taille expressions

rotw(a)
roth(a)
la largeur/hauteur minimale requise pour contenir complètement la vidéo d'entrée tournée de
a radians.

Ceux-ci ne sont disponibles que lors du calcul du out_w ainsi que out_h expressions.

Exemples

· Tournez l'entrée de PI/6 radians dans le sens des aiguilles d'une montre :

rotation=PI/6

· Tournez l'entrée de PI/6 radians dans le sens inverse des aiguilles d'une montre :

rotation=-PI/6

· Faites pivoter l'entrée de 45 degrés dans le sens des aiguilles d'une montre :

rotation=45*PI/180

· Appliquer une rotation constante de période T, en partant d'un angle PI/3 :

rotation=PI/3+2*PI*t/T

· Faire osciller la rotation vidéo d'entrée avec une période de T secondes et une amplitude
de A radians :

rotation=A*sin(2*PI/T*t)

· Faites pivoter la vidéo, la taille de sortie est choisie de sorte que toute la vidéo d'entrée rotative soit
toujours complètement contenu dans la sortie :

rotate='2*PI*t:ow=hypot(iw,ih):oh=ow'

· Faites pivoter la vidéo, réduisez la taille de sortie afin qu'aucun arrière-plan ne soit jamais affiché :

rotation=2*PI*t:ow='min(iw,ih)/sqrt(2)':oh=ow:c=aucun

Commandes

Le filtre prend en charge les commandes suivantes :

a, angle
Définissez l'expression de l'angle. La commande accepte la même syntaxe du correspondant
option.

Si l'expression spécifiée n'est pas valide, elle est conservée à sa valeur actuelle.

sab
Appliquez le flou adaptatif de forme.

Le filtre accepte les options suivantes :

luma_radius, lr
Définir la force du filtre de flou luma, doit être une valeur comprise entre 0.1 et 4.0, la valeur par défaut est 1.0.
Une valeur plus élevée entraînera une image plus floue et un traitement plus lent.

luma_pre_filter_radius, lpfr
Définir le rayon de pré-filtre luma, doit être une valeur dans la plage 0.1-2.0, la valeur par défaut est
1.0.

luma_force, ls
Définir la différence maximale de luminance entre les pixels à prendre en compte, doit être une valeur dans
la plage 0.1-100.0, la valeur par défaut est 1.0.

chroma_radius, cr
Définir la force du filtre de flou de chrominance, doit être une valeur comprise entre 0.1 et 4.0. Une plus grande valeur
entraînera une image plus floue et un traitement plus lent.

chroma_pre_filter_radius, cpfr
Définir le rayon du pré-filtre de chrominance, doit être une valeur comprise entre 0.1 et 2.0.

chroma_force, cs
Définir la différence maximale de chrominance entre les pixels à prendre en compte, doit être une valeur
dans la gamme 0.1-100.0.

Chaque valeur d'option de chrominance, si elle n'est pas explicitement spécifiée, est définie sur la luminance correspondante
valeur d'option.

escaliers
Mettez à l'échelle (redimensionnez) la vidéo d'entrée à l'aide de la bibliothèque libswscale.

Le filtre d'échelle force le rapport hauteur/largeur de l'affichage de sortie à être le même que celui de l'entrée, en
changer le rapport hauteur/largeur de l'échantillon de sortie.

Si le format de l'image d'entrée est différent du format demandé par le filtre suivant, le
Le filtre d'échelle convertira l'entrée au format demandé.

Options

Le filtre accepte les options suivantes, ou n'importe laquelle des options prises en charge par le
Scaler libswscale.

See le ffmpeg-scaler Manuel pour la liste complète des options de mise à l'échelle.

largeur, w
la taille, h
Définissez l'expression de dimension de la vidéo de sortie. La valeur par défaut est la dimension d'entrée.

Si la valeur est 0, la largeur d'entrée est utilisée pour la sortie.

Si l'une des valeurs est -1, le filtre d'échelle utilisera une valeur qui maintient le
rapport hauteur/largeur de l'image d'entrée, calculé à partir de l'autre dimension spécifiée. Si
les deux sont -1, la taille d'entrée est utilisée

Si l'une des valeurs est -n avec n > 1, le filtre d'échelle utilisera également une valeur qui
maintient le rapport hauteur/largeur de l'image d'entrée, calculé à partir de l'autre spécifié
dimension. Après cela, il s'assurera cependant que la dimension calculée est
divisible par n et ajustez la valeur si nécessaire.

Voir ci-dessous pour la liste des constantes acceptées à utiliser dans l'expression de dimension.

interl
Réglez le mode d'entrelacement. Il accepte les valeurs suivantes :

1 Forcer la mise à l'échelle consciente entrelacée.

0 N'appliquez pas de mise à l'échelle entrelacée.

-1 Sélectionnez la mise à l'échelle consciente entrelacée selon que les images source sont signalées ou non
comme entrelacé ou non.

La valeur par défaut est 0.

drapeaux
Définissez les indicateurs de mise à l'échelle de libswscale. Voir le ffmpeg-scaler Manuel pour la liste complète des
valeurs. S'il n'est pas explicitement spécifié, le filtre applique les indicateurs par défaut.

Taille, s
Définissez la taille de la vidéo. Pour la syntaxe de cette option, cochez la case "Vidéo Taille" in
le ffmpeg-utils Manuel.

in_color_matrix
out_color_matrix
Définir le type d'espace colorimétrique YCbCr en entrée/sortie.

Cela permet de remplacer la valeur détectée automatiquement et de forcer un
valeur spécifique utilisée pour la sortie et l'encodeur.

S'il n'est pas spécifié, le type d'espace colorimétrique dépend du format de pixel.

Valeurs possibles:

auto
Choisissez automatiquement.

bt709
Format conforme à la recommandation de l'Union internationale des télécommunications (UIT)
BT.709.

Fcc Définir un espace colorimétrique conforme à la Federal Communications Commission des États-Unis
(FCC) Code des réglementations fédérales (CFR) Titre 47 (2003) 73.682 (a).

bt601
Définir l'espace colorimétrique conformément à :

· Recommandation BT.601 du secteur des radiocommunications de l'UIT (UIT-R)

· Rec. UIT-R. BT.470-6 (1998) Systèmes B, B1 et G

· Société des ingénieurs du cinéma et de la télévision (SMPTE) ST 170:2004

smpte240m
Définissez l'espace colorimétrique conformément à SMPTE ST 240:1999.

dans la gamme
avoir une grande portée
Définir la plage d'échantillons YCbCr d'entrée/sortie.

Cela permet de remplacer la valeur détectée automatiquement et de forcer un
valeur spécifique utilisée pour la sortie et l'encodeur. Si non spécifié, la plage dépend de
le format de pixels. Valeurs possibles:

auto
Choisissez automatiquement.

jpeg/complet/pc
Réglez la plage complète (0-255 en cas de luminance 8 bits).

mpeg/télé
Réglez la plage "MPEG" (16-235 en cas de luminance 8 bits).

force_original_aspect_ratio
Activez la diminution ou l'augmentation de la largeur ou de la hauteur de la vidéo de sortie si nécessaire pour conserver la
rapport hauteur/largeur d'origine. Valeurs possibles:

désactiver
Mettez la vidéo à l'échelle comme spécifié et désactivez cette fonctionnalité.

diminuer
Les dimensions de la vidéo de sortie seront automatiquement réduites si nécessaire.

augmenter
Les dimensions de la vidéo de sortie seront automatiquement augmentées si nécessaire.

Un exemple utile de cette option est que lorsque vous connaissez le maximum d'un périphérique spécifique
résolution autorisée, vous pouvez l'utiliser pour limiter la sortie vidéo à cela, tandis que
en conservant le rapport hauteur/largeur. Par exemple, l'appareil A permet la lecture 1280x720, et votre
la vidéo est en 1920x800. En utilisant cette option (définissez-la pour diminuer) et en spécifiant 1280x720 à
la ligne de commande fait la sortie 1280x533.

Veuillez noter qu'il s'agit d'une chose différente de la spécification de -1 pour w or htu es toujours
devez spécifier la résolution de sortie pour que cette option fonctionne.

Les valeurs de la w ainsi que h les options sont des expressions contenant les constantes suivantes :

en W
in_h
La largeur et la hauteur d'entrée

iw
ih Ce sont les mêmes que en W ainsi que in_h.

out_w
out_h
La largeur et la hauteur de sortie (mise à l'échelle)

ow
oh Ce sont les mêmes que out_w ainsi que out_h

a Le même que iw / ih

sar rapport d'aspect de l'échantillon d'entrée

donner Le rapport hauteur/largeur d'affichage d'entrée. Calculé à partir de "(iw / ih) * sar".

hsub
vssub
valeurs de sous-échantillon de chrominance d'entrée horizontale et verticale. Par exemple pour le pixel
format "yuv422p" hsub est 2 et vssub est 1.

ohsub
ovsub
valeurs de sous-échantillon de chrominance de sortie horizontale et verticale. Par exemple pour le pixel
format "yuv422p" hsub est 2 et vssub est 1.

Exemples

· Mettre à l'échelle la vidéo d'entrée à une taille de 200x100

échelle=w=200:h=100

Cela équivaut à:

échelle=200:100

ou:

échelle=200x100

· Spécifiez une abréviation de taille pour la taille de sortie :

échelle=qcif

qui peut aussi s'écrire :

échelle=taille=qcif

· Mettre à l'échelle l'entrée à 2x :

échelle=w=2*iw:h=2*ih

· Ce qui précède est le même que :

échelle=2*in_w:2*in_h

· Mettre à l'échelle l'entrée à 2x avec une mise à l'échelle entrelacée forcée :

échelle=2*iw:2*ih:interl=1

· Réduisez l'entrée de moitié :

échelle=w=iw/2:h=ih/2

· Augmentez la largeur et réglez la hauteur à la même taille :

échelle=3/2*iw:ow

· Rechercher l'harmonie grecque :

échelle=iw:1/PHI*iw
échelle=ih*PHI:ih

· Augmentez la hauteur, et réglez la largeur à 3/2 de la hauteur :

échelle=w=3/2*oh:h=3/5*ih

· Augmentez la taille, en faisant de la taille un multiple des valeurs du sous-échantillon de chrominance :

scale="trunc(3/2*iw/hsub)*hsub:trunc(3/2*ih/vsub)*vsub"

· Augmentez la largeur jusqu'à un maximum de 500 pixels, en conservant le même rapport hauteur/largeur que le
contribution:

échelle=w='min(500\, iw*3/2):h=-1'

Commandes

Ce filtre prend en charge les commandes suivantes :

largeur, w
la taille, h
Définissez l'expression de dimension de la vidéo de sortie. La commande accepte la même syntaxe du
option correspondante.

Si l'expression spécifiée n'est pas valide, elle est conservée à sa valeur actuelle.

échelle2réf
Mettez à l'échelle (redimensionnez) la vidéo d'entrée, en fonction d'une vidéo de référence.

Voir le filtre d'échelle pour les options disponibles, scale2ref prend en charge la même chose mais utilise le
vidéo de référence au lieu de l'entrée principale comme base.

Exemples

· Mettre à l'échelle un flux de sous-titres pour qu'il corresponde à la taille de la vidéo principale avant la superposition

'scale2ref[b][a];[a][b]superposition'

champs séparés
Les "separatefields" prennent une entrée vidéo basée sur des images et divisent chaque image en son
champs de composants, produisant un nouveau clip à mi-hauteur avec deux fois la fréquence d'images et deux fois
le nombre de trames.

Ce filtre utilise des informations de dominance de champ dans la trame pour décider laquelle de chaque paire de
champs à placer en premier dans la sortie. S'il se trompe, utilisez champ de définition filtrer avant
filtre "champs séparés".

Setdar, setar
Le filtre "setdar" définit le rapport d'aspect d'affichage pour la vidéo de sortie du filtre.

Cela se fait en modifiant le rapport d'aspect de l'échantillon (alias Pixel) spécifié, en fonction du
équation suivante :

= / *

Gardez à l'esprit que le filtre "setdar" ne modifie pas les dimensions en pixels de la vidéo
Cadre. De plus, le rapport hauteur/largeur d'affichage défini par ce filtre peut être modifié par des filtres ultérieurs
dans la chaîne de filtrage, par exemple en cas de mise à l'échelle ou si un autre filtre « setdar » ou un « setsar » est
appliqué.

Le filtre "setsar" définit le rapport d'aspect de l'échantillon (alias Pixel) pour la vidéo de sortie du filtre.

Notez qu'en conséquence de l'application de ce filtre, l'aspect d'affichage de la sortie
rapport changera selon l'équation ci-dessus.

Gardez à l'esprit que le rapport hauteur/largeur de l'échantillon défini par le filtre « setsar » peut être modifié par
filtres ultérieurs dans la chaîne de filtrage, par exemple si un autre filtre "setsar" ou "setdar" est
appliqué.

Il accepte les paramètres suivants :

r, rapport, donner ("setdar" seulement), sar ("setsar" seulement)
Définissez le rapport hauteur/largeur utilisé par le filtre.

Le paramètre peut être une chaîne de nombres à virgule flottante, une expression ou une chaîne de
formulaire num:jour, Où num ainsi que jour sont le numérateur et le dénominateur du rapport hauteur/largeur.
Si le paramètre n'est pas spécifié, il prend la valeur "0". Au cas où le formulaire
"num:jour" est utilisé, le caractère ":" doit être échappé.

max Définissez la valeur entière maximale à utiliser pour exprimer le numérateur et le dénominateur lorsque
réduire le rapport hauteur/largeur exprimé à un rationnel. La valeur par défaut est 100.

Le paramètre sar est une expression contenant les constantes suivantes :

E, PI, PHI
Ce sont des valeurs approximatives pour les constantes mathématiques e (nombre d'Euler), pi
(grec pi) et phi (le nombre d'or).

w, h
La largeur et la hauteur d'entrée.

a Ce sont les mêmes que w / h.

sar Le rapport hauteur/largeur de l'échantillon d'entrée.

donner Le rapport hauteur/largeur d'affichage d'entrée. C'est la même chose que (w / h) * sar.

hsub, vssub
Valeurs des sous-échantillons de chrominance horizontale et verticale. Par exemple, pour le format pixel
"yuv422p" hsub est 2 et vssub est 1.

Exemples

· Pour modifier le format d'affichage de l'affichage en 16:9, spécifiez l'un des éléments suivants :

setdar=dar=1.77777
setdar=dar=16/9
setdar=dar=1.77777

· Pour changer le rapport hauteur/largeur de l'échantillon à 10:11, spécifiez :

setsar=sar=10/11

· Pour définir un rapport hauteur/largeur d'affichage de 16:9 et spécifier une valeur entière maximale de 1000 dans
la réduction des proportions, utilisez la commande :

setdar=rapport=16/9:max=1000

champ de définition
Champ de force pour l'image vidéo de sortie.

Le filtre "setfield" marque le champ de type entrelacé pour les trames de sortie. Ce ne est pas
modifier le cadre d'entrée, mais ne définit que la propriété correspondante, ce qui affecte la façon dont le
frame est traité par les filtres suivants (par exemple "fieldorder" ou "yadif").

Le filtre accepte les options suivantes :

mode
Les valeurs disponibles sont :

auto
Gardez la même propriété de champ.

bff Marquez le cadre comme étant le champ du bas en premier.

tff Marquez le cadre comme top-field-first.

prog
Marquez le cadre comme progressif.

afficher les informations
Affiche une ligne contenant diverses informations pour chaque image vidéo d'entrée. La vidéo d'entrée est
non modifié.

La ligne affichée contient une séquence de paires clé/valeur de la forme key:Plus-value.

Les valeurs suivantes sont affichées dans la sortie :

n Le numéro (séquentiel) de la trame d'entrée, à partir de 0.

pts L'horodatage de présentation de la trame d'entrée, exprimé en nombre de base de temps
unités. L'unité de base de temps dépend du tampon d'entrée du filtre.

pts_heure
L'horodatage de présentation de la trame d'entrée, exprimé en nombre de secondes.

poster La position de la trame dans le flux d'entrée, ou -1 si cette information est
indisponible et/ou dénuée de sens (par exemple en cas de vidéo de synthèse).

fmt Le nom du format de pixel.

sar Le rapport hauteur/largeur de l'échantillon de l'image d'entrée, exprimé sous la forme num/jour.

s La taille du cadre d'entrée. Pour la syntaxe de cette option, cochez la case "Vidéo Taille"
in le ffmpeg-utils Manuel.

i Le type de mode entrelacé ("P" pour "progressif", "T" pour champ supérieur en premier, "B" pour
champ du bas en premier).

C est la clé
C'est 1 si l'image est une image clé, 0 sinon.

type
Le type d'image du cadre d'entrée ("I" pour un cadre I, "P" pour un cadre P, "B" pour un
B-frame, ou "?" pour un type inconnu). Se référer également à la documentation du
Enum "AVPictureType" et de la fonction "av_get_picture_type_char" définie dans
libavutil/avutil.h.

somme de contrôle
La somme de contrôle Adler-32 (imprimée en hexadécimal) de tous les plans de la trame d'entrée.

somme_de_contrôle
La somme de contrôle Adler-32 (imprimée en hexadécimal) de chaque plan de la trame d'entrée,
exprimé sous la forme "[c0 c1 c2 c3]".

palette d'exposition
Affiche la palette de 256 couleurs de chaque image. Ce filtre n'est pertinent que pour pal8 pixel
formater les cadres.

Il accepte l'option suivante :

s Définissez la taille de la boîte utilisée pour représenter une entrée de couleur de palette. La valeur par défaut est 30 (pour
une boîte de pixels "30x30").

avions shuffle
Réorganiser et/ou dupliquer les plans vidéo.

Il accepte les paramètres suivants :

map0
L'indice du plan d'entrée à utiliser comme premier plan de sortie.

map1
L'indice du plan d'entrée à utiliser comme deuxième plan de sortie.

map2
L'indice du plan d'entrée à utiliser comme troisième plan de sortie.

map3
L'indice du plan d'entrée à utiliser comme quatrième plan de sortie.

Le premier plan a l'index 0. La valeur par défaut est de garder l'entrée inchangée.

Échangez les deuxième et troisième plans de l'entrée :

ffmpeg -i INPUT -vf shuffleplanes=0:2:1:3 SORTIE

statistiques de signal
Évaluer diverses mesures visuelles qui aident à déterminer les problèmes associés au
numérisation de supports vidéo analogiques.

Par défaut, le filtre enregistre ces valeurs de métadonnées :

YMIN
Affiche la valeur Y minimale contenue dans le cadre d'entrée. Exprimé en gamme de
[0-255].

JAUNE
Affichez la valeur Y au centile de 10 % dans le cadre d'entrée. Exprimé en gamme
de [0-255].

YAVG
Affichez la valeur Y moyenne dans le cadre d'entrée. Exprimé dans la plage de [0-255].

YHAUT
Affichez la valeur Y au centile de 90 % dans le cadre d'entrée. Exprimé en gamme
de [0-255].

YMAX
Affiche la valeur Y maximale contenue dans le cadre d'entrée. Exprimé en gamme de
[0-255].

UMIN
Affiche la valeur U minimale contenue dans le cadre d'entrée. Exprimé en gamme de
[0-255].

UBAS
Affichez la valeur U au centile de 10 % dans le cadre d'entrée. Exprimé en gamme
de [0-255].

UAVG
Affiche la valeur U moyenne dans le cadre d'entrée. Exprimé dans la plage de [0-255].

ÉLEVÉ
Affichez la valeur U au centile de 90 % dans le cadre d'entrée. Exprimé en gamme
de [0-255].

UMAX
Affiche la valeur U maximale contenue dans le cadre d'entrée. Exprimé en gamme de
[0-255].

VMIN
Affiche la valeur V minimale contenue dans le cadre d'entrée. Exprimé en gamme de
[0-255].

VBAS
Affichez la valeur V au centile de 10 % dans le cadre d'entrée. Exprimé en gamme
de [0-255].

VAVG
Affichez la valeur V moyenne dans le cadre d'entrée. Exprimé dans la plage de [0-255].

VÉLEVÉ
Affichez la valeur V au centile de 90 % dans le cadre d'entrée. Exprimé en gamme
de [0-255].

Vmax
Affiche la valeur V maximale contenue dans la trame d'entrée. Exprimé en gamme de
[0-255].

SAMIN
Affiche la valeur de saturation minimale contenue dans le cadre d'entrée. Exprimée en
plage de [0-~181.02].

SATLOW
Affichez la valeur de saturation au centile de 10 % dans le cadre d'entrée. Exprimé
dans la plage de [0-~181.02].

SATAVG
Affiche la valeur de saturation moyenne dans le cadre d'entrée. Exprimé en gamme de
[0-~181.02].

SATISFAIT
Affichez la valeur de saturation au centile de 90 % dans le cadre d'entrée. Exprimé
dans la plage de [0-~181.02].

SATMAX
Affiche la valeur de saturation maximale contenue dans la trame d'entrée. Exprimée en
plage de [0-~181.02].

HUMÉ
Affiche la valeur médiane de la teinte dans le cadre d'entrée. Exprimé en gamme de
[0-360].

HUEAVG
Affiche la valeur moyenne de la teinte dans le cadre d'entrée. Exprimé en gamme de
[0-360].

YDIF
Afficher la moyenne de la différence de valeur d'échantillon entre toutes les valeurs du plan Y dans
la trame actuelle et les valeurs correspondantes de la trame d'entrée précédente. Exprimée en
plage de [0-255].

UDIF
Afficher la moyenne de la différence de valeur d'échantillon entre toutes les valeurs du plan U dans
la trame actuelle et les valeurs correspondantes de la trame d'entrée précédente. Exprimée en
plage de [0-255].

VDIF
Afficher la moyenne de la différence de valeur d'échantillon entre toutes les valeurs du plan V dans
la trame actuelle et les valeurs correspondantes de la trame d'entrée précédente. Exprimée en
plage de [0-255].

Le filtre accepte les options suivantes :

état
ande état spécifier une forme supplémentaire d'analyse d'image. ande sortie vidéo avec le
type de pixel spécifié mis en surbrillance.

Les deux options acceptent les valeurs suivantes :

vanter
Identifier temporel valeurs aberrantes pixels. UNE temporel valeur aberrante est un pixel contrairement au
pixels voisins du même champ. Des exemples de valeurs aberrantes temporelles incluent le
résultats d'abandons vidéo, d'obstructions de la tête ou de problèmes de suivi de bande.

vrep
Identifier vertical en ligne répétition. La répétition de ligne verticale comprend des lignes similaires
de pixels dans un cadre. Dans la vidéo numérique née, la répétition des lignes verticales est
commun, mais ce modèle est rare dans la vidéo numérisée à partir d'une source analogique.
Lorsqu'il se produit dans une vidéo résultant de la numérisation d'une source analogique, il
peut indiquer la dissimulation d'un compensateur de décrochage.

apporter
Identifiez les pixels qui se trouvent en dehors de la plage de diffusion légale.

couleur, c
Définissez la couleur de surbrillance pour le ande option. La couleur par défaut est le jaune.

Exemples

· Données de sortie de diverses métriques vidéo :

ffprobe -f lavfi movie=example.mov,signalstats="stat=tout+vrep+brng" -show_frames

· Sortir des données spécifiques sur les valeurs minimales et maximales du plan Y par image :

ffprobe -f lavfi movie=example.mov,signalstats -show_entries frame_tags=lavfi.signalstats.YMAX,lavfi.signalstats.YMIN

· Lecture vidéo tout en mettant en surbrillance les pixels qui sont en dehors de la plage de diffusion en rouge.

ffplay example.mov -vf signalstats="out=brng:color=red"

· Vidéo de lecture avec les métadonnées de signalstats dessinées sur le cadre.

ffplay example.mov -vf signalstats=stat=brng+vrep+tout,drawtext=fontfile=FreeSerif.ttf:textfile=signalstat_drawtext.txt

Le contenu de signalstat_drawtext.txt utilisé dans la commande est :

temps %{pts:hms}
Oui (%{metadata:lavfi.signalstats.YMIN}-%{metadata:lavfi.signalstats.YMAX})
U (%{metadata:lavfi.signalstats.UMIN}-%{metadata:lavfi.signalstats.UMAX})
V (%{metadata:lavfi.signalstats.VMIN}-%{metadata:lavfi.signalstats.VMAX})
saturation maximale : %{metadata:lavfi.signalstats.SATMAX}

flou artistique
Flou la vidéo d'entrée sans affecter les contours.

Il accepte les options suivantes :

luma_radius, lr
Réglez le rayon de luminance. La valeur de l'option doit être un nombre flottant dans la plage [0.1,5.0]
qui spécifie la variance du filtre gaussien utilisé pour flouter l'image (plus lent si
plus grand). La valeur par défaut est 1.0.

luma_force, ls
Réglez la force de luminance. La valeur de l'option doit être un nombre flottant dans la plage [-1.0,1.0]
qui configure le flou. Une valeur incluse dans [0.0,1.0] brouillera l'image
alors qu'une valeur incluse dans [-1.0,0.0] affinera l'image. La valeur par défaut est 1.0.

luma_threshold, lt
Définissez le seuil de luminance utilisé comme coefficient pour déterminer si un pixel doit être
flou ou pas. La valeur de l'option doit être un entier compris dans la plage [-30,30]. Une valeur de
0 filtrera toute l'image, une valeur comprise dans [0,30] filtrera les aplats et un
la valeur incluse dans [-30,0] filtrera les bords. La valeur par défaut est 0.

chroma_radius, cr
Définissez le rayon de chrominance. La valeur de l'option doit être un nombre flottant dans la plage [0.1,5.0]
qui spécifie la variance du filtre gaussien utilisé pour flouter l'image (plus lent si
plus grand). La valeur par défaut est 1.0.

chroma_force, cs
Réglez la force de chrominance. La valeur de l'option doit être un nombre flottant dans la plage
[-1.0,1.0] qui configure le flou. Une valeur incluse dans [0.0,1.0] brouillera le
l'image alors qu'une valeur incluse dans [-1.0,0.0] affinera l'image. La valeur par défaut est
1.0.

chroma_threshold, ct
Définissez le seuil de chrominance utilisé comme coefficient pour déterminer si un pixel doit être
flou ou pas. La valeur de l'option doit être un entier compris dans la plage [-30,30]. Une valeur de
0 filtrera toute l'image, une valeur comprise dans [0,30] filtrera les aplats et un
la valeur incluse dans [-30,0] filtrera les bords. La valeur par défaut est 0.

Si une option de chrominance n'est pas explicitement définie, la valeur de luminance correspondante est définie.

sim
Obtenez le SSIM (Structural SIMilarity Metric) entre deux vidéos d'entrée.

Ce filtre prend en entrée deux vidéos d'entrée, la première entrée est considérée comme la "principale"
source et est transmis sans modification à la sortie. La deuxième entrée est utilisée comme "référence"
vidéo pour le calcul du SSIM.

Les deux entrées vidéo doivent avoir la même résolution et le même format de pixel pour que ce filtre fonctionne
correctement. Il suppose également que les deux entrées ont le même nombre de trames, qui sont
comparés un par un.

Le filtre stocke le SSIM calculé de chaque trame.

La description des paramètres acceptés suit.

fichier_stats, f
Si spécifié, le filtre utilisera le fichier nommé pour enregistrer le SSIM de chaque individu
cadre.

Le fichier imprimé si fichier_statistiques est sélectionné, contient une séquence de paires clé/valeur du
formulaire key:Plus-value pour chaque couple d'images comparé.

Une description de chaque paramètre affiché suit :

n numéro séquentiel de la trame d'entrée, à partir de 1

Y, U, V, R, G, B
SSIM des trames comparées pour le composant spécifié par le suffixe.

Tous SSIM des trames comparées pour toute la trame.

dB Identique à ci-dessus mais en représentation dB.

Par exemple :

movie=ref_movie.mpg, setpts=PTS-STARTPTS [principal] ;
[principal][ref] ssim="stats_file=stats.log" [sortie]

Sur cet exemple le fichier d'entrée en cours de traitement est comparé au fichier de référence
ref_film.mpg. Le SSIM de chaque trame individuelle est stocké dans statistiques.log.

Un autre exemple avec psnr et ssim en même temps :

ffmpeg -i main.mpg -i ref.mpg -lavfi "ssim;[0:v][1:v]psnr" -f null -

stéréo3d
Convertissez entre différents formats d'images stéréoscopiques.

Les filtres acceptent les options suivantes :

in Définir le format d'image stéréoscopique d'entrée.

Les valeurs disponibles pour les formats d'image d'entrée sont :

sbsl
parallèles côte à côte (œil gauche à gauche, œil droit à droite)

sbsr
œil croisé côte à côte (œil droit à gauche, œil gauche à droite)

sbs2l
côte à côte parallèle avec une résolution demi-largeur (œil gauche à gauche, œil droit à droite)

sbs2r
œil croisé côte à côte avec une résolution de demi-largeur (œil droit à gauche, œil gauche à droite)

abl dessus-dessous (œil gauche en haut, œil droit en bas)

Avril dessus-dessous (œil droit en haut, œil gauche en bas)

ab2l
ci-dessus-dessous avec une résolution à mi-hauteur (œil gauche au-dessus, œil droit en dessous)

ab2r
dessus-dessous avec une résolution à mi-hauteur (œil droit au-dessus, œil gauche en dessous)

al cadres alternés (œil gauche en premier, œil droit en second)

ar montures alternées (œil droit en premier, œil gauche en second)

La valeur par défaut est sbsl.

ande Définir le format d'image stéréoscopique de la sortie.

Les valeurs disponibles pour les formats d'image de sortie sont tous les formats d'entrée ainsi que :

arbg
anaglyphe rouge/bleu gris (filtre rouge sur l'œil gauche, filtre bleu sur l'œil droit)

Argg
anaglyphe rouge/vert gris (filtre rouge sur l'œil gauche, filtre vert sur l'œil droit)

arcg
anaglyphe rouge/gris cyan (filtre rouge sur l'œil gauche, filtre cyan sur l'œil droit)

arche
anaglyphe rouge/cyan demi-coloré (filtre rouge sur l'œil gauche, filtre cyan sur l'œil droit)

arccc
couleur anaglyphe rouge/cyan (filtre rouge sur l'œil gauche, filtre cyan sur l'œil droit)

arcd
couleur anaglyphe rouge/cyan optimisée avec la projection des moindres carrés de dubois (rouge
filtre sur l'œil gauche, filtre cyan sur l'œil droit)

amg
vert anaglyphe/gris magenta (filtre vert sur l'œil gauche, filtre magenta sur la droite
œil)

aghm
anaglyphe vert/magenta à moitié coloré (filtre vert sur l'œil gauche, filtre magenta sur
l'œil droit)

agmc
anaglyphe vert/magenta (filtre vert sur l'œil gauche, filtre magenta sur la droite
œil)

agmd
couleur anaglyphe vert/magenta optimisée avec la projection des moindres carrés de dubois
(filtre vert sur l'œil gauche, filtre magenta sur l'œil droit)

aybg
anaglyphe jaune/bleu gris (filtre jaune sur l'œil gauche, filtre bleu sur l'œil droit)

aybh
anaglyphe jaune/bleu à moitié coloré (filtre jaune sur l'œil gauche, filtre bleu sur la droite
œil)

aybc
anaglyphe jaune/bleu (filtre jaune sur l'œil gauche, filtre bleu sur l'œil droit)

aybd
couleur anaglyphe jaune/bleu optimisée avec la projection des moindres carrés de dubois
(filtre jaune sur l'œil gauche, filtre bleu sur l'œil droit)

irl rangées entrelacées (l'œil gauche a la rangée du haut, l'œil droit commence sur la rangée suivante)

irr rangées entrelacées (l'œil droit a la rangée du haut, l'œil gauche commence sur la rangée suivante)

ml sortie mono (œil gauche uniquement)

mr sortie mono (œil droit uniquement)

La valeur par défaut est arcd.

Exemples

· Convertir la vidéo d'entrée côte à côte parallèle en dubois jaune/bleu anaglyphe :

stéréo3d=sbsl:aybd

· Convertir la vidéo d'entrée d'en haut en bas (œil gauche en haut, œil droit en bas) en côte à côte
loucher.

stéréo3d=abl:sbsr

spp
Appliquer un simple filtre de post-traitement qui compresse et décompresse l'image à plusieurs
(ou - dans le cas de qualité niveau 6 - tous) se déplace et calcule la moyenne des résultats.

Le filtre accepte les options suivantes :

qualité
Définir la qualité. Cette option définit le nombre de niveaux pour la moyenne. Il accepte un
entier compris entre 0 et 6. S'il est défini sur 0, le filtre n'aura aucun effet. Une valeur de 6
signifie la qualité supérieure. Pour chaque incrément de cette valeur, la vitesse diminue d'un facteur
d'environ 2. La valeur par défaut est 3.

qp Forcer un paramètre de quantification constant. S'il n'est pas défini, le filtre utilisera le QP de
le flux vidéo (si disponible).

mode
Définir le mode de seuillage. Les modes disponibles sont :

dur
Définir un seuillage strict (par défaut).

qualité, que vous pourrez utilisé
Définissez un seuillage doux (meilleur effet de désactivation, mais probablement plus flou).

use_bframe_qp
Activez l'utilisation du QP à partir des B-Frames s'il est défini sur 1. L'utilisation de cette option peut entraîner
scintillement car les B-Frames ont souvent un QP plus important. La valeur par défaut est 0 (non activé).

les sous-titres
Dessinez des sous-titres au-dessus de la vidéo d'entrée à l'aide de la bibliothèque libass.

Pour activer la compilation de ce filtre, vous devez configurer FFmpeg avec "--enable-libass".
Ce filtre nécessite également une construction avec libavcodec et libavformat pour convertir le passé
fichier de sous-titres au format de sous-titres ASS (Advanced Substation Alpha).

Le filtre accepte les options suivantes :

nom de fichier, f
Définissez le nom de fichier du fichier de sous-titres à lire. Il faut le préciser.

format original
Spécifiez la taille de la vidéo originale, la vidéo pour laquelle le fichier ASS a été composé.
Pour la syntaxe de cette option, cochez la case "Vidéo Taille" in le ffmpeg-utils
Manuel. En raison d'une mauvaise conception dans l'arithmétique du rapport d'aspect ASS, cela est nécessaire pour
redimensionnez correctement les polices si le rapport hauteur/largeur a été modifié.

répertoire des polices
Définissez un chemin de répertoire contenant les polices pouvant être utilisées par le filtre. Ces polices
sera utilisé en plus de tout ce que le fournisseur de polices utilise.

Charenc
Définir l'encodage des caractères d'entrée des sous-titres. Filtre "sous-titres" uniquement. Utile seulement sinon
UTF-8.

indice_flux, si
Définir l'index de flux de sous-titres. Filtre "sous-titres" uniquement.

force_style
Remplacez les paramètres par défaut du style ou des informations de script des sous-titres. Il accepte une chaîne
contenant des couples de format de style ASS "KEY=VALUE" séparés par ",".

Si la première clé n'est pas spécifiée, il est supposé que la première valeur spécifie le
nom de fichier.

Par exemple, pour rendre le fichier sous.srt en plus de la vidéo d'entrée, utilisez la commande :

sous-titres=sub.srt

ce qui équivaut à:

sous-titres=nom de fichier=sous.srt

Pour rendre le flux de sous-titres par défaut à partir d'un fichier vidéo.mkv, Utiliser:

sous-titres=vidéo.mkv

Pour rendre le deuxième flux de sous-titres à partir de ce fichier, utilisez :

sous-titres=video.mkv:si=1

Pour diffuser les sous-titres à partir de sous.srt apparaissent en vert transparent "DejaVu Serif", utilisez :

subtitles=sub.srt:force_style='FontName=DejaVu Serif,PrimaryColour=&HAA00FF00'

super2xsai
Redimensionnez l'entrée par 2x et lissez à l'aide du pixel art Super2xSaI (Scale and Interpolate)
algorithme de mise à l'échelle.

Utile pour agrandir les images pixel art sans réduire la netteté.

swapuv
Échangez l'avion U & V.

télécinéma
Appliquer le processus de télécinéma à la vidéo.

Ce filtre accepte les options suivantes :

premier_champ
sommet, t
champ supérieur en premier

bas, b
bottom field first La valeur par défaut est "top".

modèle
Une chaîne de chiffres représentant le modèle de pulldown que vous souhaitez appliquer. Le défaut
la valeur est 23.

Quelques modèles typiques :

Sortie NTSC (30i) :
27.5p: 32222
24p : 23 (classique)
24p : 2332 (de préférence)
20p: 33
18p: 334
16p: 3444

Sortie PAL (25i) :
27.5p: 12222
24p : 222222222223 ("Euro pulldown")
16.67p: 33
16p: 33333334

thumbnail
Sélectionnez l'image la plus représentative dans une séquence donnée d'images consécutives.

Le filtre accepte les options suivantes :

n Définissez la taille du lot de trames à analyser ; dans un ensemble de n cadres, le filtre en choisira un
d'entre eux, puis gérer le prochain lot de n cadres jusqu'à la fin. La valeur par défaut est 100.

Étant donné que le filtre garde une trace de toute la séquence d'images, une plus grande n valeur se traduira par
une utilisation plus élevée de la mémoire, donc une valeur élevée n'est pas recommandée.

Exemples

· Extraire une image toutes les 50 images :

miniature=50

· Exemple complet de création de vignette avec ffmpeg:

ffmpeg -i in.avi -vf miniature, échelle = 300: 200 -frames: v 1 out.png

tuile
Mosaïque de plusieurs cadres successifs ensemble.

Le filtre accepte les options suivantes :

disposition
Définissez la taille de la grille (c'est-à-dire le nombre de lignes et de colonnes). Pour la syntaxe de ce
option, cochez la "Vidéo Taille" in le ffmpeg-utils Manuel.

nb_frames
Définissez le nombre maximum d'images à rendre dans la zone donnée. Il doit être inférieur ou
égal à wxh. La valeur par défaut est 0, ce qui signifie que toute la zone sera utilisée.

marge
Définissez la marge de la bordure extérieure en pixels.

rembourrage
Définissez l'épaisseur de la bordure intérieure (c'est-à-dire le nombre de pixels entre les images). Pour plus
options de remplissage avancées (comme avoir des valeurs différentes pour les bords), reportez-vous à la
filtre vidéo pad.

Couleur
Spécifiez la couleur de la zone inutilisée. Pour la syntaxe de cette option, cochez la case "Couleur"
dans le manuel ffmpeg-utils. La valeur par défaut de Couleur est noir".

Exemples

· Produire des tuiles PNG 8x8 de toutes les images clés (-skip_frame non clé) dans un film :

ffmpeg -skip_frame nokey -i file.avi -vf 'scale=128:72,tile=8x8' -an -vsync 0 images clés%03d.png

La -vsync 0 est nécessaire pour empêcher ffmpeg de la duplication de chaque trame de sortie à
tenir compte de la fréquence d'images détectée à l'origine.

· Affichez 5 images dans une zone de cadres "3x2", avec 7 pixels entre eux, et 2
pixels de la marge initiale, en utilisant des options mixtes plates et nommées :

tile=3x2:nb_frames=5:padding=7:margin=2

entrelacé
Effectuez divers types d'entrelacement de champ temporel.

Les trames sont comptées à partir de 1, de sorte que la première trame d'entrée est considérée comme impaire.

Le filtre accepte les options suivantes :

mode
Spécifiez le mode de l'entrelacement. Cette option peut également être spécifiée comme valeur
seul. Voir ci-dessous pour une liste de valeurs pour cette option.

Les valeurs disponibles sont :

fusionner, 0
Déplacez les images impaires dans le champ supérieur, même dans le champ inférieur, générant un
image double hauteur à la moitié de la fréquence d'images.

------> heure
Contribution:
Cadre 1 Cadre 2 Cadre 3 Cadre 4

11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444

Sortie :
+11111 (33333)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX

drop_odd, 1
Sortir uniquement les trames paires, les trames impaires sont supprimées, générant une trame inchangée
hauteur à la moitié de la fréquence d'images.

------> heure
Contribution:
Cadre 1 Cadre 2 Cadre 3 Cadre 4

11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444

Sortie :
+22222 (44444)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX

drop_even, 2
Ne sortez que les trames impaires, les trames paires sont supprimées, générant une trame inchangée
hauteur à la moitié de la fréquence d'images.

------> heure
Contribution:
Cadre 1 Cadre 2 Cadre 3 Cadre 4

11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444

Sortie :
+11111 (33333)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX

tampon, 3
Développez chaque cadre sur toute la hauteur, mais complétez les lignes alternées avec du noir, générant un
trame avec une hauteur double à la même fréquence d'images d'entrée.

------> heure
Contribution:
Cadre 1 Cadre 2 Cadre 3 Cadre 4

11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444

Sortie :
11111 ..... 33333 .....
..... 22222 ..... 44444
11111 ..... 33333 .....
..... 22222 ..... 44444
11111 ..... 33333 .....
..... 22222 ..... 44444
11111 ..... 33333 .....
..... 22222 ..... 44444

entrelacé_top, 4
Entrelacer le champ supérieur des trames impaires avec le champ inférieur des trames paires,
générer une image avec une hauteur inchangée à la moitié de la fréquence d'images.

------> heure
Contribution:
Cadre 1 Cadre 2 Cadre 3 Cadre 4

11111<- 22222 33333<- 44444
11111 22222<- 33333 44444<-
11111<- 22222 33333<- 44444
11111 22222<- 33333 44444<-

Sortie :
+11111 (33333)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX

entrelacé_bottom, 5
Entrelacer le champ inférieur des trames impaires avec le champ supérieur des trames paires,
générer une image avec une hauteur inchangée à la moitié de la fréquence d'images.

------> heure
Contribution:
Cadre 1 Cadre 2 Cadre 3 Cadre 4

11111 22222<- 33333 44444<-
11111<- 22222 33333<- 44444
11111 22222<- 33333 44444<-
11111<- 22222 33333<- 44444

Sortie :
+22222 (44444)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX

entrelacé2, 6
Double fréquence d'images avec une hauteur inchangée. Des cadres sont insérés contenant chacun le
deuxième champ temporel de la trame d'entrée précédente et le premier champ temporel
à partir de la trame d'entrée suivante. Ce mode repose sur le drapeau top_field_first. Utile
pour les affichages vidéo entrelacés sans synchronisation de champ.

------> heure
Contribution:
Cadre 1 Cadre 2 Cadre 3 Cadre 4

11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444

Sortie :
11111 22222 22222 33333 33333 44444 44444
11111 11111 22222 22222 33333 33333 44444
11111 22222 22222 33333 33333 44444 44444
11111 11111 22222 22222 33333 33333 44444

Les valeurs numériques sont obsolètes mais sont acceptées pour des raisons de compatibilité descendante.

Le mode par défaut est "fusionner".

drapeaux
Spécifiez les indicateurs influençant le processus de filtrage.

Valeur disponible pour drapeaux est:

filtre passe bas, vlfp
Activez le filtrage passe-bas vertical dans le filtre. Le filtrage passe-bas vertical est
requis lors de la création d'une destination entrelacée à partir d'une source progressive qui
contient des détails verticaux à haute fréquence. Le filtrage réduira le 'twitter' entrelacé
et motif moiré.

Le filtrage passe-bas vertical ne peut être activé que pour mode interleave_top ainsi que
entrelacé_bottom.

transposer
Transposez les lignes avec les colonnes dans la vidéo d'entrée et retournez-la éventuellement.

Il accepte les paramètres suivants :

dir Spécifiez le sens de transposition.

Peut prendre les valeurs suivantes :

0, 4, cclock_flip
Faites pivoter de 90 degrés dans le sens inverse des aiguilles d'une montre et retournez verticalement (par défaut), c'est-à-dire :

LR Ll
. . -> . .
lr Rr

1, 5, horloge
Faites pivoter de 90 degrés dans le sens des aiguilles d'une montre, c'est-à-dire :

LR lL
. . -> . .
lr rR

2, 6, horloge
Tournez de 90 degrés dans le sens inverse des aiguilles d'une montre, c'est-à-dire :

LR Rr
. . -> . .
lr ll

3, 7, flip_horloge
Faites pivoter de 90 degrés dans le sens des aiguilles d'une montre et retournez verticalement, c'est-à-dire :

LR rR
. . -> . .
lr lL

Pour les valeurs comprises entre 4 et 7, la transposition n'est effectuée que si la géométrie de la vidéo d'entrée est
portrait et non paysage. Ces valeurs sont dépréciées, l'option "passthrough"
devrait être utilisé à la place.

Les valeurs numériques sont déconseillées et doivent être abandonnées au profit de constantes symboliques.

traverser
N'appliquez pas la transposition si la géométrie d'entrée correspond à celle spécifiée par le
valeur spécifiée. Il accepte les valeurs suivantes :

aucun
Appliquez toujours la transposition.

portrait
Conserver la géométrie du portrait (quand la taille >= largeur).

paysage d'été
Préserver la géométrie du paysage (quand largeur >= la taille).

La valeur par défaut est "aucun".

Par exemple pour faire pivoter de 90 degrés dans le sens des aiguilles d'une montre et conserver la mise en page portrait :

transpose=dir=1:passthrough=portrait

La commande ci-dessus peut également être spécifiée comme :

transposition=1:portrait

réduire
Coupez l'entrée de sorte que la sortie contienne une sous-partie continue de l'entrée.

Il accepte les paramètres suivants :

Commencer
Précisez l'heure de début de la section conservée, c'est-à-dire la trame avec l'horodatage
Commencer sera la première image de la sortie.

fin Spécifiez l'heure de la première image qui sera supprimée, c'est-à-dire l'image immédiatement
précédant celui avec l'horodatage fin sera la dernière image de la sortie.

start_pts
C'est la même chose que Commencer, sauf que cette option définit l'horodatage de début dans la base de temps
unités au lieu de secondes.

fin_pts
C'est la même chose que fin, sauf que cette option définit l'horodatage de fin en unités de base de temps
au lieu de secondes.

durée
La durée maximale de la sortie en secondes.

start_frame
Le numéro de la première trame qui doit être transmise à la sortie.

cadre_fin
Le numéro de la première image qui doit être supprimée.

Commencer, finet durée sont exprimés sous forme de spécifications de durée; voir le Temps
durée in le ffmpeg-utils(1) Manuel pour la syntaxe acceptée.

Notez que les deux premiers ensembles d'options de début/fin et le durée option regarde le
l'horodatage de l'image, tandis que les variantes _frame comptent simplement les images qui passent par le
filtre. Notez également que ce filtre ne modifie pas les horodatages. Si vous souhaitez le
que les horodatages de sortie commencent à zéro, insérez un filtre setpts après le filtre trim.

Si plusieurs options de début ou de fin sont définies, ce filtre essaie d'être gourmand et de conserver toutes les
cadres qui correspondent à au moins une des contraintes spécifiées. Pour ne garder que la partie qui
correspond à toutes les contraintes à la fois, chaîne plusieurs filtres de garniture.

Les valeurs par défaut sont telles que toutes les entrées sont conservées. Il est donc possible de définir par exemple uniquement le
valeurs de fin pour tout conserver avant l'heure spécifiée.

Exemples :

· Supprimez tout sauf la deuxième minute de saisie :

ffmpeg -i INPUT -vf trim=60:120

· Ne gardez que la première seconde :

ffmpeg -i INPUT -vf trim=durée=1

flou
Accentuer ou brouiller la vidéo d'entrée.

Il accepte les paramètres suivants :

luma_msize_x, lx
Définissez la taille horizontale de la matrice de luminance. Il doit s'agir d'un entier impair compris entre 3 et 63. Le
la valeur par défaut est 5.

luma_msize_y, ly
Définissez la taille verticale de la matrice de luminance. Il doit s'agir d'un entier impair compris entre 3 et 63. Le
la valeur par défaut est 5.

luma_montant, la
Réglez la force de l'effet luma. Ce doit être un nombre à virgule flottante, des valeurs raisonnables
se situe entre -1.5 et 1.5.

Les valeurs négatives brouilleront la vidéo d'entrée, tandis que les valeurs positives l'accentueront, un
la valeur zéro désactivera l'effet.

La valeur par défaut est 1.0.

chroma_msize_x, cx
Définissez la taille horizontale de la matrice de chrominance. Il doit s'agir d'un entier impair compris entre 3 et 63. Le
la valeur par défaut est 5.

chroma_msize_y, cy
Définissez la taille verticale de la matrice de chrominance. Il doit s'agir d'un entier impair compris entre 3 et 63. Le
la valeur par défaut est 5.

chroma_amount, ca
Réglez la force de l'effet de chrominance. Ce doit être un nombre à virgule flottante, des valeurs raisonnables
se situe entre -1.5 et 1.5.

Les valeurs négatives brouilleront la vidéo d'entrée, tandis que les valeurs positives l'accentueront, un
la valeur zéro désactivera l'effet.

La valeur par défaut est 0.0.

OpenCL
Si défini sur 1, spécifiez en utilisant les capacités OpenCL, uniquement disponible si FFmpeg était
configuré avec "--enable-opencl". La valeur par défaut est 0.

Tous les paramètres sont facultatifs et correspondent par défaut à l'équivalent de la chaîne "5:5:1.0:5:5:0.0".

Exemples

· Appliquez un fort effet d'accentuation de luma :

unsharp=luma_msize_x=7:luma_msize_y=7:luma_amount=2.5

· Appliquez un fort flou des paramètres de luminance et de chrominance :

unsharp=7:7:-2:7:7:-2

uspp
Appliquer un filtre de post-traitement ultra lent/simple qui compresse et décompresse l'image
à plusieurs (ou - dans le cas de qualité niveau 8 - tous) se déplace et calcule la moyenne des résultats.

La façon dont cela diffère du comportement de spp est que uspp encode et décode en fait chacun
cas avec libavcodec Snow, alors que spp utilise un DCT intra seulement 8x8 simplifié similaire à
MJPEG.

Le filtre accepte les options suivantes :

qualité
Définir la qualité. Cette option définit le nombre de niveaux pour la moyenne. Il accepte un
entier compris entre 0 et 8. S'il est défini sur 0, le filtre n'aura aucun effet. Une valeur de 8
signifie la qualité supérieure. Pour chaque incrément de cette valeur, la vitesse diminue d'un facteur
d'environ 2. La valeur par défaut est 3.

qp Forcer un paramètre de quantification constant. S'il n'est pas défini, le filtre utilisera le QP de
le flux vidéo (si disponible).

vectorscope
Affichez 2 valeurs de composantes de couleur dans le graphique bidimensionnel (appelé
vecteurscope).

Ce filtre accepte les options suivantes :

Mode, m
Définir le mode vecteurscope.

Il accepte les valeurs suivantes :

gris
Les valeurs de gris sont affichées sur le graphique, une luminosité plus élevée signifie que plus de pixels ont la même
valeur de la couleur du composant sur l'emplacement dans le graphique. C'est le mode par défaut.

Couleur
Les valeurs de gris sont affichées sur le graphique. Les valeurs des pixels environnants qui ne sont pas
présents dans l'image vidéo sont dessinés en dégradé de 2 composantes de couleur qui sont définies
par l'option "x" et "y".

couleur 2
Les valeurs réelles des composantes de couleur présentes dans l'image vidéo sont affichées sur le graphique.

couleur 3
Similaire à color2 mais fréquence plus élevée des mêmes valeurs "x" et "y" sur le graphique
augmente la valeur d'un autre composant de couleur, qui est la luminance par défaut
de "x" et "y".

couleur 4
Les couleurs réelles présentes dans l'image vidéo sont affichées sur le graphique. Si deux différents
les couleurs correspondent à la même position sur le graphique, puis la couleur avec une valeur plus élevée du composant n'est pas
présent dans le graphique est sélectionné.

x Définissez la composante de couleur qui sera représentée sur l'axe X. La valeur par défaut est 1.

y Définissez la composante de couleur qui sera représentée sur l'axe Y. La valeur par défaut est 2.

intensité, i
Réglez l'intensité, utilisée par les modes : gris, couleur et couleur3 pour augmenter la luminosité de
composante de couleur qui représente la fréquence de l'emplacement (X, Y) dans le graphique.

enveloppe, e
aucun
Pas d'enveloppe, c'est par défaut.

instantané
Enveloppe instantanée, même le pixel unique le plus sombre sera clairement mis en évidence.

pic
Conservez les valeurs maximales et minimales présentées dans le graphique au fil du temps. De cette façon, vous pouvez
toujours repérer des valeurs hors limites sans constamment regarder le vecteurscope.

pic+instantané
Enveloppe de crête et instantanée combinées.

vidstabdétect
Analysez la stabilisation/l'assouplissement vidéo. Effectuer la passe 1 sur 2, voir vidstabtransformer pour passer
2.

Ce filtre génère un fichier avec des informations relatives à la traduction et à la transformation de rotation
sur les trames suivantes, qui est ensuite utilisé par le vidstabtransformer filtre.

Pour activer la compilation de ce filtre, vous devez configurer FFmpeg avec
"--enable-libvidstab".

Ce filtre accepte les options suivantes :

résultat
Définissez le chemin d'accès au fichier utilisé pour écrire les informations de transformation. La valeur par défaut est
transforme.trf.

tremblement
Définissez le degré de tremblement de la vidéo et la vitesse de la caméra. Il accepte un entier dans le
plage 1-10, une valeur de 1 signifie un faible tremblement, une valeur de 10 signifie un fort tremblement.
La valeur par défaut est 5.

précision
Réglez la précision du processus de détection. Il doit s'agir d'une valeur comprise entre 1 et 15. UNE
une valeur de 1 signifie une faible précision, une valeur de 15 signifie une précision élevée. La valeur par défaut est 15.

taille de pas
Définir le pas du processus de recherche. La région autour du minimum est balayée avec 1 pixel
résolution. La valeur par défaut est 6.

contraste minimum
Réglez le contraste minimum. En dessous de cette valeur, un champ de mesure local est ignoré. Doit être
une valeur à virgule flottante dans la plage 0-1. La valeur par défaut est 0.3.

trépied
Définir le numéro de cadre de référence pour le mode trépied.

Si activé, le mouvement des images est comparé à une image de référence dans le filtre
flux, identifié par le numéro spécifié. L'idée est de compenser tous les mouvements de
une scène plus ou moins statique et garder la vue de la caméra absolument immobile.

S'il est défini sur 0, il est désactivé. Les trames sont comptées à partir de 1.

montrer
Afficher les champs et les transformations dans les images résultantes. Il accepte un entier dans la plage
0-2. La valeur par défaut est 0, ce qui désactive toute visualisation.

Exemples

· Utiliser les valeurs par défaut :

vidstabdétect

· Analyser le film fortement tremblant et mettre les résultats dans le fichier mestransformations.trf:

vidstabdetect=shakiness=10:accuracy=15:result="mytransforms.trf"

· Visualisez le résultat des transformations internes dans la vidéo résultante :

vidstabdetect=afficher=1

· Analyser une vidéo avec un tremblement moyen en utilisant ffmpeg:

ffmpeg -i input -vf vidstabdetect=shakiness=5:show=1 dummy.avi

vidstabtransformer
Stabilisation/décalage vidéo : passer 2 sur 2, voir vidstabdétect pour la passe 1.

Lisez un fichier avec des informations de transformation pour chaque image et appliquez-les/compensez-les. Ensemble
les vidstabdétect filtre cela peut être utilisé pour desshake vidéos. Voir également
<http://public.hronopik.de/vid.stab>. Il est important d'utiliser également le flou filtre, voir
ci-dessous.

Pour activer la compilation de ce filtre, vous devez configurer FFmpeg avec
"--enable-libvidstab".

Options

contribution
Définissez le chemin d'accès au fichier utilisé pour lire les transformations. La valeur par défaut est transforme.trf.

lissage
Définir le nombre d'images (valeur*2 + 1) utilisées pour le filtrage passe-bas de la caméra
mouvements. La valeur par défaut est 10.

Par exemple, un nombre de 10 signifie que 21 trames sont utilisées (10 dans le passé et 10 dans le
future) pour lisser le mouvement dans la vidéo. Une valeur plus élevée conduit à une vidéo plus fluide,
mais limite l'accélération de la caméra (mouvements pan/tilt). 0 est un cas particulier
où une caméra statique est simulée.

optalgo
Définissez l'algorithme d'optimisation du chemin de la caméra.

Les valeurs acceptées sont :

Gauss
filtre passe-bas à noyau gaussien sur le mouvement de la caméra (par défaut)

avg faire la moyenne des transformations

décalage max
Définissez le nombre maximal de pixels pour traduire les images. La valeur par défaut est -1, ce qui signifie non
limite.

angle max
Définissez l'angle maximal en radians (degré*PI/180) pour faire pivoter les images. La valeur par défaut est -1,
signifiant aucune limite.

récolte
Spécifiez comment traiter les bordures qui peuvent être visibles en raison de la compensation de mouvement.

Les valeurs disponibles sont :

garder
conserver les informations de l'image de l'image précédente (par défaut)

noir
remplir la bordure noire

inverser
Inverser les transformations si défini sur 1. La valeur par défaut est 0.

relatif
Considérez les transformations comme relatives à l'image précédente si elle est définie sur 1, absolue si définie sur 0.
La valeur par défaut est 0.

zoom
Définissez le pourcentage de zoom. Une valeur positive entraînera un effet de zoom avant, une valeur négative
valeur dans un effet de zoom arrière. La valeur par défaut est 0 (pas de zoom).

opterzoom
Définissez un zoom optimal pour éviter les bordures.

Les valeurs acceptées sont :

0 handicapé

1 la valeur de zoom statique optimale est déterminée (seuls des mouvements très forts conduiront à
bordures visibles) (par défaut)

2 la valeur de zoom adaptatif optimale est déterminée (aucune bordure ne sera visible), voir
vitesse de zoom

A noter que la valeur donnée au zoom s'ajoute à celle calculée ici.

vitesse de zoom
Réglez le pourcentage pour zoomer au maximum sur chaque image (activé lorsque opterzoom est réglé sur 2). La plage est
de 0 à 5, la valeur par défaut est 0.25.

Interpol
Spécifiez le type d'interpolation.

Les valeurs disponibles sont :

aucune pas d'interpolation

linéaire
linéaire uniquement horizontal

bilinéaire
linéaire dans les deux sens (par défaut)

bicubique
cubique dans les deux sens (lent)

trépied
Activez le mode trépied virtuel s'il est défini sur 1, ce qui équivaut à
"relatif=0:lissage=0". La valeur par défaut est 0.

Utilisez également l'option "trépied" de vidstabdétect.

déboguer
Augmentez la verbosité du journal si elle est définie sur 1. Les mouvements globaux détectés sont également écrits dans
le fichier temporaire global_motions.trf. La valeur par défaut est 0.

Exemples

· Utilisation ffmpeg pour une stabilisation type avec des valeurs par défaut :

ffmpeg -i inp.mpeg -vf vidstabtransform,unsharp=5:5:0.8:3:3:0.4 inp_tabilised.mpeg

Notez l'utilisation du flou filtre qui est toujours recommandé.

· Zoomez un peu plus et chargez les données de transformation à partir d'un fichier donné :

vidstabtransform=zoom=5:input="mytransforms.trf"

· Lissez encore plus la vidéo :

vidstabtransform=lissage=30

retournement
Retournez la vidéo d'entrée verticalement.

Par exemple, pour retourner verticalement une vidéo avec ffmpeg:

ffmpeg -i in.avi -vf "vflip" out.avi

vignette
Créez ou inversez un effet de vignettage naturel.

Le filtre accepte les options suivantes :

angle, a
Définissez l'expression de l'angle de l'objectif en nombre de radians.

La valeur est écrêtée dans la plage "[0,PI/2]".

Valeur par défaut : « PI/5 »

x0
y0 Définir les expressions de coordonnées centrales. Respectivement "w/2" et "h/2" par défaut.

mode
Réglez le mode avant/arrière.

Les modes disponibles sont :

:
Plus la distance par rapport au point central est grande, plus l'image devient sombre.

vers l'arrière
Plus la distance par rapport au point central est grande, plus l'image devient lumineuse.
Cela peut être utilisé pour inverser un effet de vignette, bien qu'il n'y ait pas de
détection pour extraire la lentille angle et d'autres paramètres (encore). Il peut également être utilisé
pour créer un effet brûlant.

La valeur par défaut est :.

eval
Définir le mode d'évaluation pour les expressions (angle, x0, y0).

Il accepte les valeurs suivantes :

init
N'évaluez les expressions qu'une seule fois lors de l'initialisation du filtre.

cadre
Évaluez les expressions pour chaque trame entrante. C'est beaucoup plus lent que le init
car il nécessite de recalculer tous les scalers, mais il permet
expressions dynamiques.

La valeur par défaut est init.

tergiversent
Réglez le tramage pour réduire les effets de bandes circulaires. La valeur par défaut est 1 (activé).

d'aspect
Définir l'aspect vignette. Ce paramètre permet d'ajuster la forme de la vignette.
Régler cette valeur sur le SAR de l'entrée fera un vignettage rectangulaire
suivant les dimensions de la vidéo.

La valeur par défaut est "1/1".

Expressions

La Alpha, x0 ainsi que y0 les expressions peuvent contenir les paramètres suivants.

w
h largeur et hauteur d'entrée

n le nombre de trame d'entrée, à partir de 0

pts le temps PTS (Presentation TimeStamp) de l'image vidéo filtrée, exprimé en TB
unités, NAN si non défini

r fréquence d'images de la vidéo d'entrée, NAN si la fréquence d'images d'entrée est inconnue

t le PTS (Presentation TimeStamp) de la trame vidéo filtrée, exprimé en secondes,
NAN si non défini

tb base de temps de la vidéo d'entrée

Exemples

· Appliquer un simple effet de vignettage fort :

vignette=PI/4

· Faire un vignettage scintillant :

vignette='PI/4+aléatoire(1)*PI/50':eval=cadre

vstack
Empilez les vidéos d'entrée verticalement.

Tous les flux doivent être du même format de pixels et de la même largeur.

Notez que ce filtre est plus rapide que d'utiliser revêtement ainsi que chemin filtre pour créer la même sortie.

Le filtre accepte l'option suivante :

nb_entrées
Définir le nombre de flux d'entrée. La valeur par défaut est 2.

w3fdif
Désentrelacez la vidéo d'entrée ("w3fdif" signifie "Weston 3 Field Deinterlacing Filter").

Basé sur le processus décrit par Martin Weston pour BBC R&D, et mis en œuvre sur la base du
algorithme de désentrelacement écrit par Jim Easterbrook pour BBC R&D, le champ Weston 3
Le filtre de désentrelacement utilise des coefficients de filtre calculés par BBC R&D.

Il existe deux ensembles de coefficients de filtrage, appelés "simples" et "complexes". Quel ensemble de
les coefficients de filtrage utilisés peuvent être définis en passant un paramètre facultatif :

une fonction filtre
Définissez les coefficients du filtre d'entrelacement. Accepte l'une des valeurs suivantes :

simple
Ensemble de coefficients de filtrage simple.

complexe
Ensemble de coefficients de filtrage plus complexe.

La valeur par défaut est complexe.

déint
Spécifiez les images à désentrelacer. Acceptez l'une des valeurs suivantes :

TOUTE Désentrelacez toutes les trames,

entrelacée
Ne désentrelacez que les trames marquées comme entrelacées.

La valeur par défaut est TOUTE.

forme d'onde
Moniteur de forme d'onde vidéo.

Le moniteur de forme d'onde trace l'intensité de la composante de couleur. Par défaut luminance uniquement. Chaque
colonne de la forme d'onde correspond à une colonne de pixels dans la vidéo source.

Il accepte les options suivantes :

Mode, m
Peut être soit "ligne", soit "colonne". La valeur par défaut est « colonne ». En mode ligne, le graphique sur le
le côté gauche représente la valeur du composant de couleur 0 et le côté droit représente la valeur =
255. En mode colonne, le côté supérieur représente la valeur du composant de couleur = 0 et le côté inférieur
représente la valeur = 255.

intensité, i
Réglez l'intensité. Des valeurs plus petites sont utiles pour savoir combien de valeurs du même
la luminance est répartie sur les lignes/colonnes d'entrée. La valeur par défaut est 0.04. Permis
la plage est [0, 1].

miroir, r
Définir le mode de mise en miroir. 0 signifie non mis en miroir, 1 signifie mis en miroir. En mode miroir, plus haut
les valeurs seront représentées à gauche pour le mode "ligne" et en haut pour "colonne"
mode. La valeur par défaut est 1 (en miroir).

affichage, d
Définir le mode d'affichage. Il accepte les valeurs suivantes :

revêtement
Présente des informations identiques à celles du « défilé », sauf que les graphiques
représentant des composants de couleur sont superposés directement les uns sur les autres.

Ce mode d'affichage permet de repérer plus facilement les différences ou les similitudes relatives dans
zones de chevauchement des composantes de couleur qui sont censées être identiques, telles que
comme des blancs, des gris ou des noirs neutres.

parade
Afficher un graphique séparé pour les composants de couleur côte à côte en mode "ligne" ou un
en dessous de l'autre en mode "colonne".

L'utilisation de ce mode d'affichage permet de repérer facilement les dominantes de couleur dans les hautes lumières et
les ombres d'une image, en comparant les contours des graphiques du haut et du bas de
chaque forme d'onde. Étant donné que les blancs, les gris et les noirs sont caractérisés par des valeurs exactement égales
quantités de rouge, vert et bleu, les zones neutres de l'image doivent afficher trois
formes d'onde de largeur/hauteur à peu près égales. Sinon, la correction est facile à effectuer
en effectuant des réglages de niveau sur les trois formes d'onde.

La valeur par défaut est "parade".

Composants, c
Définissez les composants de couleur à afficher. La valeur par défaut est 1, ce qui signifie uniquement la luminance ou le rouge
composante de couleur si l'entrée est dans l'espace colorimétrique RVB. Si est défini par exemple sur 7, il sera
afficher les 3 (si) composants de couleur disponibles.

enveloppe, e
aucun
Pas d'enveloppe, c'est par défaut.

instantané
L'enveloppe instantanée, les valeurs minimales et maximales présentées dans le graphique seront facilement
visible même avec une petite valeur de "pas".

pic
Conservez les valeurs minimales et maximales présentées dans le graphique au fil du temps. De cette façon, vous pouvez
toujours repérer les valeurs hors limites sans constamment regarder les formes d'onde.

pic+instantané
Enveloppe de crête et instantanée combinées.

filtre, f
passe-bas
Pas de filtrage, c'est par défaut.

plat
Luma et chroma combinés ensemble.

un appartement
Similaire à ci-dessus, mais montre une différence entre le chroma bleu et rouge.

chroma
Affiche uniquement la chrominance.

achromie
Similaire à ci-dessus, mais montre une différence entre le chroma bleu et rouge.

Couleur
Affiche la valeur de couleur réelle sur la forme d'onde.

xb
Appliquez le filtre de grossissement xBR de haute qualité conçu pour le pixel art. Ce
suit un ensemble de règles de détection des contours, voir
<http://www.libretro.com/forums/viewtopic.php?f=6&t=134>.

Il accepte l'option suivante :

n Définissez la dimension de mise à l'échelle : 2 pour "2xBR", 3 pour "3xBR" et 4 pour "4xBR". La valeur par défaut est 3.

Yadif
Désentrelacez la vidéo d'entrée ("yadif" signifie "encore un autre filtre de désentrelacement").

Il accepte les paramètres suivants :

mode
Le mode d'entrelacement à adopter. Il accepte l'une des valeurs suivantes :

0, envoyer_frame
Sortez une image pour chaque image.

1, champ_envoi
Sortez une trame pour chaque champ.

2, send_frame_nospatial
Comme "send_frame", mais il ignore la vérification de l'entrelacement spatial.

3, send_field_nospatial
Comme "send_field", mais il ignore la vérification de l'entrelacement spatial.

La valeur par défaut est "send_frame".

parité
La parité de champ d'image supposée pour la vidéo entrelacée d'entrée. Il accepte l'un des
valeurs suivantes:

0, tff
Supposons que le champ du haut soit le premier.

1, bff
Supposons que le champ du bas soit le premier.

-1, auto
Activer la détection automatique de la parité des champs.

La valeur par défaut est "auto". Si l'entrelacement est inconnu ou si le décodeur ne
exporter ces informations, le champ supérieur sera utilisé en premier.

déint
Spécifiez les images à désentrelacer. Acceptez l'une des valeurs suivantes :

0, TOUTE
Désentrelacez toutes les images.

1, entrelacée
Ne désentrelacez que les trames marquées comme entrelacées.

La valeur par défaut est "tout".

zoom panoramique
Appliquer l'effet Zoom & Pan.

Ce filtre accepte les options suivantes :

Zoom, z
Définissez l'expression du zoom. La valeur par défaut est 1.

x
y Définissez l'expression x et y. La valeur par défaut est 0.

d Définissez l'expression de durée en nombre d'images. Cela définit pour combien de nombre de
l'effet d'images durera pour une seule image d'entrée.

s Définissez la taille de l'image de sortie, la valeur par défaut est « hd720 ».

Chaque expression peut contenir les constantes suivantes :

en W, iw
Largeur d'entrée.

in_h, ih
Hauteur d'entrée.

dehors_w, ow
Largeur de sortie.

out_h, oh
Hauteur de sortie.

in Nombre d'images d'entrée.

on Nombre d'images de sortie.

x
y Dernière position « x » et « y » calculée à partir de l'expression « x » et « y » pour l'entrée actuelle
cadre.

px
py 'x' et 'y' de la dernière trame de sortie de la trame d'entrée précédente ou 0 quand il n'y en avait pas encore
telle trame (première trame d'entrée).

zoom
Dernier zoom calculé à partir de l'expression « z » pour l'image d'entrée actuelle.

zoom
Dernier zoom calculé de la dernière image de sortie de l'image d'entrée précédente.

durée
Nombre de trames de sortie pour la trame d'entrée actuelle. Calculé à partir de l'expression 'd' pour
chaque trame d'entrée.

durée
nombre de trames de sortie créées pour la trame d'entrée précédente

a Nombre rationnel : largeur d'entrée / hauteur d'entrée

sar exemple de rapport hauteur/largeur

donner rapport hauteur/largeur d'affichage

Exemples

· Zoom avant jusqu'à 1.5 et panoramique en même temps à un endroit près du centre de l'image :

zoompan=z='min(zoom+0.0015,1.5)':d=700:x='if(gte(zoom,1.5),x,x+1/a)':y='if(gte(zoom,1.5),y,y+1)':s=640x360

· Zoom avant jusqu'à 1.5 et panoramique toujours au centre de l'image :

zoompan=z='min(zoom+0.0015,1.5)':d=700:x='iw/2-(iw/zoom/2)':y='ih/2-(ih/zoom/2)'

VIDÉO SOURCES


Vous trouverez ci-dessous une description des sources vidéo actuellement disponibles.

tampon
Tamponnez les images vidéo et mettez-les à disposition de la chaîne de filtrage.

Cette source est principalement destinée à un usage programmatique, notamment au travers de l'interface
défini dans libavfilter/vsrc_buffer.h.

Il accepte les paramètres suivants :

taille_vidéo
Spécifiez la taille (largeur et hauteur) des images vidéo mises en mémoire tampon. Pour la syntaxe de
cette option, cochez la "Vidéo Taille" in le ffmpeg-utils Manuel.

largeur
La largeur de la vidéo d'entrée.

la taille
La hauteur de la vidéo d'entrée.

pix_fmt
Une chaîne représentant le format de pixel des images vidéo mises en mémoire tampon. C'est peut-être un
nombre correspondant à un format de pixel, ou un nom de format de pixel.

base_temps
Spécifiez la base de temps prise en compte par les horodatages des trames mises en mémoire tampon.

frame_rate
Spécifiez la fréquence d'images attendue pour le flux vidéo.

aspect_pixel, sar
Le rapport hauteur/largeur de l'échantillon (pixel) de la vidéo d'entrée.

sws_param
Spécifiez les paramètres facultatifs à utiliser pour le filtre d'échelle qui est automatiquement
inséré lorsqu'un changement d'entrée est détecté dans la taille ou le format d'entrée.

Par exemple :

buffer=width=320:height=240:pix_fmt=yuv410p:time_base=1/24:sar=1

demandera à la source d'accepter les images vidéo de taille 320x240 et au format
"yuv410p", en supposant 1/24 comme base de temps d'horodatage et pixels carrés (aspect de l'échantillon 1:1
rapport). Étant donné que le format de pixel portant le nom "yuv410p" correspond au numéro 6 (vérifiez le
enum AVPixelFormat définition dans libavutil/pixfmt.h), cet exemple correspond à :

buffer=size=320x240:pixfmt=6:time_base=1/24:pixel_aspect=1/1

Alternativement, les options peuvent être spécifiées sous forme de chaîne plate, mais cette syntaxe est
obsolète :

largeur:la taille:pix_fmt:base_temps.num:time_base.den:pixel_aspect.num:pixel_aspect.den[:sws_param]

celluleauto
Créer un motif généré par un automate cellulaire élémentaire.

L'état initial de l'automate cellulaire peut être défini à travers le nom de fichieret
modèle option. Si de telles options ne sont pas spécifiées, un état initial est créé de manière aléatoire.

A chaque nouvelle image, une nouvelle ligne dans la vidéo est remplie avec le résultat du cellulaire
automate nouvelle génération. Le comportement lorsque tout le cadre est rempli est défini par le
volute option.

Cette source accepte les options suivantes :

nom de fichier, f
Lire l'état initial de l'automate cellulaire, c'est-à-dire la ligne de départ, à partir du
déposer. Dans le fichier, chaque caractère non blanc est considéré comme une cellule vivante, un
newline terminera la ligne et les autres caractères du fichier seront ignorés.

modèle, p
Lire l'état initial de l'automate cellulaire, c'est-à-dire la ligne de départ, à partir du
chaîne.

Chaque caractère non blanc dans la chaîne est considéré comme une cellule vivante, une nouvelle ligne
terminera la ligne et les autres caractères de la chaîne seront ignorés.

taux, r
Définissez le taux vidéo, c'est-à-dire le nombre d'images générées par seconde. La valeur par défaut est 25.

rapport_de_remplissage_aléatoire, rapport
Définissez le taux de remplissage aléatoire pour la ligne initiale de l'automate cellulaire. C'est un flottant
valeur du numéro de point allant de 0 à 1, la valeur par défaut est 1/PHI.

Cette option est ignorée lorsqu'un fichier ou un modèle est spécifié.

graine_aléatoire, seed
Définir la graine pour remplir aléatoirement la ligne initiale, doit être un entier compris entre
0 et UINT32_MAX. S'il n'est pas spécifié, ou s'il est explicitement défini sur -1, le filtre essaiera de
utiliser une bonne graine aléatoire sur la base du meilleur effort.

exclure
Définir la règle de l'automate cellulaire, c'est un nombre allant de 0 à 255. Valeur par défaut
est 110.

Taille, s
Définissez la taille de la vidéo de sortie. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel.

If nom de fichier or modèle est spécifié, la taille est définie par défaut sur la largeur du
ligne d'état initial spécifiée, et la hauteur est définie sur largeur * ISP.

If taille est défini, il doit contenir la largeur de la chaîne de modèle spécifiée et le
le motif spécifié sera centré dans la rangée la plus grande.

Si un nom de fichier ou une chaîne de modèle n'est pas spécifié, la valeur de taille par défaut est
"320x518" (utilisé pour un état initial généré aléatoirement).

volute
S'il est défini sur 1, faites défiler la sortie vers le haut lorsque toutes les lignes de la sortie ont été
déjà rempli. Si défini sur 0, la nouvelle ligne générée sera écrite sur la ligne du haut
juste après que la ligne du bas soit remplie. La valeur par défaut est 1.

start_full, plein
S'il est défini sur 1, remplissez complètement la sortie avec les lignes générées avant de sortir le
premier cadre. Il s'agit du comportement par défaut, pour la désactivation, définissez la valeur sur 0.

point
S'il est défini sur 1, cousez ensemble les bords des rangées gauche et droite. C'est la valeur par défaut
comportement, pour désactiver, définissez la valeur sur 0.

Exemples

· Lire l'état initial de modèle, et spécifiez une sortie de taille 200x400.

cellauto=f=motif:s=200x400

· Générez une ligne initiale aléatoire d'une largeur de 200 cellules, avec un taux de remplissage de 2/3 :

celluleauto=rapport=2/3:s=200x200

· Créer un motif généré par la règle 18 en commençant par une seule cellule vivante centrée sur un
ligne initiale de largeur 100 :

cellauto=p=@s=100x400:full=0:rule=18

· Spécifiez un modèle initial plus élaboré :

cellauto=p='@@ @ @@':s=100x400:full=0:rule=18

Mandelbrot
Générez une fractale d'ensemble de Mandelbrot, et zoomez progressivement vers le point spécifié avec
début_x ainsi que start_y.

Cette source accepte les options suivantes :

fin_pts
Définissez la valeur des points terminaux. La valeur par défaut est 400.

fin_échelle
Réglez la valeur de l'échelle terminale. Doit être une valeur à virgule flottante. La valeur par défaut est 0.3.

intérieur
Définir le mode de coloration interne, c'est-à-dire l'algorithme utilisé pour dessiner la fractale de Mandelbrot
région intérieure.

Il doit prendre l'une des valeurs suivantes :

noir
Réglez le mode noir.

convergence
Afficher le temps jusqu'à la convergence.

Mincol
Définissez la couleur en fonction du point le plus proche de l'origine des itérations.

période
Définir le mode période.

La valeur par défaut est Mincol.

sauvetage
Définissez la valeur du renflouement. La valeur par défaut est 10.0.

maximum
Définissez le maximum d'itérations effectuées par l'algorithme de rendu. La valeur par défaut est
7189.

extérieur
Définir le mode de coloration externe. Il doit prendre l'une des valeurs suivantes :

nombre_d'itérations
Définir le mode de décompte d'itération.

normalized_iteration_count
définir le mode de comptage d'itérations normalisé.

La valeur par défaut est normalized_iteration_count.

taux, r
Définir la fréquence d'images, exprimée en nombre d'images par seconde. La valeur par défaut est "25".

Taille, s
Définir la taille du cadre. Pour la syntaxe de cette option, consultez la section "Taille de la vidéo" dans la
manuel ffmpeg-utils. La valeur par défaut est "640x480".

start_scale
Définissez la valeur d'échelle initiale. La valeur par défaut est 3.0.

début_x
Définissez la position x initiale. Doit être une valeur à virgule flottante comprise entre -100 et 100.
La valeur par défaut est -0.743643887037158704752191506114774.

start_y
Définissez la position y initiale. Doit être une valeur à virgule flottante comprise entre -100 et 100.
La valeur par défaut est -0.131825904205311970493132056385139.

mptestsrc
Générez divers modèles de test, tels que générés par le filtre de test MPlayer.

La taille de la vidéo générée est fixe et est de 256x256. Cette source est utile dans
notamment pour tester les fonctionnalités d'encodage.

Cette source accepte les options suivantes :

taux, r
Spécifiez la fréquence d'images de la vidéo source, en tant que nombre d'images générées par
seconde. Il doit s'agir d'une chaîne au format frame_rate_num/frame_rate_den, un nombre entier
nombre, un nombre à virgule flottante ou une abréviation de fréquence d'images vidéo valide. Le défaut
la valeur est "25".

durée, d
Définissez la durée de la vidéo source. Voir le Temps durée in le
ffmpeg-utils(1) Manuel pour la syntaxe acceptée.

Si non spécifié, ou si la durée exprimée est négative, la vidéo est censée être
généré pour toujours.

test t
Définissez le numéro ou le nom du test à effectuer. Les tests pris en charge sont :

dc_luma
dc_chroma
fréquence_luma
fréquence_chroma
amp_luma
amp_chroma
cbp
mv
ring1
ring2
TOUTE

La valeur par défaut est "all", ce qui fera défiler la liste de tous les tests.

Quelques exemples:

mptestsrc=t=dc_luma

générera un motif de test "dc_luma".

frei0r_src
Fournir une source plus libre.

Pour activer la compilation de ce filtre, vous devez installer l'en-tête frei0r et configurer
FFmpeg avec "--enable-frei0r".

Cette source accepte les paramètres suivants :

taille
La taille de la vidéo à générer. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel.

framerate
La fréquence d'images de la vidéo générée. Il peut s'agir d'une chaîne de la forme num/jour ou
abréviation de fréquence d'images.

nom_filtre
Le nom de la source libre à charger. Pour plus d'informations sur frei0r et comment
pour régler les paramètres, lisez le plus libre dans la documentation des filtres vidéo.

filtre_params
Une liste de paramètres séparés par '|' à transmettre à la source frei0r.

Par exemple, pour générer une source frei0r partik0l avec une taille de 200x200 et une fréquence d'images de 10
qui est superposé à l'entrée principale du filtre de superposition :

frei0r_src=size=200x200:framerate=10:filter_name=partik0l:filter_params=1234 [overlay] ; [in][overlay] superposition

life
Générer un modèle de vie.

Cette source est basée sur une généralisation du jeu de la vie de John Conway.

L'entrée sourcée représente une grille de vie, chaque pixel représente une cellule qui peut être dans une
de deux états possibles, vivant ou mort. Chaque cellule interagit avec ses huit voisines,
qui sont les cellules qui sont horizontalement, verticalement ou diagonalement adjacentes.

A chaque interaction la grille évolue selon la règle adoptée, qui précise les
nombre de cellules voisines vivantes qui permettront à une cellule de rester vivante ou de naître. le exclure option
permet de préciser la règle à adopter.

Cette source accepte les options suivantes :

nom de fichier, f
Définissez le fichier à partir duquel lire l'état initial de la grille. Dans le fichier, chaque non-
le caractère d'espacement est considéré comme une cellule vivante, et la nouvelle ligne est utilisée pour délimiter le
fin de chaque rangée.

Si cette option n'est pas spécifiée, la grille initiale est générée aléatoirement.

taux, r
Définissez le taux vidéo, c'est-à-dire le nombre d'images générées par seconde. La valeur par défaut est 25.

rapport_de_remplissage_aléatoire, rapport
Définissez le taux de remplissage aléatoire pour la grille aléatoire initiale. C'est un nombre à virgule flottante
valeur comprise entre 0 et 1, la valeur par défaut est 1/PHI. Il est ignoré lorsqu'un fichier est spécifié.

graine_aléatoire, seed
Définir la graine pour remplir la grille aléatoire initiale, doit être un entier compris entre
0 et UINT32_MAX. S'il n'est pas spécifié, ou s'il est explicitement défini sur -1, le filtre essaiera de
utiliser une bonne graine aléatoire sur la base du meilleur effort.

exclure
Fixez la règle de vie.

Une règle peut être spécifiée avec un code du type "SNS/BNB", où NS ainsi que NB
séquences de nombres compris entre 0 et 8, NS spécifie le nombre de cellules voisines vivantes
qui font qu'une cellule vivante reste en vie, et NB le nombre de cellules voisines vivantes qui
faire une cellule morte pour devenir vivante (c'est-à-dire pour "né"). "s" et "b" peuvent être utilisés à la place
de "S" et "B", respectivement.

Alternativement, une règle peut être spécifiée par un entier de 18 bits. Les 9 bits de poids fort sont
utilisé pour coder l'état de la cellule suivante s'il est vivant pour chaque nombre de voisin vivant
cellules, les bits de poids faible spécifient la règle pour « naître » de nouvelles cellules. Bits d'ordre supérieur
coder pour un nombre plus élevé de cellules voisines. Par exemple le nombre 6153 =
"(12<<9)+9" spécifie une règle de séjour en vie de 12 et une règle de naissance de 9, ce qui correspond
à "S23/B03".

La valeur par défaut est "S23/B3", qui est la règle originale du jeu de la vie de Conway, et
garder une cellule en vie si elle a 2 ou 3 cellules voisines vivantes, et naîtra une nouvelle cellule si
il y a trois cellules vivantes autour d'une cellule morte.

Taille, s
Définissez la taille de la vidéo de sortie. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel.

If nom de fichier est spécifié, la taille est définie par défaut sur la même taille que l'entrée
déposer. Si taille est défini, il doit contenir la taille spécifiée dans le fichier d'entrée, et le
la grille initiale définie dans ce fichier est centrée dans la plus grande zone résultante.

Si aucun nom de fichier n'est spécifié, la valeur par défaut de la taille est « 320x240 » (utilisée pour un
grille initiale générée aléatoirement).

point
S'il est défini sur 1, cousez les bords gauche et droit de la grille ensemble, et le haut et le bas
bords aussi. La valeur par défaut est 1.

moule
Réglez la vitesse du moule de la cellule. Si défini, une cellule morte ira de couleur_mort à couleur_moule avec une
étape de moule. moule peut avoir une valeur de 0 à 255.

couleur_vie
Définissez la couleur des cellules vivantes (ou nouveau-nées).

couleur_mort
Définissez la couleur des cellules mortes. Si moule est défini, c'est la première couleur utilisée pour représenter
une cellule morte.

couleur_moule
Réglez la couleur de la moisissure, pour les cellules définitivement mortes et moisies.

Pour la syntaxe de ces 3 options de couleur, consultez la section "Couleur" dans le ffmpeg-utils
manuel.

Exemples

· Lire une grille de modèle, et centrez-le sur une grille de taille 300x300 pixels :

vie=f=motif:s=300x300

· Générer une grille aléatoire de taille 200x200, avec un taux de remplissage de 2/3 :

vie=rapport=2/3:s=200x200

· Spécifiez une règle personnalisée pour faire évoluer une grille générée aléatoirement :

vie=règle=S14/B34

· Exemple complet avec effet de mort lente (moule) utilisant ffplay:

ffplay -f lavfi life=s=300x200:mold=10:r=60:ratio=0.1:death_color=#C83232:life_color=#00ff00,scale=1200:800:flags=16

tout RVB, allouv, couleur, haldclutsrc, nullsrc, rgbtestsrc, barres smpte, smptehdbars, testsrc
La source "allrgb" renvoie des images de taille 4096x4096 de toutes les couleurs RVB.

La source "allyuv" renvoie des images de taille 4096x4096 de toutes les couleurs yuv.

La source "couleur" fournit une entrée uniformément colorée.

La source "haldclutsrc" fournit une identité Hald CLUT. Voir également hadclut filtre.

La source "nullsrc" renvoie des images vidéo non traitées. Il est surtout utile d'être employé
dans les outils d'analyse / de débogage, ou comme source de filtres qui ignorent les données d'entrée.

La source "rgbtestsrc" génère un motif de test RVB utile pour détecter RVB vs BGR
problèmes. Vous devriez voir une bande rouge, verte et bleue de haut en bas.

La source "smptebars" génère un motif de barres de couleur, basé sur l'ingénierie SMPTE
Ligne directrice EG 1-1990.

La source "smptehdbars" génère un motif de barres de couleur, basé sur le SMPTE RP 219-2002.

La source "testsrc" génère un motif vidéo de test, montrant un motif de couleur, un défilement
gradient et un horodatage. Ceci est principalement destiné à des fins de test.

Les sources acceptent les paramètres suivants :

couleur, c
Précisez la couleur de la source, disponible uniquement dans la source "couleur". Pour la syntaxe
de cette option, vérifiez la section "Couleur" dans le manuel ffmpeg-utils.

niveau
Spécifie le niveau du Hald CLUT, disponible uniquement dans la source "haldclutsrc". UNE
le niveau de "N" génère une image de "N*N*N" par "N*N*N" pixels à utiliser comme identité
matrice pour les tables de recherche 3D. Chaque composante est codée sur une échelle "1/(N*N)".

Taille, s
Spécifiez la taille de la vidéo source. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel. La valeur par défaut est "320x240".

Cette option n'est pas disponible avec le filtre "haldclutsrc".

taux, r
Spécifiez la fréquence d'images de la vidéo source, en tant que nombre d'images générées par
seconde. Il doit s'agir d'une chaîne au format frame_rate_num/frame_rate_den, un nombre entier
nombre, un nombre à virgule flottante ou une abréviation de fréquence d'images vidéo valide. Le défaut
la valeur est "25".

sar Définissez le rapport hauteur/largeur de l'échantillon de la vidéo source.

durée, d
Définissez la durée de la vidéo source. Voir le Temps durée in le
ffmpeg-utils(1) Manuel pour la syntaxe acceptée.

Si non spécifié, ou si la durée exprimée est négative, la vidéo est censée être
généré pour toujours.

décimales, n
Définir le nombre de décimales à afficher dans l'horodatage, uniquement disponible dans le "testsrc"
la source.

La valeur d'horodatage affichée correspondra à la valeur d'horodatage d'origine
multiplié par la puissance 10 de la valeur spécifiée. La valeur par défaut est 0.

Par exemple ce qui suit :

testsrc=duration=5.3:size=qcif:rate=10

générera une vidéo d'une durée de 5.3 secondes, avec une taille de 176x144 et une fréquence d'images
de 10 images par seconde.

La description du graphe suivant va générer une source rouge avec une opacité de 0.2, avec
taille "qcif" et une fréquence d'images de 10 images par seconde.

couleur=c=[email protected]:s=qcif:r=10

Si le contenu d'entrée doit être ignoré, "nullsrc" peut être utilisé. La commande suivante
génère du bruit dans le plan de luminance en utilisant le filtre "geq":

nullsrc=s=256x256, geq=aléatoire(1)*255:128:128

Commandes

La source "couleur" prend en charge les commandes suivantes :

c, Couleur
Définissez la couleur de l'image créée. Accepte la même syntaxe du correspondant Couleur
option.

VIDÉO PUITS


Vous trouverez ci-dessous une description des récepteurs vidéo actuellement disponibles.

évier tampon
Tamponnez les images vidéo et rendez-les disponibles jusqu'à la fin du graphique de filtrage.

Ce puits est principalement destiné à un usage programmatique, notamment via l'interface
défini dans libavfilter/bufferink.h ou le système d'options.

Il accepte un pointeur vers une structure AVBufferSinkContext, qui définit le
formats des buffers, à passer en paramètre opaque à "avfilter_init_filter" pour
initialisation

puits nul
Récepteur vidéo nul : ne faites absolument rien avec la vidéo d'entrée. Il est principalement utile comme
modèle et à utiliser dans les outils d'analyse / de débogage.

MULTIMEDIA FILTRES


Vous trouverez ci-dessous une description des filtres multimédia actuellement disponibles.

aphasemètre
Convertissez l'entrée audio en sortie vidéo, affichant la phase audio.

Le filtre accepte les options suivantes :

taux, r
Réglez la fréquence d'images de sortie. La valeur par défaut est 25.

Taille, s
Définissez la taille de la vidéo pour la sortie. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel. La valeur par défaut est "800x400".

rc
gc
bc Spécifiez le contraste rouge, vert, bleu. Les valeurs par défaut sont 2, 7 et 1. Plage autorisée
est "[0, 255]".

mpc Définir la couleur qui sera utilisée pour dessiner la phase médiane. Si la couleur est "aucune" qui est
par défaut, aucune valeur de phase médiane ne sera tracée.

Le filtre exporte également les métadonnées de trame "lavfi.aphasemeter.phase" qui représentent la moyenne
phase de la trame audio actuelle. La valeur est dans la plage "[-1, 1]". Le "-1" signifie gauche et droite
les canaux sont complètement déphasés et 1 signifie que les canaux sont en phase.

avectorscope
Convertissez l'audio d'entrée en une sortie vidéo, représentant le vecteur audio scope.

Le filtre est utilisé pour mesurer la différence entre les canaux du flux audio stéréo. UNE
signal monoaural, composé d'un signal gauche et droit identique, se traduit par une ligne droite
ligne verticale. Toute séparation stéréo est visible comme une déviation de cette ligne, créant un
Figurine de Lissajous. Si la ligne droite (ou déviation de celle-ci) mais horizontale apparaît, cette
indique que les canaux gauche et droit sont déphasés.

Le filtre accepte les options suivantes :

Mode, m
Réglez le mode vecteurscope.

Les valeurs disponibles sont :

lissajous
Lissajous a pivoté de 45 degrés.

lissajous_xy
Identique à ci-dessus mais pas tourné.

polaire
Forme ressemblant à la moitié d'un cercle.

La valeur par défaut est lissajous.

Taille, s
Définissez la taille de la vidéo pour la sortie. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel. La valeur par défaut est "400x400".

taux, r
Réglez la fréquence d'images de sortie. La valeur par défaut est 25.

rc
gc
bc
ac Spécifiez le contraste rouge, vert, bleu et alpha. Les valeurs par défaut sont 40, 160, 80 et
255. La plage autorisée est "[0, 255]".

rf
gf
bf
af Spécifiez le fondu rouge, vert, bleu et alpha. Les valeurs par défaut sont 15, 10, 5 et 5.
La plage autorisée est "[0, 255]".

zoom
Réglez le facteur de zoom. La valeur par défaut est 1. La plage autorisée est "[1, 10]".

Exemples

· Exemple complet en utilisant ffplay:

ffplay -f lavfi 'amovie=input.mp3, asplit [a][out1];
[a] avectorscope=zoom=1.3:rc=2:gc=200:bc=10:rf=1:gf=8:bf=7 [out0]'

concat
Concaténez les flux audio et vidéo en les joignant les uns après les autres.

Le filtre fonctionne sur des segments de flux vidéo et audio synchronisés. Tous les segments doivent
avoir le même nombre de flux de chaque type, et ce sera aussi le nombre de flux
en sortie.

Le filtre accepte les options suivantes :

n Définissez le nombre de segments. La valeur par défaut est 2.

v Définissez le nombre de flux vidéo de sortie, c'est aussi le nombre de flux vidéo dans
chaque segment. La valeur par défaut est 1.

a Définissez le nombre de flux audio de sortie, c'est aussi le nombre de flux audio dans
chaque segment. La valeur par défaut est 0.

le danger
Activer le mode non sécurisé : n'échoue pas si les segments ont un format différent.

Le filtre a v+a sorties : premier v sorties vidéo, puis a sorties audio.

Il y a nx(v+a) entrées : d'abord les entrées du premier segment, dans le même ordre que le
sorties, puis les entrées pour le deuxième segment, etc.

Les flux associés n'ont pas toujours exactement la même durée, pour diverses raisons
y compris la taille de l'image du codec ou la création bâclée. Pour cette raison, les synchronisations associées
les flux (par exemple une vidéo et sa piste audio) doivent être concaténés en une seule fois. Le concat
le filtre utilisera la durée du flux le plus long dans chaque segment (sauf le dernier),
et, si nécessaire, complétez les flux audio plus courts avec du silence.

Pour que ce filtre fonctionne correctement, tous les segments doivent commencer à l'horodatage 0.

Tous les flux correspondants doivent avoir les mêmes paramètres dans tous les segments ; le filtrage
système sélectionnera automatiquement un format de pixel commun pour les flux vidéo, et un
format d'échantillonnage, fréquence d'échantillonnage et disposition des canaux pour les flux audio, mais d'autres paramètres, tels que
comme résolution, doit être converti explicitement par l'utilisateur.

Des fréquences d'images différentes sont acceptables mais entraîneront une fréquence d'images variable à la sortie ; être
assurez-vous de configurer le fichier de sortie pour le gérer.

Exemples

· Concaténer une ouverture, un épisode et une fin, le tout en version bilingue (vidéo en
flux 0, audio dans les flux 1 et 2) :

ffmpeg -i ouverture.mkv -i épisode.mkv -i fin.mkv -filter_complex \
'[0:0] [0:1] [0:2] [1:0] [1:1] [1:2] [2:0] [2:1] [2:2]
concat=n=3:v=1:a=2 [v] [a1] [a2]' \
-map '[v]' -map '[a1]' -map '[a2]' output.mkv

· Concaténer deux parties, en gérant l'audio et la vidéo séparément, en utilisant le (a)film
sources, et ajuster la résolution :

film=part1.mp4, échelle=512:288 [v1] ; film=partie1.mp4 [a1] ;
film=part2.mp4, échelle=512:288 [v2] ; film=partie2.mp4 [a2] ;
[v1] [v2] concat [outv] ; [a1] [a2] concat=v=0:a=1 [outa]

Notez qu'une désynchronisation se produira au niveau du point si les flux audio et vidéo ne
ont exactement la même durée dans le premier fichier.

ebur128
Filtre scanner UER R128. Ce filtre prend un flux audio en entrée et le sort
inchangé. Par défaut, il enregistre un message à une fréquence de 10 Hz avec le Momentary
sonie (identifiée par "M"), sonie à court terme ("S"), sonie intégrée ("I") et
Plage de sonie ("LRA").

Le filtre dispose également d'une sortie vidéo (voir le vidéo option) avec un graphique en temps réel pour
observer l'évolution de l'intensité sonore. Le graphique contient le message enregistré mentionné ci-dessus,
il n'est donc plus imprimé lorsque cette option est définie, à moins que la journalisation détaillée ne soit définie.
La zone graphique principale contient l'intensité sonore à court terme (3 secondes d'analyse) et le
jauge sur la droite est pour le volume momentané (400 millisecondes).

Plus d'informations sur la recommandation de sonie UER R128 sur
<http://tech.ebu.ch/loudness>.

Le filtre accepte les options suivantes :

vidéo
Activez la sortie vidéo. Le flux audio est transmis sans changement, que cette option soit
réglé ou non. Le flux vidéo sera le premier flux de sortie s'il est activé. La valeur par défaut est
0.

taille
Définissez la taille de la vidéo. Cette option est pour la vidéo uniquement. Pour la syntaxe de cette option,
vérifier la "Vidéo Taille" in le ffmpeg-utils Manuel. Par défaut et minimum
la résolution est "640x480".

mètre
Réglez le compteur d'échelle EBU. La valeur par défaut est 9. Les valeurs communes sont 9 et 18, respectivement pour
Compteur d'échelle UER +9 et compteur d'échelle UER +18. Toute autre valeur entière entre cette plage
est autorisée.

métadonnées
Définir l'injection de métadonnées. Si réglé sur 1, l'entrée audio sera segmentée en 100 ms
trames de sortie, chacune d'entre elles contenant diverses informations de sonie dans les métadonnées. Tout
les clés de métadonnées sont préfixées par "lavfi.r128.".

La valeur par défaut est 0.

journal de trame
Forcer le niveau de journalisation des trames.

Les valeurs disponibles sont :

info
niveau d'enregistrement des informations

verbeux
niveau de journalisation détaillé

Par défaut, le niveau de journalisation est défini sur info. Si l' vidéo au sein de l’ métadonnées les options sont
réglé, il passe à verbeux.

pic
Définissez le(s) mode(s) de crête.

Les modes disponibles peuvent être cumulés (l'option est de type "drapeau"). Les valeurs possibles sont :

aucun
Désactivez tout mode de crête (par défaut).

échantillon
Activer le mode échantillon-crête.

Mode crête simple à la recherche de la valeur d'échantillon la plus élevée. Il enregistre un message pour
sample-peak (identifié par "SPK").

oui
Activez le mode de pointe vraie.

Si activé, la recherche de crête est effectuée sur une version suréchantillonnée du flux d'entrée
pour une meilleure précision des pics. Il enregistre un message pour true-peak. (identifié par "TPK")
et vrai pic par trame (identifié par "FTPK"). Ce mode nécessite une compilation avec
"libswresample".

Exemples

· Graphique en temps réel utilisant ffplay, avec un compteur EBU +18 :

ffplay -f lavfi -i "amovie=input.mp3,ebur128=video=1:meter=18 [out0][out1]"

· Exécuter une analyse avec ffmpeg:

ffmpeg -nostats -i input.mp3 -filter_complex ebur128 -f null -

entrelacer, intercaler
Entrelacer temporairement les trames de plusieurs entrées.

"interleave" fonctionne avec les entrées vidéo, "ainterleave" avec l'audio.

Ces filtres lisent les trames de plusieurs entrées et envoient la trame en file d'attente la plus ancienne au
sortie.

Les flux d'entrée doivent avoir des valeurs d'horodatage de trame bien définies et augmentant de manière monotone.

Afin de soumettre une trame à la sortie, ces filtres doivent mettre en file d'attente au moins une trame
pour chaque entrée, ils ne peuvent donc pas fonctionner si une entrée n'est pas encore terminée et ne
recevoir des trames entrantes.

Par exemple, considérons le cas où une entrée est un filtre "select" qui supprime toujours l'entrée
cadres. Le filtre "entrelacé" continuera à lire à partir de cette entrée, mais il ne sera jamais
capable d'envoyer de nouvelles trames en sortie jusqu'à ce que l'entrée envoie un signal de fin de flux.

De plus, en fonction de la synchronisation des entrées, les filtres abandonneront les trames au cas où une entrée
reçoit plus de trames que les autres, et la file d'attente est déjà remplie.

Ces filtres acceptent les options suivantes :

nb_entrées, n
Réglez le nombre d'entrées différentes, il est de 2 par défaut.

Exemples

· Entrelacer des trames appartenant à différents flux en utilisant ffmpeg:

ffmpeg -i bambi.avi -i pr0n.mkv -filter_complex "[0:v][1:v] entrelacé" out.avi

· Ajouter un effet de flou scintillant :

select='if(gt(aléatoire(0), 0.2), 1, 2)':n=2 [tmp], boxblur=2:2, [tmp] entrelacé

permanentes, apermes
Définissez les autorisations de lecture/écriture pour les trames de sortie.

Ces filtres s'adressent principalement aux développeurs pour tester le chemin direct dans le filtre suivant
dans le filtre graphique.

Les filtres acceptent les options suivantes :

mode
Sélectionnez le mode d'autorisation.

Il accepte les valeurs suivantes :

aucun
Ne fais rien. C'est la valeur par défaut.

ro Définissez toutes les trames de sortie en lecture seule.

rw Définissez toutes les trames de sortie directement inscriptibles.

basculer
Rendre le cadre en lecture seule s'il est accessible en écriture et en écriture si en lecture seule.

aléatoire
Définissez chaque trame de sortie en lecture seule ou en écriture de manière aléatoire.

seed
Mettre la graine pour le aléatoire mode, doit être un entier compris entre 0 et
"UINT32_MAX". S'il n'est pas spécifié, ou s'il est explicitement défini sur "-1", le filtre essaiera de
utiliser une bonne graine aléatoire sur la base du meilleur effort.

Remarque : en cas de filtre auto-inséré entre le filtre de permission et le suivant,
l'autorisation peut ne pas être reçue comme prévu dans le filtre suivant. Insertion d'un
le format or un format filtre avant le filtre perms/aperms peut éviter ce problème.

sélectionner, une sélection
Sélectionnez les images à transmettre en sortie.

Ce filtre accepte les options suivantes :

expression, e
Définir l'expression, qui est évaluée pour chaque image d'entrée.

Si l'expression est évaluée à zéro, le cadre est ignoré.

Si le résultat de l'évaluation est négatif ou NaN, la trame est envoyée à la première sortie ;
sinon il est envoyé à la sortie avec l'indice "ceil(val)-1", en supposant que l'entrée
l'index commence à partir de 0.

Par exemple une valeur de 1.2 correspond à la sortie d'indice "ceil(1.2)-1 = 2-1 =
1", c'est la deuxième sortie.

les sorties, n
Réglez le nombre de sorties. La sortie vers laquelle envoyer la trame sélectionnée est basée sur
le résultat de l'évaluation. La valeur par défaut est 1.

L'expression peut contenir les constantes suivantes :

n Le numéro (séquentiel) de la trame filtrée, à partir de 0.

sélectionné_n
Le numéro (séquentiel) de la trame sélectionnée, à partir de 0.

prev_selected_n
Le numéro séquentiel de la dernière image sélectionnée. C'est NAN si non défini.

TB La base de temps des horodatages d'entrée.

pts Le PTS (Presentation TimeStamp) de l'image vidéo filtrée, exprimé en TB unités.
C'est NAN si non défini.

t Le PTS de l'image vidéo filtrée, exprimé en secondes. C'est NAN si non défini.

prev_pts
Le PTS de l'image vidéo précédemment filtrée. C'est NAN si non défini.

prev_selected_pts
Le PTS de la dernière image vidéo précédemment filtrée. C'est NAN si non défini.

prev_selected_t
Le PTS de la dernière image vidéo précédemment sélectionnée. C'est NAN si non défini.

start_pts
Le PTS de la première image vidéo de la vidéo. C'est NAN si non défini.

début_t
L'heure de la première image vidéo de la vidéo. C'est NAN si non défini.

pict_type (vidéo seulement)
Le type de la trame filtrée. Il peut prendre l'une des valeurs suivantes :

I
P
B
S
SI
SP
BI
entrelacé_type (vidéo seulement)
Le type d'entrelacement de trame. Il peut prendre l'une des valeurs suivantes :

PROGRESSIVE
La trame est progressive (non entrelacée).

EN PREMIER
Le cadre est top-field-first.

EN PREMIER BAS
Le cadre est en bas du champ en premier.

échantillon_n_consommé (l'audio seulement)
le nombre d'échantillons sélectionnés avant la trame actuelle

échantillons_n (l'audio seulement)
le nombre d'échantillons dans la trame actuelle

taux d'échantillonnage (l'audio seulement)
le taux d'échantillonnage d'entrée

key C'est 1 si l'image filtrée est une image clé, 0 sinon.

poster la position dans le fichier de la trame filtrée, -1 si l'information n'est pas disponible
(par exemple pour la vidéo synthétique)

scène (vidéo seulement)
valeur comprise entre 0 et 1 pour indiquer une nouvelle scène ; une valeur faible reflète une probabilité faible
pour l'image actuelle pour introduire une nouvelle scène, tandis qu'une valeur plus élevée signifie la
frame est plus susceptible d'être un (voir l'exemple ci-dessous)

La valeur par défaut de l'expression de sélection est "1".

Exemples

· Sélectionnez toutes les trames en entrée :

Sélectionner

L'exemple ci-dessus est le même que :

sélectionner=1

· Ignorer toutes les images :

sélectionner=0

· Sélectionnez uniquement les images I :

select='eq(pict_type\,I)'

· Sélectionnez une image toutes les 100 :

select='pas(mod(n\,100))'

· Sélectionnez uniquement les images contenues dans l'intervalle de temps 10-20 :

select=entre(t\,10\,20)

· Sélectionnez uniquement les images I contenues dans l'intervalle de temps 10-20 :

select=entre(t\,10\,20)*eq(pict_type\,I)

· Sélectionnez des images avec une distance minimale de 10 secondes :

select='isnan(prev_selected_t)+gte(t-prev_selected_t\,10)'

· Utilisez aselect pour sélectionner uniquement les trames audio avec un nombre d'échantillons > 100 :

aselect='gt(samples_n\,100)'

· Créer une mosaïque des premières scènes :

ffmpeg -i video.avi -vf select='gt(scene\,0.4)',scale=160:120,tile -frames:v 1 preview.png

Comparaison scène contre une valeur comprise entre 0.3 et 0.5 est généralement un choix sensé.

· Envoyez des trames paires et impaires vers des sorties séparées et composez-les :

select=n=2:e='mod(n, 2)+1' [impair][pair]; [impair] pad=h=2*ih [tmp]; [tmp][even] overlay=y=h

envoyercmd, asendcmd
Envoyez des commandes aux filtres dans le filtergraph.

Ces filtres lisent les commandes à envoyer aux autres filtres du filtergraph.

"sendcmd" doit être inséré entre deux filtres vidéo, "asendcmd" doit être inséré entre
deux filtres audio, mais à part cela, ils agissent de la même manière.

La spécification des commandes peut être fournie dans les arguments du filtre avec le commandes
option, ou dans un fichier spécifié par le nom de fichier option.

Ces filtres acceptent les options suivantes :

commandes, c
Définissez les commandes à lire et à envoyer aux autres filtres.

nom de fichier, f
Définissez le nom de fichier des commandes à lire et à envoyer aux autres filtres.

Commandes syntaxe

Une description de commandes consiste en une séquence de spécifications d'intervalle, comprenant un
liste des commandes à exécuter lorsqu'un événement particulier lié à cet intervalle se produit.
L'événement qui se produit est généralement le temps de trame actuel entrant ou sortant d'un temps donné
intervalle.

Un intervalle est spécifié par la syntaxe suivante :

[- ] ;

L'intervalle de temps est spécifié par le La START ainsi que FIN fois. FIN est facultatif et par défaut
au temps maximum.

Le temps de trame actuel est pris en compte dans l'intervalle spécifié s'il est inclus dans
l'intervalle [La START, FIN), c'est-à-dire lorsque le temps est supérieur ou égal à La START Les modèles sont aussi
inférieur à FIN.

COMMANDES consiste en une séquence d'une ou plusieurs spécifications de commande, séparées par ",",
relatif à cet intervalle. La syntaxe d'une spécification de commande est donnée par :

[ ]

DRAPEAUX est facultatif et précise le type d'événements relatifs à l'intervalle de temps qui
activer l'envoi de la commande spécifiée, et doit être une séquence non nulle d'indicateurs d'identification
séparés par "+" ou "|" et compris entre "[" et "]".

Les drapeaux suivants sont reconnus :

entrer
La commande est envoyée lorsque l'horodatage de la trame actuelle entre dans l'intervalle spécifié. Dans
en d'autres termes, la commande est envoyée lorsque l'horodatage de la trame précédente n'était pas dans le
intervalle donné, et le courant est.

quitter
La commande est envoyée lorsque l'horodatage de la trame actuelle quitte l'intervalle spécifié. Dans
en d'autres termes, la commande est envoyée lorsque l'horodatage de la trame précédente était dans le
intervalle, et le courant ne l'est pas.

If DRAPEAUX n'est pas spécifié, une valeur par défaut de "[enter]" est supposée.

CIBLE spécifie la cible de la commande, généralement le nom de la classe de filtre ou un
nom d'instance de filtre spécifique.

COMMAND spécifie le nom de la commande pour le filtre cible.

ARG est facultatif et spécifie la liste facultative d'arguments pour le COMMAND.

Entre une spécification d'intervalle et une autre, des espaces ou des séquences de caractères
commençant par "#" jusqu'à la fin de la ligne, sont ignorés et peuvent être utilisés pour annoter des commentaires.

Une description BNF simplifiée de la syntaxe de spécification des commandes suit :

::= "entrer" | "laisser"
::= [(+|"|") ]
::= ["[" "]"] [ ]
::= [, ]
::= [- ]
::= [; ]

Exemples

· Spécifiez le changement de tempo audio à la seconde 4:

asendcmd=c='4.0 atempo tempo 1.5',atempo

· Spécifiez une liste de commandes drawtext et hue dans un fichier.

# afficher le texte dans l'intervalle 5-10
5.0-10.0 [enter] drawtext reinit 'fontfile=FreeSerif.ttf:text=hello world',
[laisser] drawtext reinit 'fontfile=FreeSerif.ttf:text=';

# désaturer l'image dans l'intervalle 15-20
15.0-20.0 [entrer] teinte s 0,
[enter] drawtext reinit 'fontfile=FreeSerif.ttf:text=nocolor',
[laisser] teinte s 1,
[laisser] drawtext reinit 'fontfile=FreeSerif.ttf:text=color';

# appliquer un effet de fondu de saturation exponentiel, à partir du temps 25
25 [entrer] teinte s exp(25-t)

Un filtergraph permettant de lire et de traiter la liste de commandes ci-dessus stockée dans un fichier
test.cmd, peut être spécifié avec :

sendcmd=f=test.cmd,drawtext=fontfile=FreeSerif.ttf:text='',hue

les paramètres, atouts
Modifiez le PTS (horodatage de présentation) des trames d'entrée.

"setpts" fonctionne sur les trames vidéo, "asetpts" sur les trames audio.

Ce filtre accepte les options suivantes :

expr
L'expression qui est évaluée pour chaque trame pour construire son horodatage.

L'expression est évaluée via l'API eval et peut contenir les constantes suivantes :

FRAME_RATE
fréquence d'images, définie uniquement pour une vidéo à fréquence d'images constante

PTS L'horodatage de la présentation en entrée

N Le nombre de trames d'entrée pour la vidéo ou le nombre d'échantillons consommés, non
y compris l'image actuelle pour l'audio, à partir de 0.

NB_CONSUMED_SAMPLES
Le nombre d'échantillons consommés, sans compter l'image actuelle (uniquement audio)

NB_ÉCHANTILLONS, S
Le nombre d'échantillons dans l'image actuelle (uniquement audio)

TAUX D'ÉCHANTILLONNAGE, SR
Le taux d'échantillonnage audio.

DÉMARRAGE
Le PTS de la première trame.

DÉPART
le temps en secondes de la première image

ENTRELACÉ
Indiquez si la trame actuelle est entrelacée.

T le temps en secondes de l'image actuelle

POS position d'origine dans le fichier du cadre, ou indéfini si indéfini pour le courant
cadre

PREV_INPTS
L'entrée précédente PTS.

PREV_INT
temps de saisie précédent en secondes

PREV_OUTPTS
La sortie précédente PTS.

PREV_OUTT
temps de sortie précédent en secondes

HEURE RTC
L'heure de l'horloge murale (RTC) en microsecondes. Ceci est obsolète, utilisez fiable(0) à la place.

RTCSTART
L'heure de l'horloge murale (RTC) au début du film en microsecondes.

TB La base de temps des horodatages d'entrée.

Exemples

· Commencer à compter le PTS à partir de zéro

setpts=PTS-STARTPTS

· Appliquer un effet de mouvement rapide :

points de consigne=0.5*PTS

· Appliquer un effet de ralenti :

points de consigne=2.0*PTS

· Définir un taux fixe de 25 images par seconde :

setpts=N/(25*To)

· Définir un taux fixe de 25 ips avec une certaine gigue :

setpts='1/(25*TB) * (N + 0.05 * sin(N*2*PI/25))'

· Appliquer un décalage de 10 secondes à l'entrée PTS :

setpts=PTS+10/To

· Générer des horodatages à partir d'une « source en direct » et rebaser sur la base de temps actuelle :

setpts='(RTCTIME - RTCSTART) / (To * 1000000)'

· Générer des horodatages en comptant les échantillons :

asetpts=N/SR/To

régler, asettb
Définissez la base de temps à utiliser pour les horodatages des trames de sortie. Il est surtout utile pour tester
configuration de la base de temps.

Il accepte les paramètres suivants :

expression, tb
L'expression qui est évaluée dans la base de temps de sortie.

La valeur pour tb est une expression arithmétique représentant un rationnel. L'expression peut
contiennent les constantes "AVTB" (la base de temps par défaut), "intb" (la base de temps d'entrée) et "sr"
(le taux d'échantillonnage, audio uniquement). La valeur par défaut est "intb".

Exemples

· Réglez la base de temps sur 1/25 :

settb=expr=1/25

· Réglez la base de temps sur 1/10 :

settb=expr=0.1

· Réglez la base de temps sur 1001/1000 :

settb=1+0.001

· Réglez la base de temps sur 2*intb :

settb=2*intb

· Définissez la valeur de base de temps par défaut :

settb=AVTB

montrer
Convertir l'audio d'entrée en une sortie vidéo représentant le spectre de fréquence de manière logarithmique
(en utilisant la transformation Q constante avec l'algorithme de Brown-Puckette), avec échelle de tonalité musicale, de
E0 à D#10 (10 octaves).

Le filtre accepte les options suivantes :

le volume
Spécifiez l'expression du volume de transformation (multiplicateur). L'expression peut contenir
variables:

la fréquence, fréquence, f
la fréquence à laquelle la transformation est évaluée

horodateur, tc
valeur de l'option timeclamp

et fonctions :

a_pondération(f)
Pondération A de même sonie

pondération_b(f)
Pondération B de même sonie

pondération_c(f)
Pondération C d'intensité égale

La valeur par défaut est 16.

longueur
Spécifiez l'expression de longueur de transformation. L'expression peut contenir des variables :

la fréquence, fréquence, f
la fréquence à laquelle la transformation est évaluée

horodateur, tc
valeur de l'option timeclamp

La valeur par défaut est "384/f*tc/(384/f+tc)".

horodateur
Spécifiez l'horodatage de la transformation. À basse fréquence, il y a un compromis entre la précision
dans le domaine temporel et le domaine fréquentiel. Si le timeclamp est inférieur, l'événement dans le domaine temporel est
représenté avec plus de précision (comme une grosse caisse rapide), sinon événement en fréquence
domaine est représenté plus précisément (comme la guitare basse). La valeur acceptable est [0.1,
1.0]. La valeur par défaut est 0.17.

pince à coefficient
Spécifiez le coeffclamp de transformation. Si coeffclamp est inférieur, la transformation est plus précise,
sinon la transformation est plus rapide. La valeur acceptable est [0.1, 10.0]. La valeur par défaut est 1.0.

gamma
Spécifiez le gamma. Un gamma plus faible rend le spectre plus contrasté, un gamma plus élevé rend le
spectre ayant plus de portée. La valeur acceptable est [1.0, 7.0]. La valeur par défaut est 3.0.

gamma2
Spécifiez le gamma du graphique à barres. La valeur acceptable est [1.0, 7.0]. La valeur par défaut est 1.0.

fichier de polices
Spécifiez le fichier de police à utiliser avec freetype. Si non spécifié, utilisez la police incorporée.

couleur de la police
Spécifiez l'expression de la couleur de la police. C'est une expression arithmétique qui devrait retourner
valeur entière 0xRRGGBB. L'expression peut contenir des variables :

la fréquence, fréquence, f
la fréquence à laquelle la transformation est évaluée

horodateur, tc
valeur de l'option timeclamp

et fonctions :

midi(f)
numéro midi de la fréquence f, quelques numéros midi : E0(16), C1(24), C2(36), A4(69)

r(x), g(x), b(x)
valeur rouge, verte et bleue de l'intensité x

La valeur par défaut est "st(0, (midi(f)-59.5)/12); st(1, if(entre(ld(0),0,1),
0.5-0.5*cos(2*PI*ld(0)), 0)); r(1-ld(1)) + b(ld(dix))"

fullhd
S'il est défini sur 1 (valeur par défaut), la taille de la vidéo est de 1920x1080 (full HD), s'il est défini sur 0, le
la taille de la vidéo est de 960x540. Utilisez cette option pour réduire l'utilisation du processeur.

fps Spécifiez les images par seconde de la vidéo. La valeur par défaut est 25.

compter
Spécifiez le nombre de transformations par image, donc il y a des transformations fps*count par seconde.
Notez que le débit de données audio doit être divisible par fps*count. La valeur par défaut est 6.

Exemples

· Lecture audio tout en affichant le spectre :

ffplay -f lavfi 'amovie=a.mp3, asplit [a][out1]; [a] showcqt [out0]'

· Comme ci-dessus, mais avec une fréquence d'images de 30 ips :

ffplay -f lavfi 'amovie=a.mp3, asplit [a][out1]; [a] showcqt=fps=30:count=5 [out0]'

· Jouer à 960x540 et moins d'utilisation du processeur :

ffplay -f lavfi 'amovie=a.mp3, asplit [a][out1]; [a] showcqt=fullhd=0:count=3 [out0]'

· A1 et ses harmoniques : A1, A2, (proche) E3, A3 :

ffplay -f lavfi 'aevalsrc=0.1*sin(2*PI*55*t)+0.1*sin(4*PI*55*t)+0.1*sin(6*PI*55*t)+0.1*sin(8*PI*55*t),
asplit[a][out1]; [a] showcqt [out0]'

· Idem que ci-dessus, mais avec plus de précision dans le domaine fréquentiel (et plus lentement) :

ffplay -f lavfi 'aevalsrc=0.1*sin(2*PI*55*t)+0.1*sin(4*PI*55*t)+0.1*sin(6*PI*55*t)+0.1*sin(8*PI*55*t),
asplit[a][out1]; [a] showcqt=timeclamp=0.5 [out0]'

· Pondération B d'intensité égale

volume=16*b_pondération(f)

· Facteur Q inférieur

longueur=100/f*tc/(100/f+tc)

· Couleur de police personnalisée, C-note est de couleur verte, d'autres sont de couleur bleue

fontcolor='if(mod(floor(midi(f)+0.5),12), 0x0000FF, g(1))'

· Gamma personnalisé, maintenant le spectre est linéaire à l'amplitude.

gamma=2:gamma2=2

Afficher les fréquences
Convertissez l'entrée audio en sortie vidéo représentant le spectre de puissance audio. l'audio
l'amplitude est sur l'axe Y tandis que la fréquence est sur l'axe X.

Le filtre accepte les options suivantes :

Taille, s
Spécifiez la taille de la vidéo. Pour la syntaxe de cette option, cochez la case "Vidéo Taille"
in le ffmpeg-utils Manuel. La valeur par défaut est "1024x512".

mode
Définir le mode d'affichage. Cela définit comment chaque groupe de fréquences sera représenté.

Il accepte les valeurs suivantes :

en ligne
barre
point

La valeur par défaut est "bar".

une échelle
Réglez l'échelle d'amplitude.

Il accepte les valeurs suivantes :

lin Échelle linéaire.

sqrt
Échelle de racine carrée.

cbrt
Échelle de racine cubique.

enregistrer Échelle logarithmique.

La valeur par défaut est « journal ».

échelle f
Définir l'échelle de fréquence.

Il accepte les valeurs suivantes :

lin Échelle linéaire.

enregistrer Échelle logarithmique.

rlog
Échelle logarithmique inversée.

La valeur par défaut est "lin".

win_size
Définir la taille de la fenêtre.

Il accepte les valeurs suivantes :

w16
w32
w64
w128
w256
w512
w1024
w2048
w4096
w8192
w16384
w32768
w65536

La valeur par défaut est "w2048"

gagner_func
Définir la fonction de fenêtrage.

Il accepte les valeurs suivantes :

Rect
Bartlett
accrocher
marteler
homme noir
Welch
haut plat
barris
bnuttall
bhann
leur
noisette

La valeur par défaut est « hanning ».

chevauchement
Définir le chevauchement des fenêtres. Dans la plage "[0, 1]". La valeur par défaut est 1, ce qui signifie un chevauchement optimal pour
la fonction de fenêtre sélectionnée sera sélectionnée.

moyenne
Réglez la moyenne du temps. Le réglage à 0 affichera les pics maximaux actuels. La valeur par défaut est
1, ce qui signifie que la moyenne temporelle est désactivée.

Couleur
Spécifiez la liste des couleurs séparées par un espace ou par '|' qui sera utilisé pour dessiner le canal
fréquences. Les couleurs non reconnues ou manquantes seront remplacées par la couleur blanche.

spectre d'exposition
Convertissez l'audio d'entrée en une sortie vidéo, représentant le spectre de fréquences audio.

Le filtre accepte les options suivantes :

Taille, s
Spécifiez la taille de la vidéo pour la sortie. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel. La valeur par défaut est "640x512".

diapositive
Spécifiez comment le spectre doit glisser le long de la fenêtre.

Il accepte les valeurs suivantes :

remplacer
les échantillons repartent à gauche lorsqu'ils arrivent à droite

volute
les échantillons défilent de droite à gauche

plein cadre
les cadres ne sont produits que lorsque les échantillons atteignent la droite

La valeur par défaut est « remplacer ».

mode
Spécifiez le mode d'affichage.

Il accepte les valeurs suivantes :

combiné
toutes les chaînes sont affichées dans la même rangée

séparé
tous les canaux sont affichés dans des lignes séparées

La valeur par défaut est combiné.

Couleur
Spécifiez le mode de couleur d'affichage.

Il accepte les valeurs suivantes :

chaine
chaque canal est affiché dans une couleur distincte

intensité
chaque canal est affiché en utilisant le même schéma de couleurs

La valeur par défaut est chaine.

escaliers
Spécifiez l'échelle utilisée pour calculer les valeurs de couleur d'intensité.

Il accepte les valeurs suivantes :

lin linéaire

sqrt
racine carrée, par défaut

cbrt
racine cubique

enregistrer logarithmique

La valeur par défaut est sqrt.

saturation
Définissez le modificateur de saturation pour les couleurs affichées. Les valeurs négatives offrent une alternative
Schéma de couleur. 0 n'est pas du tout saturé. La saturation doit être dans la plage [-10.0, 10.0].
La valeur par défaut est 1.

gagner_func
Définir la fonction de fenêtre.

Il accepte les valeurs suivantes :

aucun
Pas de pré-traitement des échantillons (ne vous attendez pas à ce que cela soit plus rapide)

hann
fenêtre de Hann

marteler
Fenêtre de Hamming

homme noir
fenêtre de l'homme noir

La valeur par défaut est "hann".

L'utilisation est très similaire au filtre showwaves ; voir les exemples dans cette section.

Exemples

· Grande fenêtre avec mise à l'échelle logarithmique des couleurs :

showspectrum=s=1280x480:scale=log

· Exemple complet pour un spectre coloré et glissant par canal utilisant ffplay:

ffplay -f lavfi 'amovie=input.mp3, asplit [a][out1];
[a] showspectrum=mode=separate:color=intensity:slide=1:scale=cbrt [out0]'

volume d'exposition
Convertissez le volume audio d'entrée en sortie vidéo.

Le filtre accepte les options suivantes :

taux, r
Définir le taux de vidéo.

b Définir la largeur de la bordure, la plage autorisée est [0, 5]. La valeur par défaut est 1.

w Réglez la largeur du canal, la plage autorisée est [40, 1080]. La valeur par défaut est 400.

h Réglez la hauteur du canal, la plage autorisée est [1, 100]. La valeur par défaut est 20.

f Réglez le fondu, la plage autorisée est [1, 255]. La valeur par défaut est 20.

c Définir l'expression de la couleur du volume.

L'expression peut utiliser les variables suivantes :

LE VOLUME
Volume maximum actuel du canal en dB.

CANAL
Numéro de canal actuel, à partir de 0.

t S'il est défini, affiche les noms des canaux. La valeur par défaut est activée.

ondes de spectacle
Convertissez l'audio d'entrée en une sortie vidéo, représentant les échantillons d'ondes.

Le filtre accepte les options suivantes :

Taille, s
Spécifiez la taille de la vidéo pour la sortie. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel. La valeur par défaut est "600x240".

mode
Définir le mode d'affichage.

Les valeurs disponibles sont :

point
Dessinez un point pour chaque échantillon.

en ligne
Tracez une ligne verticale pour chaque échantillon.

p2p Tracez un point pour chaque échantillon et une ligne entre eux.

cline
Tracez une ligne verticale centrée pour chaque échantillon.

La valeur par défaut est "point".

n Définissez le nombre d'échantillons imprimés sur la même colonne. Une valeur plus élevée sera
diminuer la fréquence d'images. Doit être un entier positif. Cette option ne peut être définie que si
la valeur pour taux n'est pas explicitement spécifié.

taux, r
Réglez la fréquence d'images de sortie (approximative). Cela se fait en définissant l'option n. Défaut
la valeur est "25".

split_channels
Définissez si les canaux doivent être dessinés séparément ou se chevaucher. La valeur par défaut est 0.

Exemples

· Sortir l'audio du fichier d'entrée et la représentation vidéo correspondante en même temps
temps:

amovie=a.mp3,asplit[out0],showwaves[out1]

· Créer un signal synthétique et le montrer avec showwaves, forçant une fréquence d'images de 30
images par seconde:

aevalsrc=sin(1*2*PI*t)*sin(880*2*PI*t):cos(2*PI*200*t),asplit[out0],showwaves=r=30[out1]

showwavespic
Convertissez l'audio d'entrée en une seule image vidéo, représentant les échantillons d'ondes.

Le filtre accepte les options suivantes :

Taille, s
Spécifiez la taille de la vidéo pour la sortie. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel. La valeur par défaut est "600x240".

split_channels
Définissez si les canaux doivent être dessinés séparément ou se chevaucher. La valeur par défaut est 0.

Exemples

· Extraire une représentation de division de canal de la forme d'onde d'une piste audio entière dans un
image 1024x800 en utilisant ffmpeg:

ffmpeg -i audio.flac -lavfi showwavespic=split_channels=1:s=1024x800 waveform.png

diviser, une scission
Diviser l'entrée en plusieurs sorties identiques.

"asplit" fonctionne avec l'entrée audio, "split" avec la vidéo.

Le filtre accepte un seul paramètre qui spécifie le nombre de sorties. Si
non spécifié, la valeur par défaut est 2.

Exemples

· Créez deux sorties distinctes à partir de la même entrée :

[dans] divisé [out0][out1]

· Pour créer 3 sorties ou plus, vous devez spécifier le nombre de sorties, comme dans :

[dans] asplit=3 [out0][out1][out2]

· Créez deux sorties distinctes à partir de la même entrée, une recadrée et une rembourrée :

[dans] diviser [splitout1][splitout2] ;
[splitout1] crop=100:100:0:0 [cropout];
[splitout2] pad=200:200:100:100 [padout];

· Créez 5 copies de l'audio d'entrée avec ffmpeg:

ffmpeg -i ENTRÉE -filter_complex asplit=5 SORTIE

zmq, azmq
Recevez les commandes envoyées via un client libzmq et transférez-les aux filtres dans le
filtre graphique.

"zmq" et "azmq" fonctionnent comme des filtres pass-through. "zmq" doit être inséré entre deux vidéos
filtres, "azmq" entre deux filtres audio.

Pour activer ces filtres, vous devez installer la bibliothèque et les en-têtes libzmq et configurer
FFmpeg avec "--enable-libzmq".

Pour plus d'informations sur libzmq, consultez :http://www.zeromq.org/>

Les filtres "zmq" et "azmq" fonctionnent comme un serveur libzmq, qui reçoit les messages envoyés via
une interface réseau définie par le adresse_liée option.

Le message reçu doit être sous la forme :

[ ]

CIBLE spécifie la cible de la commande, généralement le nom de la classe de filtre ou un
nom d'instance de filtre spécifique.

COMMAND spécifie le nom de la commande pour le filtre cible.

ARG est facultatif et spécifie la liste d'arguments facultatifs pour le COMMAND.

A réception, le message est traité et la commande correspondante est injectée dans
le filtre graphique. En fonction du résultat, le filtre enverra une réponse au client,
adopter le format :




MESSAGE Est facultatif.

Exemples

Regarde outils/zmqsend pour un exemple de client zmq qui peut être utilisé pour envoyer des commandes
traités par ces filtres.

Considérons le filtergraph suivant généré par ffplay

ffplay -dumpgraph 1 -f lavfi "
couleur=s=100x100:c=rouge [l] ;
couleur=s=100x100:c=bleu [r];
nullsrc=s=200x100, zmq [bg] ;
[bg][l] superposition [bg+l] ;
[bg+l][r] superposition=x=100 "

Pour changer la couleur du côté gauche de la vidéo, la commande suivante peut être utilisée :

echo Parsed_color_0 c jaune | outils/zmqsend

Pour changer le côté droit :

echo Parsed_color_1 c rose | outils/zmqsend

MULTIMEDIA SOURCES


Vous trouverez ci-dessous une description des sources multimédias actuellement disponibles.

un film
C'est la même chose que film source, sauf qu'il sélectionne un flux audio par défaut.

film
Lire des flux audio et/ou vidéo à partir d'un conteneur de films.

Il accepte les paramètres suivants :

nom de fichier
Le nom de la ressource à lire (pas nécessairement un fichier ; il peut aussi s'agir d'un périphérique ou d'un
flux accessible via un protocole).

nom_format, f
Spécifie le format supposé pour le film à lire, et peut être soit le nom d'un
conteneur ou un périphérique d'entrée. S'il n'est pas spécifié, le format est deviné à partir de nom_film
ou par sondage.

point_recherche, sp
Spécifie le point de recherche en secondes. Les trames seront sorties à partir de cette recherche
point. Le paramètre est évalué avec "av_strtod", donc la valeur numérique peut être
suffixé par un suffixe IS. La valeur par défaut est « 0 ».

ruisseaux, s
Spécifie les flux à lire. Plusieurs flux peuvent être spécifiés, séparés par "+". le
source aura alors autant de sorties, dans le même ordre. La syntaxe est expliquée dans
la section « spécificateurs de flux » dans le manuel de ffmpeg. Deux noms spéciaux, "dv" et
"da" spécifie respectivement le flux vidéo et audio par défaut (le mieux adapté). La valeur par défaut est
« dv » ou « da » si le filtre est appelé « film ».

indice_flux, si
Spécifie l'index du flux vidéo à lire. Si la valeur est -1, le plus approprié
le flux vidéo sera automatiquement sélectionné. La valeur par défaut est "-1". Obsolète. Si
le filtre s'appelle "film", il sélectionnera l'audio au lieu de la vidéo.

boucle
Spécifie combien de fois lire le flux dans l'ordre. Si la valeur est inférieure à 1,
le flux sera lu encore et encore. La valeur par défaut est "1".

Notez que lorsque le film est bouclé, les horodatages de la source ne sont pas modifiés, il sera donc
générer des horodatages croissants de manière non monotone.

Il permet de superposer une seconde vidéo sur l'entrée principale d'un filtergraph, comme indiqué dans
ce graphique :

entrée -----------> deltapts0 --> superposition --> sortie
^
|
film --> échelle--> deltapts1 -------+

Exemples

· Sautez 3.2 secondes à partir du début du fichier AVI in.avi et superposez-le sur le
entrée étiquetée "in":

movie=in.avi:seek_point=3.2, scale=180:-1, setpts=PTS-STARTPTS [over] ;
[dans] setpts=PTS-STARTPTS [principal] ;
[principal][over] overlay=16:16 [out]

· Lisez à partir d'un périphérique video4linux2 et superposez-le au-dessus de l'entrée étiquetée "in":

movie=/dev/video0:f=video4linux2, scale=180:-1, setpts=PTS-STARTPTS [over] ;
[dans] setpts=PTS-STARTPTS [principal] ;
[principal][over] overlay=16:16 [out]

· Lire le premier flux vidéo et le flux audio avec l'ID 0x81 de dvd.vob ; la vidéo
est connecté au pad nommé "video" et l'audio est connecté au pad nommé
"l'audio":

movie=dvd.vob:s=v:0+#0x81 [vidéo] [audio]

Utilisez ffplay-all en ligne en utilisant les services onworks.net


Serveurs et postes de travail gratuits

Télécharger des applications Windows et Linux

  • 1
    Phaser
    Phaser
    Phaser est un open rapide, gratuit et amusant
    framework de jeu source HTML5 qui offre
    Rendu WebGL et Canvas à travers
    navigateurs Web de bureau et mobiles. Jeux
    peut être co...
    Télécharger Phaser
  • 2
    Moteur VASSAL
    Moteur VASSAL
    VASSAL est un moteur de jeu pour créer
    versions électroniques de la carte traditionnelle
    et jeux de cartes. Il fournit un soutien pour
    rendu et interaction des pièces de jeu,
    et...
    Télécharger le moteur VASSAL
  • 3
    OpenPDF - Fork d'iText
    OpenPDF - Fork d'iText
    OpenPDF est une bibliothèque Java pour créer
    et l'édition de fichiers PDF avec une licence LGPL et
    Licence open source MPL. OpenPDF est le
    LGPL/MPL open source successeur d'iText,
    un ...
    Télécharger OpenPDF - Fork d'iText
  • 4
    SAGA SIG
    SAGA SIG
    SAGA - Système d'automatisation
    Analyses géoscientifiques - est un
    Logiciel de système d'information (SIG) avec
    immenses capacités pour les géodonnées
    traitement et an...
    Télécharger le SIG SAGA
  • 5
    Boîte à outils pour Java/JTOOpen
    Boîte à outils pour Java/JTOOpen
    IBM Toolbox for Java / JTOpen est un
    bibliothèque de classes Java prenant en charge
    programmation client/serveur et internet
    modèles vers un système exécutant OS/400,
    i5/OS, ou...
    Télécharger Toolbox pour Java/JTOpen
  • 6
    D3.js
    D3.js
    D3.js (ou D3 pour les documents pilotés par les données)
    est une bibliothèque JavaScript qui vous permet
    produire des données dynamiques et interactives
    visualisations dans les navigateurs Web. Avec D3
    toi...
    Télécharger D3.js
  • Plus "

Commandes Linux

Ad