AnglaisFrançaisEspagnol

Ad


Icône de favori OnWorks

ffmpeg-filters - En ligne dans le Cloud

Exécutez ffmpeg-filters dans le fournisseur d'hébergement gratuit OnWorks sur Ubuntu Online, Fedora Online, l'émulateur en ligne Windows ou l'émulateur en ligne MAC OS

Il s'agit de la commande ffmpeg-filters qui peut être exécutée dans le fournisseur d'hébergement gratuit OnWorks en utilisant l'un de nos multiples postes de travail en ligne gratuits tels que Ubuntu Online, Fedora Online, l'émulateur en ligne Windows ou l'émulateur en ligne MAC OS

PROGRAMME:

Nom


filtres ffmpeg - filtres FFmpeg

DESCRIPTION


Ce document décrit les filtres, les sources et les récepteurs fournis par la bibliothèque libavfilter.

Filtrage INTRODUCTION


Le filtrage dans FFmpeg est activé via la bibliothèque libavfilter.

Dans libavfilter, un filtre peut avoir plusieurs entrées et plusieurs sorties. Pour illustrer le
toutes sortes de choses qui sont possibles, nous considérons le filtergraph suivant.

[principale]
entrée --> split ---------------------> superposition --> sortie
| ^
|[tmp] [retourner]|
+-----> recadrer --> vflip -------+

Ce filtergraph divise le flux d'entrée en deux flux, puis envoie un flux à travers le
filtre de recadrage et le filtre vflip, avant de le fusionner avec l'autre flux en
en le superposant. Vous pouvez utiliser la commande suivante pour y parvenir :

ffmpeg -i INPUT -vf "split [main][tmp]; [tmp] crop=iw:ih/2:0:0, vflip [flip]; [main][flip] overlay=0:H/2" OUTPUT

Le résultat sera que la moitié supérieure de la vidéo est reflétée sur la moitié inférieure de la
sortie vidéo.

Les filtres d'une même chaîne linéaire sont séparés par des virgules et des chaînes linéaires distinctes de
les filtres sont séparés par des points-virgules. Dans notre exemple, recadrage, vflip sont dans une chaîne linéaire,
scission ainsi que revêtement sont séparément dans un autre. Les points de jonction des chaînes linéaires sont
étiquetés par des noms entre crochets. Dans l'exemple, le filtre divisé génère
deux sorties associées aux étiquettes [principale] ainsi que [tmp].

Le flux envoyé à la deuxième sortie de scission, étiqueté comme [tmp], est traité par le
récolte filtre, qui recadre la moitié inférieure de la vidéo, puis verticalement
renversé. Les revêtement le filtre prend en entrée la première sortie inchangée du filtre divisé
(qui a été étiqueté comme [principale]), et superpose sur sa moitié inférieure la sortie générée par le
recadrage, vflip chaîne de filtrage.

Certains filtres prennent en entrée une liste de paramètres : ils sont spécifiés après le nom du filtre
et un signe égal, et sont séparés l'un de l'autre par deux points.

Il existe des soi-disant la source filtres qui n'ont pas d'entrée audio/vidéo, et lavabo
filtres qui n'aura pas de sortie audio/vidéo.

GRAPHIQUE


La graphique2dot programme inclus dans le FFmpeg les outils répertoire peut être utilisé pour analyser un
description du filtergraph et émission d'une représentation textuelle correspondante dans le point
la langue.

Appelez la commande :

graph2dot -h

pour voir comment utiliser graphique2dot.

Vous pouvez ensuite transmettre la description du point au point programme (de la suite graphviz de
programmes) et obtenir une représentation graphique du filtergraph.

Par exemple la séquence de commandes :

écho | \
tools/graph2dot -o graph.tmp && \
point -Tpng graph.tmp -o graph.png && \
afficher le graphique.png

peut être utilisé pour créer et afficher une image représentant le graphique décrit par le
GRAPH_DESCRIPTION chaîne de caractères. Notez que cette chaîne doit être un graphe complet et autonome,
avec ses entrées et sorties explicitement définies. Par exemple si votre ligne de commande est de
la forme:

ffmpeg -i infile -vf scale=640:360 outfile

Un flux efficace peut augmenter GRAPH_DESCRIPTION la chaîne devra être de la forme :

nullsrc,échelle=640:360,nullsink

vous devrez peut-être également définir le nullsrc paramètres et ajoutez un le format filtrer afin de
simuler un fichier d'entrée spécifique.

FILTREGRAPHE DESCRIPTION


Un filtergraph est un graphe orienté de filtres connectés. Il peut contenir des cycles, et là
peut être plusieurs liens entre une paire de filtres. Chaque lien a un pad d'entrée d'un côté
le connecter à un filtre dont il tire son entrée, et un pad de sortie sur l'autre
côté le reliant à un filtre acceptant sa sortie.

Chaque filtre dans un filtergraph est une instance d'une classe de filtre enregistrée dans le
application, qui définit les caractéristiques et le nombre de plots d'entrée et de sortie du
filtre.

Un filtre sans pads d'entrée est appelé une "source", et un filtre sans pads de sortie est
appelé un "évier".

Graphique de filtre syntaxe
Un filtergraph a une représentation textuelle, qui est reconnue par le -filtre/-vf/-un F ainsi que
-filtre_complexe options ffmpeg ainsi que -vf/-un F in ffplayEt par
Fonction "avfilter_graph_parse_ptr()" définie dans libavfilter/avfilter.h.

Une chaîne de filtres consiste en une séquence de filtres connectés, chacun connecté au
précédente dans la séquence. Une chaîne de filtres est représentée par une liste de ","-séparés
descriptions des filtres.

Un filtergraph consiste en une séquence de filterchains. Une séquence de chaînes de filtres est
représenté par une liste de descriptions de chaînes de filtres séparées par des ";".

Un filtre est représenté par une chaîne de la forme :
[in_link_1]...[in_link_N]nom_filtre=arguments[out_link_1]...[out_link_M]

nom_filtre est le nom de la classe de filtre dont le filtre décrit est une instance
de, et doit être le nom de l'une des classes de filtres enregistrées dans le programme. Les
le nom de la classe de filtre est éventuellement suivi d'une chaîne "=arguments".

arguments est une chaîne qui contient les paramètres utilisés pour initialiser le filtre
exemple. Il peut prendre l'une des deux formes suivantes :

· Une liste séparée par ':' de key = paires.

· Une liste séparée par ':' de Plus-value. Dans ce cas, les clés sont supposées être l'option
noms dans l'ordre où ils sont déclarés. Par exemple, le filtre "fondu" déclare trois options dans
cet ordre -- type, start_frame ainsi que nb_frames. Ensuite, la liste des paramètres dans:0:30 veux dire
que la valeur in est affecté à l'option type, 0 à start_frame ainsi que 30 à
nb_frames.

· Une liste séparée par ':' de directs mixtes Plus-value et long key = paires. Le direct Plus-value
doit précéder le key = paires, et suivre le même ordre de contraintes de la
point précédent. Ce qui suit key = les paires peuvent être placées dans n'importe quel ordre préféré.

Si la valeur de l'option elle-même est une liste d'éléments (par exemple, le filtre "format" prend une liste de
pixels), les éléments de la liste sont généralement séparés par |.

La liste des arguments peut être citée à l'aide du caractère ' comme marque initiale et finale, et
le personnage \ pour échapper les caractères dans le texte cité ; sinon l'argument
chaîne est considérée comme terminée lorsque le prochain caractère spécial (appartenant à l'ensemble
[]=;,) est rencontré.

Le nom et les arguments du filtre sont éventuellement précédés et suivis d'une liste de
étiquettes de lien. Une étiquette de lien permet de nommer un lien et de l'associer à une sortie de filtre
ou le pavé d'entrée. Les étiquettes précédentes in_link_1 in_link_N, sont associés au filtre
pads d'entrée, les étiquettes suivantes out_link_1 out_link_M, sont associés à la sortie
tampons.

Lorsque deux étiquettes de lien avec le même nom sont trouvées dans le filtergraph, un lien entre le
le pad d'entrée et de sortie correspondant est créé.

Si un plot de sortie n'est pas étiqueté, il est lié par défaut à la première entrée non étiquetée
tampon du filtre suivant dans la chaîne de filtres. Par exemple dans la chaîne de filtrage

nullsrc, split[L1], [L2]superposition, nullsink

l'instance de filtre divisé a deux pads de sortie et l'instance de filtre de superposition deux entrées
tampons. Le premier pad de sortie de split est étiqueté "L1", le premier pad d'entrée de superposition est
étiqueté "L2", et le deuxième pad de sortie de split est lié au deuxième pad d'entrée de
superposition, qui ne sont pas toutes deux étiquetées.

Dans une description de filtre, si l'étiquette d'entrée du premier filtre n'est pas spécifiée, "in" est
assumé; si l'étiquette de sortie du dernier filtre n'est pas spécifiée, "out" est supposé.

Dans une chaîne de filtrage complète, tous les pads d'entrée et de sortie de filtre non étiquetés doivent être
connecté. Un filtergraph est considéré comme valide si tous les plots d'entrée et de sortie du filtre de
toutes les chaînes de filtres sont connectées.

Libavfilter insérera automatiquement escaliers filtres où la conversion de format est requise.
Il est possible de spécifier des indicateurs swscale pour les scalers automatiquement insérés en
préfixe "sws_flags=drapeaux ;" à la description du filtergraph.

Voici une description BNF de la syntaxe filtergraph :

::= séquence de caractères alphanumériques et '_'
::= "[" "]"
::= [ ]
::= séquence de caractères (éventuellement entre guillemets)
::= [ ] ["=" ] [ ]
::= [, ]
::= [sws_flags= ;] [; ]

Notes on graphique de filtre échapper
La composition de description de Filtergraph implique plusieurs niveaux d'échappement. Voir le "Citation
ainsi que s'échapper" in le ffmpeg-utils(1) Manuel pour plus d'informations sur la
procédure d'échappement employée.

Un échappement de premier niveau affecte le contenu de chaque valeur d'option de filtre, qui peut contenir
le caractère spécial ":" utilisé pour séparer les valeurs, ou l'un des caractères d'échappement "\'".

Un échappement de deuxième niveau affecte toute la description du filtre, qui peut contenir le
les caractères d'échappement "\'" ou les caractères spéciaux "[],;" utilisé par le filtergraph
la description.

Enfin, lorsque vous spécifiez un filtergraph sur une ligne de commande shell, vous devez effectuer un
troisième niveau d'échappement pour les caractères spéciaux du shell qu'il contient.

Par exemple, considérons que la chaîne suivante doit être incorporée dans le dessiner le texte une fonction filtre
la description texte valeur:

ceci est une 'chaîne' : peut contenir un ou plusieurs caractères spéciaux

Cette chaîne contient le caractère d'échappement spécial "'" et le caractère spécial ":", donc
il doit être échappé de cette manière:

text=ceci est une \'chaîne\'\ : peut contenir un ou plusieurs caractères spéciaux

Un deuxième niveau d'échappement est requis lors de l'intégration de la description du filtre dans un
description du filtergraph, afin d'échapper à tous les caractères spéciaux du filtergraph. Ainsi
l'exemple ci-dessus devient :

drawtext=text=ceci est une \\\'string\\\'\\ : peut contenir un\, ou plusieurs\, caractères spéciaux

(notez qu'en plus des caractères spéciaux d'échappement "\'", "," doit également être
échappé).

Enfin, un niveau supplémentaire d'échappement est nécessaire lors de l'écriture de la description du filtergraph
dans une commande shell, qui dépend des règles d'échappement du shell adopté. Par exemple,
en supposant que "\" est spécial et doit être échappé avec un autre "\", la chaîne précédente
se traduira finalement par :

-vf "drawtext=text=ceci est une \\\\\\'string\\\\\\'\\\\ : peut contenir un\\, ou plusieurs\\, caractères spéciaux"

CHRONOLOGIE ÉDITION


Certains filtres prennent en charge un générique permettre option. Pour les filtres prenant en charge l'édition de la chronologie,
cette option peut être définie sur une expression qui est évaluée avant d'envoyer une trame au
filtre. Si l'évaluation est non nulle, le filtre sera activé, sinon le cadre
sera envoyé inchangé au filtre suivant dans le filtergraph.

L'expression accepte les valeurs suivantes :

t horodatage exprimé en secondes, NAN si l'horodatage d'entrée est inconnu

n numéro séquentiel de la trame d'entrée, à partir de 0

poster la position dans le fichier de la trame d'entrée, NAN si inconnue

w
h largeur et hauteur du cadre d'entrée si vidéo

De plus, ces filtres prennent en charge un permettre commande qui peut être utilisée pour redéfinir le
expression.

Comme toute autre option de filtrage, le permettre option suit les mêmes règles.

Par exemple, pour activer un filtre de flou (flou artistique) de 10 secondes à 3 minutes, et un
courbes filtre à partir de 3 secondes :

smartblur = enable='entre(t,10,3*60)',
courbes = enable='gte(t,3)' : preset=cross_process

AUDIO FILTRES


Lorsque vous configurez votre build FFmpeg, vous pouvez désactiver l'un des filtres existants en utilisant
"--désactiver-filtres". La sortie de configuration affichera les filtres audio inclus dans votre
construire.

Vous trouverez ci-dessous une description des filtres audio actuellement disponibles.

fondu enchaîné
Appliquez un fondu enchaîné d'un flux audio d'entrée à un autre flux audio d'entrée. La Croix
le fondu est appliqué pendant une durée spécifiée vers la fin du premier flux.

Le filtre accepte les options suivantes :

nb_échantillons, ns
Spécifiez le nombre d'échantillons pour lesquels l'effet de fondu enchaîné doit durer. À la fin
de l'effet de fondu enchaîné, la première entrée audio sera complètement silencieuse. La valeur par défaut est
44100.

durée, d
Spécifiez la durée de l'effet de fondu enchaîné. Voir le Temps durée in le
ffmpeg-utils(1) Manuel pour la syntaxe acceptée. Par défaut la durée est déterminée
by nb_échantillons. Si elle est définie, cette option est utilisée à la place de nb_échantillons.

chevauchement, o
Si la fin du premier flux chevauche le début du deuxième flux. La valeur par défaut est activée.

courbe1
Définir la courbe pour la transition de fondu enchaîné pour le premier flux.

courbe2
Définir la courbe pour la transition de fondu enchaîné pour le deuxième flux.

Pour la description des types de courbes disponibles, voir s'effacer description du filtre.

Exemples

· Fondu enchaîné d'une entrée à l'autre :

ffmpeg -i first.flac -i second.flac -filter_complex acrossfade=d=10:c1=exp:c2=exp output.flac

· Fondu enchaîné d'une entrée à l'autre mais sans chevauchement :

ffmpeg -i first.flac -i second.flac -filter_complex acrossfade=d=10:o=0:c1=exp:c2=exp output.flac

un délai
Retardez un ou plusieurs canaux audio.

Les échantillons dans le canal retardé sont remplis de silence.

Le filtre accepte l'option suivante :

retards
Définir la liste des délais en millisecondes pour chaque canal séparés par '|'. Au moins un
un délai supérieur à 0 doit être fourni. Les délais inutilisés seront ignorés en silence. Si
le nombre de retards donnés est inférieur au nombre de canaux tous les canaux restants seront
ne pas être retardé.

Exemples

· Retardez le premier canal de 1.5 seconde, le troisième canal de 0.5 seconde et laissez le
deuxième canal (et tout autre canal éventuellement présent) inchangé.

délai=1500|0|500

écho
Appliquez un écho à l'audio d'entrée.

Les échos sont des sons réfléchis et peuvent se produire naturellement parmi les montagnes (et parfois de grands
bâtiments) en parlant ou en criant ; les effets d'écho numérique émulent ce comportement et sont
souvent utilisé pour aider à remplir le son d'un seul instrument ou d'une voix. Le décalage horaire
entre le signal d'origine et la réflexion est le "retard", et le volume du
le signal réfléchi est la "décroissance". Les échos multiples peuvent avoir des retards et des décroissances différents.

Une description des paramètres acceptés suit.

in_gain
Réglez le gain d'entrée du signal réfléchi. La valeur par défaut est 0.6.

gain_out
Réglez le gain de sortie du signal réfléchi. La valeur par défaut est 0.3.

retards
Définir la liste des intervalles de temps en millisecondes entre le signal d'origine et les réflexions
séparés par '|'. La plage autorisée pour chaque "retard" est "(0 - 90000.0]". La valeur par défaut est 1000.

se désintègre
Définir la liste des niveaux sonores des signaux réfléchis séparés par '|'. Plage autorisée pour chacun
"decay" est "(0 - 1.0]". La valeur par défaut est 0.5.

Exemples

· Faites sonner comme s'il y avait deux fois plus d'instruments que d'instruments en jeu :

écho=0.8:0.88:60:0.4

· Si le délai est très court, cela ressemble à un robot (métallique) jouant de la musique :

écho=0.8:0.88:6:0.4

· Un delay plus long sonnera comme un concert en plein air en montagne :

écho=0.8:0.9:1000:0.3

· Idem que ci-dessus mais avec une montagne de plus :

aecho=0.8:0.9:1000|1800:0.3|0.25

évasion
Modifier un signal audio selon les expressions spécifiées.

Ce filtre accepte une ou plusieurs expressions (une pour chaque canal), qui sont évaluées
et utilisé pour modifier un signal audio correspondant.

Il accepte les paramètres suivants :

expressions
Définissez la liste d'expressions séparées par '|' pour chaque canal séparé. Si le nombre de
canaux d'entrée est supérieur au nombre d'expressions, le dernier spécifié
expression est utilisée pour les canaux de sortie restants.

canal_layout, c
Définir la disposition du canal de sortie. S'il n'est pas spécifié, la disposition des canaux est spécifiée par le
nombre d'expressions. Si réglé sur même, il utilisera par défaut le même canal d'entrée
mise en page.

Chaque expression dans expressions peut contenir les constantes et fonctions suivantes :

ch numéro de canal de l'expression actuelle

n numéro de l'échantillon évalué, à partir de 0

s taux d'échantillonnage

t temps de l'échantillon évalué exprimé en secondes

nb_in_channels
nb_out_channels
nombre de canaux d'entrée et de sortie

val(CH)
la valeur du canal d'entrée avec le numéro CH

Remarque : ce filtre est lent. Pour un traitement plus rapide, vous devez utiliser un filtre dédié.

Exemples

· Demi-volume :

aeval=val(ch)/2:c=même

· Inverser la phase du deuxième canal :

aeval=vague(0)|-vague(1)

s'effacer
Appliquez un effet de fondu d'entrée/sortie à l'entrée audio.

Une description des paramètres acceptés suit.

Type, t
Spécifiez le type d'effet, peut être soit "in" pour un fondu d'entrée, soit "out" pour un fondu de sortie
effet. La valeur par défaut est "dans".

start_sample, ss
Spécifiez le numéro de l'échantillon de départ pour commencer à appliquer l'effet de fondu. Défaut
est 0.

nb_échantillons, ns
Spécifiez le nombre d'échantillons pour lesquels l'effet de fondu doit durer. À la fin de
effet de fondu d'entrée, l'audio de sortie aura le même volume que l'audio d'entrée, à la
à la fin de la transition de fondu sortant, l'audio de sortie sera silencieux. La valeur par défaut est 44100.

Heure de début, st
Spécifiez l'heure de début de l'effet de fondu. La valeur par défaut est 0. La valeur doit être spécifiée
comme une durée de temps ; voir le Temps durée in le ffmpeg-utils(1) Manuel en
la syntaxe acceptée. Si elle est définie, cette option est utilisée à la place de start_sample.

durée, d
Spécifiez la durée de l'effet de fondu. Voir le Temps durée in le
ffmpeg-utils(1) Manuel pour la syntaxe acceptée. A la fin de l'effet de fondu, le
l'audio de sortie aura le même volume que l'audio d'entrée, à la fin du fondu de sortie
transition l'audio de sortie sera silencieux. Par défaut, la durée est déterminée par
nb_échantillons. Si elle est définie, cette option est utilisée à la place de nb_échantillons.

courbe
Définir la courbe pour la transition de fondu.

Il accepte les valeurs suivantes :

tri sélectionnez triangulaire, pente linéaire (par défaut)

qsin
sélectionner quart d'onde sinusoïdale

hsin
sélectionner la moitié de l'onde sinusoïdale

inspiration
sélectionner l'onde sinusoïdale exponentielle

enregistrer sélectionner logarithmique

ipar
sélectionner la parabole inversée

ici sélectionner quadratique

cube sélectionner cubique

carré sélectionner la racine carrée

cbr sélectionner la racine cubique

par sélectionner la parabole

exp sélectionnez exponentielle

iqsin
sélectionner quart inversé d'onde sinusoïdale

ihsin
sélectionner la moitié inversée de l'onde sinusoïdale

dés
sélectionnez siège double exponentielle

desi
sélectionnez sigmoïde double exponentiel

Exemples

· Fondu dans les 15 premières secondes de l'audio :

afade=t=in:ss=0:d=15

· Fondu des 25 dernières secondes d'un audio de 900 secondes :

afade=t=out:st=875:d=25

un format
Définissez les contraintes de format de sortie pour l'audio d'entrée. Le cadre négociera le plus
format approprié pour minimiser les conversions.

Il accepte les paramètres suivants :

exemple_fmts
Une liste séparée par des « | » des exemples de formats demandés.

taux_échantillons
Une liste séparée par '|' des taux d'échantillonnage demandés.

canal_layouts
Une liste séparée par '|' des dispositions de canaux demandées.

See le Développement Disposition in le ffmpeg-utils(1) Manuel pour la syntaxe requise.

Si un paramètre est omis, toutes les valeurs sont autorisées.

Forcer la sortie en stéréo 8 bits non signé ou en 16 bits signé

aformat=sample_fmts=u8|s16:channel_layouts=stéréo

tous passent
Appliquer un filtre passe-tout bipolaire avec fréquence centrale (en Hz) fréquence, et filtre-
largeur largeur. Un filtre passe-tout modifie la relation fréquence-phase de l'audio
sans changer sa relation fréquence-amplitude.

Le filtre accepte les options suivantes :

la fréquence, f
Réglez la fréquence en Hz.

largeur_type
Définir la méthode pour spécifier la bande passante du filtre.

h Hz

q Facteur Q

o octave

s pente

largeur, w
Spécifiez la bande passante d'un filtre en unités width_type.

fusionner
Fusionnez deux ou plusieurs flux audio en un seul flux multicanal.

Le filtre accepte les options suivantes :

entrées
Réglez le nombre d'entrées. La valeur par défaut est 2.

Si les dispositions des canaux des entrées sont disjointes, et donc compatibles, le canal
la disposition de la sortie sera définie en conséquence et les canaux seront réorganisés comme
nécessaire. Si les dispositions des canaux des entrées ne sont pas disjointes, la sortie aura tous
les canaux de la première entrée puis tous les canaux de la deuxième entrée, dans cet ordre,
et la disposition des canaux de la sortie sera la valeur par défaut correspondant au total
Nombre de canaux.

Par exemple, si la première entrée est en 2.1 (FL+FR+LF) et la deuxième entrée est FC+BL+BR,
alors la sortie sera en 5.1, avec les canaux dans l'ordre suivant : a1, a2, b1, a3,
b2, b3 (a1 est le premier canal de la première entrée, b1 est le premier canal de la seconde
contribution).

Par contre, si les deux entrées sont en stéréo, les canaux de sortie seront par défaut
ordre : a1, a2, b1, b2, et la disposition des canaux sera arbitrairement définie sur 4.0, ce qui peut ou
peut ne pas être la valeur attendue.

Toutes les entrées doivent avoir la même fréquence d'échantillonnage et le même format.

Si les entrées n'ont pas la même durée, la sortie s'arrêtera avec la plus courte.

Exemples

· Fusionnez deux fichiers mono en un flux stéréo :

amovie=gauche.wav [l] ; amovie=right.mp3 [r] ; [l] [r] fusionner

· Fusions multiples en supposant 1 flux vidéo et 6 flux audio dans entrée.mkv:

ffmpeg -i input.mkv -filter_complex "[0:1][0:2][0:3][0:4][0:5][0:6] amerge=inputs=6" -c:a pcm_s16le sortie.mkv

un mélange
Mélange plusieurs entrées audio en une seule sortie.

Notez que ce filtre ne prend en charge que les échantillons flottants (le fusionner ainsi que casserole filtres audio
prend en charge de nombreux formats). Si la un mélange l'entrée a des échantillons entiers alors un échantillon sera
inséré automatiquement pour effectuer la conversion en échantillons flottants.

Par exemple

ffmpeg -i INPUT1 -i INPUT2 -i INPUT3 -filter_complex amix=inputs=3:duration=first:dropout_transition=3 OUTPUT

mélangera 3 flux audio d'entrée à une seule sortie avec la même durée que le premier
entrée et un temps de transition de désactivation de 3 secondes.

Il accepte les paramètres suivants :

entrées
Le nombre d'entrées. S'il n'est pas spécifié, la valeur par défaut est 2.

durée
Comment déterminer la fin du flux.

le plus long
La durée de l'entrée la plus longue. (défaut)

le plus court
La durée de l'entrée la plus courte.

premier
La durée de la première entrée.

abandon_transition
Le temps de transition, en secondes, pour la renormalisation du volume lorsqu'un flux d'entrée se termine.
La valeur par défaut est de 2 secondes.

nul
Passez la source audio inchangée à la sortie.

papa
Complétez la fin d'un flux audio avec du silence.

Cela peut être utilisé avec ffmpeg -le plus court pour étendre les flux audio à la même longueur
comme flux vidéo.

Une description des options acceptées suit.

taille_paquet
Définir la taille du paquet de silence. La valeur par défaut est 4096.

pad_len
Définissez le nombre d'échantillons de silence à ajouter à la fin. Une fois la valeur atteinte,
le flux est terminé. Cette option est mutuellement exclusive avec entier_len.

entier_len
Définissez le nombre total minimum d'échantillons dans le flux audio de sortie. Si la valeur est
plus long que la longueur audio d'entrée, le silence est ajouté à la fin, jusqu'à ce que la valeur soit
parvenu. Cette option est mutuellement exclusive avec pad_len.

Si ni le pad_len ni l' entier_len est définie, le filtre ajoutera du silence à la
fin du flux d'entrée indéfiniment.

Exemples

· Ajouter 1024 échantillons de silence à la fin de l'entrée :

apad=pad_len=1024

· Assurez-vous que la sortie audio contiendra au moins 10000 échantillons, complétez l'entrée avec
silence si besoin :

apad=whole_len=10000

· Utilisation ffmpeg pour remplir l'entrée audio de silence, de sorte que le flux vidéo soit toujours
résultat le plus court et sera converti jusqu'à la fin dans le fichier de sortie lors de l'utilisation
le le plus court option:

ffmpeg -i VIDEO -i AUDIO -filter_complex "[1:0]apad" -SORTIE la plus courte

aphaseur
Ajoutez un effet de mise en phase à l'audio d'entrée.

Un filtre phaser crée une série de pics et de creux dans le spectre de fréquences. Les
la position des pics et des creux est modulée de manière à varier dans le temps, créant une
effet de balayage.

Une description des paramètres acceptés suit.

in_gain
Réglez le gain d'entrée. La valeur par défaut est 0.4.

gain_out
Réglez le gain de sortie. La valeur par défaut est 0.74

retarder
Réglez le délai en millisecondes. La valeur par défaut est 3.0.

décadence
Définir la pourriture. La valeur par défaut est 0.4.

vitesse
Réglez la vitesse de modulation en Hz. La valeur par défaut est 0.5.

type
Réglez le type de modulation. La valeur par défaut est triangulaire.

Il accepte les valeurs suivantes :

triangulaire, t
sinusoïdale, s

un échantillon
Rééchantillonnez l'audio d'entrée aux paramètres spécifiés, en utilisant la bibliothèque libswresample. Si
aucun n'est spécifié, le filtre convertira automatiquement entre son entrée et
sortie.

Ce filtre est également capable d'étirer / comprimer les données audio pour les faire correspondre aux horodatages
ou pour injecter du silence/couper l'audio pour qu'il corresponde aux horodatages, faites une combinaison de
les deux ou ni l'un ni l'autre.

Le filtre accepte la syntaxe [taux d'échantillonnage:]options_resampler, Où taux d'échantillonnage exprime
un taux d'échantillonnage et options_resampler est une liste de key=Plus-value paires, séparées par ":". Voir
le manuel ffmpeg-resampler pour la liste complète des options prises en charge.

Exemples

· Rééchantillonnez l'audio d'entrée à 44100 Hz :

un échantillon=44100

· Étirez/compressez les échantillons aux horodatages donnés, avec un maximum de 1000 échantillons par
deuxième indemnité :

aresample=async=1000

un ensemble d'échantillons
Définissez le nombre d'échantillons pour chaque trame audio de sortie.

Le dernier paquet de sortie peut contenir un nombre différent d'échantillons, car le filtre videra
tous les échantillons restants lorsque le signal audio d'entrée est terminé.

Le filtre accepte les options suivantes :

nb_out_samples, n
Définissez le nombre d'images pour chaque image audio de sortie. Le numéro est conçu comme le
nombre d'échantillons / chacun chaine. La valeur par défaut est 1024.

tampon, p
S'il est défini sur 1, le filtre remplira la dernière trame audio avec des zéros, de sorte que la dernière
frame contiendra le même nombre d'échantillons que les précédents. La valeur par défaut est
1.

Par exemple, pour définir le nombre d'échantillons par image sur 1234 et désactiver le remplissage pour le
dernière image, utilisez :

asetnsamples=n=1234:p=0

actif
Réglez la fréquence d'échantillonnage sans modifier les données PCM. Cela entraînera un changement de vitesse
et pas.

Le filtre accepte les options suivantes :

taux d'échantillonnage, r
Réglez la fréquence d'échantillonnage de sortie. La valeur par défaut est 44100 Hz.

ashowinfo
Affiche une ligne contenant diverses informations pour chaque trame audio d'entrée. Le son d'entrée est
non modifié.

La ligne affichée contient une séquence de paires clé/valeur de la forme key:Plus-value.

Les valeurs suivantes sont affichées dans la sortie :

n Le numéro (séquentiel) de la trame d'entrée, à partir de 0.

pts L'horodatage de présentation de la trame d'entrée, en unités de base de temps ; la base de temps
dépend du tampon d'entrée du filtre, et est généralement 1/taux d'échantillonnage.

pts_heure
L'horodatage de présentation de la trame d'entrée en secondes.

poster position de la trame dans le flux d'entrée, -1 si cette information est indisponible
et/ou sans signification (par exemple en cas d'audio synthétique)

fmt L'exemple de format.

mise en page
La disposition des canaux.

taux
La fréquence d'échantillonnage de la trame audio.

nb_échantillons
Le nombre d'échantillons (par canal) dans la trame.

somme de contrôle
La somme de contrôle Adler-32 (imprimée en hexadécimal) des données audio. Pour l'audio planaire,
les données sont traitées comme si tous les plans étaient concaténés.

plan_sommes de contrôle
Une liste des sommes de contrôle Adler-32 pour chaque plan de données.

statistiques
Affichez les informations statistiques du domaine temporel sur les canaux audio. Les statistiques sont
calculé et affiché pour chaque canal audio et, le cas échéant, un chiffre global
est également donnée.

Il accepte l'option suivante :

longueur
Longueur de fenêtre courte en secondes, utilisée pour la mesure RMS de crête et de creux. La valeur par défaut est
0.05 (50 millisecondes). La plage autorisée est "[0.1 - 10]".

métadonnées
Définir l'injection de métadonnées. Toutes les clés de métadonnées sont préfixées par "lavfi.astats.X",
où "X" est le numéro de canal à partir de 1 ou la chaîne "Overall". La valeur par défaut est désactivée.

Les clés disponibles pour chaque canal sont : DC_offset Min_level Max_level Min_difference
Max_difference Mean_difference Peak_level RMS_peak RMS_trough Crest_factor Flat_factor
Peak_count Bit_profondeur

et pour Global : DC_offset Min_level Max_level Min_difference Max_difference
Différence_moyenne Peak_level RMS_level RMS_peak RMS_trough Flat_factor Peak_count
Bit_depth Nombre_de_échantillons

Par exemple, la clé complète ressemble à ceci "lavfi.astats.1.DC_offset" ou à ceci
"lavfi.astats.Overall.Peak_count".

Pour une description de la signification de chaque clé, lisez ci-dessous.

réinitialiser
Définissez le nombre d'images après lesquelles les statistiques seront recalculées. La valeur par défaut est
désactivée.

Une description de chaque paramètre affiché suit :

DC compenser
Déplacement d'amplitude moyenne à partir de zéro.

Min niveau
Niveau d'échantillon minimal.

Max niveau
Niveau d'échantillon maximal.

Min différence
Différence minimale entre deux échantillons consécutifs.

Max différence
Différence maximale entre deux échantillons consécutifs.

Médian différence
Différence moyenne entre deux échantillons consécutifs. La moyenne de chaque différence
entre deux échantillons consécutifs.

Courant niveau dB
RMS niveau dB
Pic standard et niveau RMS mesurés en dBFS.

RMS pic dB
RMS creux dB
Valeurs de crête et de creux pour le niveau RMS mesurées sur une courte fenêtre.

Crest facteur
Ratio standard du niveau crête au niveau RMS (remarque : pas en dB).

Plat facteur
Planéité (c'est-à-dire échantillons consécutifs avec la même valeur) du signal à son pic
niveaux (c'est-à-dire soit Min niveau or Max niveau).

Courant compter
Nombre d'occasions (pas le nombre d'échantillons) que le signal a atteint soit Min
niveau or Max niveau.

Bit profondeur
Profondeur de bits globale de l'audio. Nombre de bits utilisés pour chaque échantillon.

astreamsync
Transférez deux flux audio et contrôlez l'ordre dans lequel les tampons sont transférés.

Le filtre accepte les options suivantes :

expression, e
Définissez l'expression déterminant quel flux doit être transféré ensuite : si le résultat est
négatif, le premier flux est transmis ; si le résultat est positif ou nul, le deuxième
le flux est transmis. Il peut utiliser les variables suivantes :

b1 b2
nombre de tampons transmis jusqu'à présent sur chaque flux

s1 s2
nombre d'échantillons transmis jusqu'à présent sur chaque flux

t1 t2
horodatage actuel de chaque flux

La valeur par défaut est "t1-t2", ce qui signifie qu'il faut toujours transmettre le flux qui a un
horodatage plus petit.

Exemples

Stress-test "amerge" en envoyant aléatoirement des buffers sur la mauvaise entrée, tout en évitant aussi
beaucoup de désynchronisation :

amovie=fichier.ogg [a] ; amovie=fichier.mp3 [b] ;
[a] [b] astreamsync=(2*aléatoire(1))-1+tanh(5*(t1-t2)) [a2] [b2] ;
[a2] [b2] fusionner

asynchrone
Synchronisez les données audio avec les horodatages en les pressant/étirant et/ou en les laissant tomber
échantillons/ajout de silence si nécessaire.

Ce filtre n'est pas construit par défaut, veuillez utiliser un échantillon faire des compressions/étirements.

Il accepte les paramètres suivants :

compenser
Activez l'étirement/la compression des données pour qu'elles correspondent aux horodatages. Désactivé par
défaut. Lorsqu'il est désactivé, les intervalles de temps sont recouverts de silence.

min_delta
La différence minimale entre les horodatages et les données audio (en secondes) à déclencher
ajouter/supprimer des échantillons. La valeur par défaut est 0.1. Si vous obtenez une synchronisation imparfaite avec
ce filtre, essayez de définir ce paramètre sur 0.

max_comp
La compensation maximale en échantillons par seconde. Uniquement pertinent avec compenser=1. Les
la valeur par défaut est 500.

premiers_pts
Supposons que le premier PTS doit être cette valeur. La base de temps est 1 / fréquence d'échantillonnage. Cette
permet le remplissage/le rognage au début du flux. Par défaut, aucune hypothèse n'est
fait sur le PTS attendu de la première image, donc aucun remplissage ou rognage n'est effectué. Pour
Par exemple, cela pourrait être défini sur 0 pour compléter le début avec du silence si un flux audio
démarre après le flux vidéo ou pour rogner les échantillons avec un PTS négatif en raison de
retard de l'encodeur.

atempo
Ajustez le tempo audio.

Le filtre accepte exactement un paramètre, le tempo audio. S'il n'est pas spécifié, le
le filtre prendra un tempo nominal de 1.0. Le tempo doit être dans la plage [0.5, 2.0].

Exemples

· Ralentir l'audio à 80 % du tempo :

tempo=0.8

· Pour accélérer l'audio à 125 % du tempo :

tempo=1.25

une coupe
Coupez l'entrée de sorte que la sortie contienne une sous-partie continue de l'entrée.

Il accepte les paramètres suivants :

Commencer
Horodatage (en secondes) du début de la section à conserver. C'est-à-dire l'échantillon audio avec
l'horodatage Commencer sera le premier échantillon de la sortie.

fin Spécifiez l'heure du premier échantillon audio qui sera supprimé, c'est-à-dire l'échantillon audio
précédant immédiatement celui avec l'horodatage fin sera le dernier échantillon dans le
sortie.

start_pts
Pareil que Commencer, sauf que cette option définit l'horodatage de début en échantillons au lieu de
secondes.

fin_pts
Pareil que fin, sauf que cette option définit l'horodatage de fin en échantillons au lieu de secondes.

durée
La durée maximale de la sortie en secondes.

start_sample
Le numéro du premier échantillon qui doit être sorti.

end_sample
Le numéro du premier échantillon à supprimer.

Commencer, finet durée sont exprimés sous forme de spécifications de durée; voir le Temps
durée in le ffmpeg-utils(1) Manuel.

Notez que les deux premiers ensembles d'options de début/fin et le durée option regarde le
horodatage de l'image, tandis que les options _sample comptent simplement les échantillons qui passent par le
filtre. Ainsi, start/end_pts et start/end_sample donneront des résultats différents lorsque le
les horodatages sont erronés, inexacts ou ne commencent pas à zéro. Notez également que ce filtre ne
modifier les horodatages. Si vous souhaitez que les horodatages de sortie commencent à zéro, insérez le
filtre asetpts après le filtre atrim.

Si plusieurs options de début ou de fin sont définies, ce filtre essaie d'être gourmand et de conserver tous
échantillons qui correspondent à au moins une des contraintes spécifiées. Pour ne garder que la partie qui
correspond à toutes les contraintes à la fois, chaîne plusieurs filtres atrim.

Les valeurs par défaut sont telles que toutes les entrées sont conservées. Il est donc possible de définir par exemple uniquement le
valeurs de fin pour tout conserver avant l'heure spécifiée.

Exemples :

· Supprimez tout sauf la deuxième minute de saisie :

ffmpeg -i ENTRÉE -af atrim=60:120

· Ne conserver que les 1000 premiers échantillons :

ffmpeg -i INPUT -af atrim=end_sample=1000

passe-bande
Appliquer un filtre passe-bande Butterworth bipolaire avec fréquence centrale fréquenceet
(3dB-point) largeur de bande passante. Les csg L'option sélectionne un gain de jupe constant (gain de crête =
Q) au lieu de la valeur par défaut : gain de crête constant de 0 dB. Le filtre s'abaisse à 6dB par octave
(20dB par décennie).

Le filtre accepte les options suivantes :

la fréquence, f
Réglez la fréquence centrale du filtre. La valeur par défaut est 3000.

csg Gain de jupe constant s'il est défini sur 1. La valeur par défaut est 0.

largeur_type
Définir la méthode pour spécifier la bande passante du filtre.

h Hz

q Facteur Q

o octave

s pente

largeur, w
Spécifiez la bande passante d'un filtre en unités width_type.

rejet de bande
Appliquer un filtre de rejet de bande Butterworth bipolaire avec fréquence centrale fréquenceet
bande passante (3dB-point) largeur. Le filtre décroît à 6 dB par octave (20 dB par décade).

Le filtre accepte les options suivantes :

la fréquence, f
Réglez la fréquence centrale du filtre. La valeur par défaut est 3000.

largeur_type
Définir la méthode pour spécifier la bande passante du filtre.

h Hz

q Facteur Q

o octave

s pente

largeur, w
Spécifiez la bande passante d'un filtre en unités width_type.

basse
Augmentez ou coupez les fréquences basses (inférieures) de l'audio à l'aide d'un filtre en plateau à deux pôles
avec une réponse similaire à celle des commandes de tonalité d'une chaîne hi-fi standard. Ceci est également connu comme
égalisation en plateau (EQ).

Le filtre accepte les options suivantes :

Gain, g
Donner le gain à 0 Hz. Sa plage utile est d'environ -20 (pour une grosse coupe) à +20 (pour une
gros coup de pouce). Attention à l'écrêtage lors de l'utilisation d'un gain positif.

la fréquence, f
Réglez la fréquence centrale du filtre et peut donc être utilisé pour étendre ou réduire la
gamme de fréquences à amplifier ou à couper. La valeur par défaut est 100 Hz.

largeur_type
Définir la méthode pour spécifier la bande passante du filtre.

h Hz

q Facteur Q

o octave

s pente

largeur, w
Déterminez la pente de la transition de plateau du filtre.

biquade
Appliquer un filtre IIR biquad avec les coefficients donnés. Où b0, b1, b2 ainsi que a0, a1, a2
sont respectivement les coefficients du numérateur et du dénominateur.

bs2b
Transformation Bauer stéréo en binaurale, qui améliore l'écoute stéréo au casque
enregistrements audio.

Il accepte les paramètres suivants :

profil
Niveau d'intercommunication prédéfini.

défaut
Niveau par défaut (fcut=700, feed=50).

cmoy
Circuit Chu Moy (fcut=700, alimentation=60).

jmeier
Circuit Jan Meier (fcut=650, alimentation=95).

coupe
Fréquence de coupure (en Hz).

nourrir
Niveau d'alimentation (en Hz).

carte des canaux
Remappez les canaux d'entrée vers de nouveaux emplacements.

Il accepte les paramètres suivants :

canal_layout
La disposition des canaux du flux de sortie.

Localisation Mapper les canaux de l'entrée à la sortie. L'argument est une liste de mappages séparés par '|',
chacun dans le "in_channel-out_channel" or in_channel formulaire. in_channel peut être soit le
nom du canal d'entrée (ex. FL pour avant gauche) ou son index dans le canal d'entrée
mise en page. canal_out est le nom du canal de sortie ou son index dans la sortie
disposition des canaux. Si canal_out n'est pas donné alors il s'agit implicitement d'un indice, commençant
avec zéro et augmentant de un pour chaque mappage.

Si aucun mappage n'est présent, le filtre mappera implicitement les canaux d'entrée sur la sortie
canaux, en préservant les indices.

Par exemple, en supposant un fichier MOV d'entrée 5.1+downmix,

ffmpeg -i in.mov -filter 'channelmap=map=DL-FL|DR-FR' out.wav

créera un fichier WAV de sortie étiqueté comme stéréo à partir des canaux de mixage descendant de l'entrée.

Pour corriger un WAV 5.1 mal codé dans l'ordre des canaux natifs d'AAC

ffmpeg -i in.wav -filter 'channelmap=1|2|0|5|3|4:5.1' out.wav

division des canaux
Divisez chaque canal d'un flux audio d'entrée en un flux de sortie distinct.

Il accepte les paramètres suivants :

canal_layout
La disposition des canaux du flux d'entrée. La valeur par défaut est "stéréo".

Par exemple, en supposant un fichier MP3 d'entrée stéréo,

ffmpeg -i in.mp3 -filter_complexchannelsplit out.mkv

créera un fichier Matroska de sortie avec deux flux audio, l'un ne contenant que la gauche
canal et l'autre le canal droit.

Divisez un fichier WAV 5.1 en fichiers par canal :

ffmpeg -i in.wav -filter_complex
'channelsplit=channel_layout=5.1[FL][FR][FC][LFE][SL][SR]'
-map '[FL]' front_left.wav -map '[FR]' front_right.wav -map '[FC]'
front_center.wav -map '[LFE]' lfe.wav -map '[SL]' side_left.wav -map '[SR]'
side_right.wav

chœur
Ajoutez un effet de chœur à l'audio.

Peut produire un seul son vocal comme un chœur, mais peut également être appliqué à l'instrumentation.

Le chorus ressemble à un effet d'écho avec un délai court, mais alors qu'avec l'écho le délai est
constante, avec chorus, elle est variée à l'aide d'une modulation sinusoïdale ou triangulaire. Les
profondeur de modulation définit la plage dans laquelle le retard modulé est joué avant ou après le
retard. Par conséquent, le son retardé sonnera plus lentement ou plus rapidement, c'est le son retardé
accordé autour de l'original, comme dans un refrain où certaines voix sont légèrement fausses.

Il accepte les paramètres suivants :

in_gain
Réglez le gain d'entrée. La valeur par défaut est 0.4.

gain_out
Réglez le gain de sortie. La valeur par défaut est 0.4.

retards
Fixez des délais. Un délai typique est d'environ 40 ms à 60 ms.

se désintègre
L'ensemble se désintègre.

vitesses
Réglez les vitesses.

profondeurs
Réglez les profondeurs.

Exemples

· Un seul délai :

chorus=0.7:0.9:55:0.4:0.25:2

· Deux délais :

chorus=0.6:0.9:50|60:0.4|0.32:0.25|0.4:2|1.3

· Chorus au son plus complet avec trois délais :

chorus=0.5:0.9:50|60|40:0.4|0.32|0.3:0.25|0.4|0.3:2|2.3|1.3

compagne
Compresser ou étendre la plage dynamique de l'audio.

Il accepte les paramètres suivants :

attaques
se désintègre
Une liste de temps en secondes pour chaque canal sur lequel le niveau instantané du
le signal d'entrée est moyenné pour déterminer son volume. attaques fait référence à l'augmentation du volume
ainsi que se désintègre fait référence à la diminution du volume. Dans la plupart des situations, le temps d'attaque
(la réponse à l'audio devient plus forte) devrait être plus courte que le temps de décroissance, car
l'oreille humaine est plus sensible au son soudain fort qu'au son soudain faible. Un typique
la valeur pour l'attaque est de 0.3 seconde et une valeur typique pour la décroissance est de 0.8 seconde. Si
le nombre spécifié d'attaques et de décroissance est inférieur au nombre de canaux, le dernier ensemble
l'attaque/le déclin sera utilisé pour tous les canaux restants.

des notes bonus
Une liste de points pour la fonction de transfert, spécifié en dB par rapport au maximum
amplitude de signal possible. Chaque liste de points clés doit être définie à l'aide des éléments suivants
syntaxe : "x0/y0|x1/y1|x2/y2|...." ou "x0/y0 x1/y1 x2/y2 ...."

Les valeurs d'entrée doivent être dans un ordre strictement croissant mais la fonction de transfert ne
ne doit pas être en augmentation monotone. Le point "0/0" est supposé mais peut être outrepassé
(par "0/out-dBn"). Les valeurs typiques de la fonction de transfert sont "-70/-70|-60/-20".

genou doux
Définissez le rayon de la courbe en dB pour toutes les articulations. La valeur par défaut est 0.01.

Gain
Réglez le gain supplémentaire en dB à appliquer en tous points de la fonction de transfert.
Cela permet un réglage facile du gain global. La valeur par défaut est 0.

le volume
Définissez un volume initial, en dB, à prendre en compte pour chaque canal lorsque le filtrage démarre.
Cela permet à l'utilisateur de fournir initialement un niveau nominal, de sorte que, par exemple, un
un gain très important n'est pas appliqué aux niveaux de signal initiaux avant que la compression-extension n'ait
commencé à fonctionner. Une valeur typique pour un son initialement silencieux est de -90 dB. Ce
la valeur par défaut est 0.

retarder
Définissez un délai, en secondes. L'audio d'entrée est analysé immédiatement, mais l'audio est retardé
avant d'être transmis au régulateur de volume. Spécification d'un délai approximativement égal au
les temps d'attaque/de désintégration permettent au filtre de fonctionner efficacement de manière prédictive plutôt que
mode réactif. La valeur par défaut est 0.

Exemples

· Faites de la musique avec des passages calmes et forts adaptés à une écoute dans un environnement bruyant
environnement:

compand=.3|.3:1|1:-90/-60|-60/-40|-40/-30|-20/-20:6:0:-90:0.2

Un autre exemple d'audio avec des parties chuchotement et explosion :

compand=0|0:1|1:-90/-900|-70/-70|-30/-9|0/-3:6:0:0:0

· Un noise gate pour quand le bruit est à un niveau inférieur au signal :

compand=.1|.1:.2|.2:-900/-900|-50.1/-900|-50/-50:.01:0:-90:.1

· Voici un autre noise gate, cette fois pour quand le bruit est à un niveau plus élevé que le
signal (ce qui le rend, à certains égards, similaire au squelch):

compand=.1|.1:.1|.1:-45.1/-45.1|-45/-900|0/-900:.01:45:-90:.1

décalage décalé
Appliquez un décalage DC à l'audio.

Cela peut être utile pour supprimer un décalage DC (causé peut-être par un problème matériel dans le
chaîne d'enregistrement) à partir de l'audio. L'effet d'un décalage CC est une marge réduite et donc
le volume. Les statistiques filtre peut être utilisé pour déterminer si un signal a un décalage CC.

décalage
Réglez le décalage CC, la plage autorisée est [-1, 1]. Il indique le montant pour déplacer le
audio.

gain limiteur
Optionnel. Il doit avoir une valeur bien inférieure à 1 (par exemple 0.05 ou 0.02) et est utilisé pour
empêcher l'écrêtage.

dynaudnorme
Normaliseur audio dynamique.

Ce filtre applique une certaine quantité de gain à l'audio d'entrée afin d'apporter son pic
magnitude à un niveau cible (par exemple 0 dBFS). Cependant, contrairement à plus "simple"
algorithmes de normalisation, le Dynamic Audio Normalizer réajuste *dynamiquement* le gain
facteur à l'entrée audio. Cela permet d'appliquer un gain supplémentaire aux sections "silencieuses" de
l'audio en évitant les distorsions ou en écrêtant les sections "fortes". En d'autres termes : le
Dynamic Audio Normalizer « égalisera » le volume des sections calmes et fortes, dans le
sens que le volume de chaque section est amené au même niveau cible. Notez, cependant,
que le Dynamic Audio Normalizer atteint cet objectif *sans* appliquer la "plage dynamique
compression". Il conservera 100% de la plage dynamique *dans* chaque section de l'audio
fichier.

f Définissez la longueur de la trame en millisecondes. Dans la plage de 10 à 8000 millisecondes. Défaut
est de 500 millisecondes. Le Dynamic Audio Normalizer traite l'audio d'entrée en petits
morceaux, appelés cadres. Ceci est nécessaire, car une amplitude de crête n'a pas
sens pour une seule valeur d'échantillon. Au lieu de cela, nous devons déterminer le pic
magnitude pour une séquence contiguë de valeurs d'échantillon. Alors qu'un normalisateur "standard"
utiliserait simplement l'amplitude maximale du fichier complet, le Dynamic Audio Normalizer
détermine l'amplitude du pic individuellement pour chaque image. La longueur d'un cadre est
spécifié en millisecondes. Par défaut, le Dynamic Audio Normalizer utilise un cadre
longueur de 500 millisecondes, ce qui s'est avéré donner de bons résultats avec la plupart des fichiers.
Notez que la longueur de trame exacte, en nombre d'échantillons, sera déterminée
automatiquement, en fonction de la fréquence d'échantillonnage du fichier audio d'entrée individuel.

g Définissez la taille de la fenêtre du filtre gaussien. Dans la plage de 3 à 301, doit être un nombre impair.
La valeur par défaut est 31. Probablement le paramètre le plus important du Dynamic Audio Normalizer
est la "taille de fenêtre" du filtre de lissage gaussien. La taille de la fenêtre du filtre est
spécifié en cadres, centré autour du cadre courant. Pour des raisons de simplicité,
ce doit être un nombre impair. Par conséquent, la valeur par défaut de 31 prend en compte
la trame courante, ainsi que les 15 trames précédentes et les 15 trames suivantes.
L'utilisation d'une fenêtre plus grande donne un effet de lissage plus fort et donc moins de gain
variation, c'est-à-dire une adaptation de gain plus lente. Inversement, l'utilisation d'une fenêtre plus petite entraîne
un effet de lissage plus faible et donc en plus de variation de gain, c'est-à-dire un gain plus rapide
adaptation. En d'autres termes, plus vous augmentez cette valeur, plus la dynamique
Audio Normalizer se comportera comme un filtre de normalisation "traditionnel". Sur le
au contraire, plus vous diminuez cette valeur, plus le Dynamic Audio Normalizer
se comportent comme un compresseur de plage dynamique.

p Définissez la valeur de crête cible. Ceci spécifie le niveau de magnitude le plus élevé admissible pour
l'entrée audio normalisée. Ce filtre essaiera de s'approcher de l'amplitude du pic cible
aussi près que possible, mais en même temps, il s'assure également que le
le signal ne dépassera jamais l'amplitude maximale. Le facteur de gain local maximum d'une trame est
imposée directement par l'amplitude du pic cible. La valeur par défaut est de 0.95 et donc
laisse une marge de 5%*. Il n'est pas recommandé d'aller au-dessus de cette valeur.

m Réglez le facteur de gain maximum. Dans la plage de 1.0 à 100.0. La valeur par défaut est 10.0. La dynamique
Audio Normalizer détermine le facteur de gain (local) maximum possible pour chaque entrée
frame, c'est-à-dire le facteur de gain maximum qui n'entraîne pas d'écrêtage ou de distorsion.
Le facteur de gain maximum est déterminé par l'échantillon d'amplitude la plus élevée de la trame.
Cependant, le Dynamic Audio Normalizer limite en plus le gain maximum de l'image
facteur par un facteur de gain maximum (global) prédéterminé. Ceci est fait afin d'éviter
facteurs de gain excessifs dans les trames "silencieuses" ou presque silencieuses. Par défaut, le maximum
le facteur de gain est de 10.0. Pour la plupart des entrées, la valeur par défaut devrait être suffisante et elle
n'est généralement pas recommandé d'augmenter cette valeur. Cependant, pour une entrée avec un extrêmement
faible niveau de volume global, il peut être nécessaire d'autoriser des facteurs de gain encore plus élevés. Noter,
cependant, que le Dynamic Audio Normalizer n'applique pas simplement un seuil « dur »
(c'est-à-dire des valeurs de coupure au-dessus du seuil). Au lieu de cela, une fonction de seuil "sigmoïde"
sera appliqué. De cette façon, les facteurs de gain s'approcheront en douceur du seuil
valeur, mais ne dépassez jamais cette valeur.

r Définissez le RMS cible. Dans la plage de 0.0 à 1.0. La valeur par défaut est 0.0 - désactivé. Par défaut,
le Dynamic Audio Normalizer effectue une normalisation "de pointe". Cela signifie que le
le facteur de gain local maximal pour chaque trame est défini (uniquement) par le plus élevé de la trame
échantillon de grandeur. De cette façon, les échantillons peuvent être amplifiés autant que possible sans
dépassant le niveau de signal maximum, c'est-à-dire sans écrêtage. Facultativement, cependant, le
Dynamic Audio Normalizer peut également prendre en compte la moyenne quadratique de la trame,
abrégé RMS. En génie électrique, le RMS est couramment utilisé pour déterminer la
puissance d'un signal variant dans le temps. On considère donc que le RMS est un meilleur
approximation du « volume perçu » que de simplement regarder le pic du signal
ordre de grandeur. Par conséquent, en ajustant toutes les trames à une valeur RMS constante, un
« L'intensité sonore perçue » peut être établie. Si une valeur RMS cible a été spécifiée, un
le facteur de gain local de la trame est défini comme le facteur qui donnerait exactement ce
valeur RMS. Notez, cependant, que le facteur de gain local maximum est toujours limité par
l'échantillon de magnitude la plus élevée de la trame, afin d'éviter l'écrêtage.

n Activer le couplage des canaux. Par défaut est activé. Par défaut, l'audio dynamique
Normalizer amplifiera tous les canaux de la même quantité. Cela signifie le même gain
sera appliqué à tous les canaux, c'est-à-dire que le facteur de gain maximum possible est
déterminé par le canal "le plus fort". Cependant, dans certains enregistrements, il peut arriver que
le volume des différents canaux est inégal, par exemple un canal peut être "plus silencieux" que
les autres). Dans ce cas, cette option peut être utilisée pour désactiver le canal
couplage. De cette façon, le facteur de gain sera déterminé indépendamment pour chaque canal,
en fonction uniquement de l'échantillon de magnitude la plus élevée du canal individuel. Cela permet de
harmonisant le volume des différents canaux.

c Activez la correction de polarisation CC. Par défaut est désactivé. Un signal audio (dans le temps
domaine) est une séquence d'échantillons de valeurs. Dans le Dynamic Audio Normalizer, ces exemples
les valeurs sont représentées dans la plage -1.0 à 1.0, quelle que soit l'entrée d'origine
format. Normalement, le signal audio, ou "forme d'onde", doit être centré autour du zéro
point. Cela signifie que si nous calculons la valeur moyenne de tous les échantillons dans un fichier, ou dans un
une seule image, le résultat doit être 0.0 ou au moins très proche de cette valeur. Si,
cependant, il y a un écart significatif de la valeur moyenne par rapport à 0.0, dans l'un ou l'autre
direction positive ou négative, c'est ce qu'on appelle une polarisation CC ou un décalage CC. Depuis un
La polarisation DC est clairement indésirable, le Dynamic Audio Normalizer fournit une polarisation DC optionnelle
correction. Avec la correction de polarisation CC activée, le Dynamic Audio Normalizer
déterminer la valeur moyenne, ou décalage de "correction CC", de chaque trame d'entrée et soustraire
cette valeur de toutes les valeurs d'échantillon de la base qui garantit que ces échantillons sont
centré autour de 0.0 à nouveau. De plus, afin d'éviter des « espaces » aux limites du cadre, le
Les valeurs de décalage de correction DC seront interpolées en douceur entre les trames voisines.

b Activez le mode limite alternatif. Par défaut est désactivé. L'audio dynamique
Le normalisateur prend en compte un certain voisinage autour de chaque image. Ceci comprend
les trames précédentes ainsi que les trames suivantes. Cependant, pour la "frontière"
images, situées au tout début et à la toute fin du fichier audio, toutes
les cadres voisins sont disponibles. En particulier, pour les premières images du
fichier audio, les trames précédentes ne sont pas connues. Et, de même, depuis quelques
images dans le fichier audio, les images suivantes ne sont pas connues. Ainsi, la question
survient quels facteurs de gain doivent être supposés pour les trames manquantes dans la « limite »
Région. Le Dynamic Audio Normalizer implémente deux modes pour faire face à cette situation.
Le mode limite par défaut suppose un facteur de gain d'exactement 1.0 pour les images manquantes,
résultant en un "fondu d'entrée" et un "fondu de sortie" en douceur au début et à la fin de la
entrée, respectivement.

s Définissez le facteur de compression. Dans la plage de 0.0 à 30.0. La valeur par défaut est 0.0. Par défaut, le
Dynamic Audio Normalizer n'applique pas la compression "traditionnelle". Cela signifie que
les pics de signal ne seront pas élagués et ainsi la plage dynamique complète sera conservée
au sein de chaque quartier local. Cependant, dans certains cas, il peut être souhaitable de combiner
l'algorithme de normalisation du Dynamic Audio Normalizer avec une approche plus "traditionnelle"
compression. À cette fin, le Dynamic Audio Normalizer fournit une option
fonction de compression (seuil). Si (et seulement si) la fonction de compression est
activée, toutes les trames d'entrée seront traitées par une fonction de seuillage souple avant
au processus de normalisation proprement dit. En termes simples, la fonction de seuillage va
élaguer tous les échantillons dont l'amplitude dépasse une certaine valeur seuil. Cependant, le
Dynamic Audio Normalizer n'applique pas simplement une valeur de seuil fixe. Au lieu de cela, le
la valeur seuil sera ajustée pour chaque trame individuelle. En général, plus petit
paramètres entraînent une compression plus forte, et vice versa. Les valeurs inférieures à 3.0 ne sont pas
recommandé, car une distorsion audible peut apparaître.

cérumen
Rendez l'audio plus facile à écouter sur un casque.

Ce filtre ajoute des "repères" à l'audio stéréo 44.1 kHz (c'est-à-dire au format CD audio) de sorte que lorsque
écoutée au casque, l'image stéréo est déplacée de l'intérieur de votre tête (standard pour
casque) vers l'extérieur et devant l'auditeur (standard pour les haut-parleurs).

Porté depuis SoX.

but égalisateur
Appliquez un filtre d'égalisation de crête (EQ) à deux pôles. Avec ce filtre, le niveau du signal à
et autour d'une fréquence sélectionnée peut être augmentée ou diminuée, tandis que (contrairement à la bande passante et
filtres de rejet de bande) qui à toutes les autres fréquences est inchangé.

Afin de produire des courbes d'égalisation complexes, ce filtre peut être donné plusieurs fois,
chacun avec une fréquence centrale différente.

Le filtre accepte les options suivantes :

la fréquence, f
Réglez la fréquence centrale du filtre en Hz.

largeur_type
Définir la méthode pour spécifier la bande passante du filtre.

h Hz

q Facteur Q

o octave

s pente

largeur, w
Spécifiez la bande passante d'un filtre en unités width_type.

Gain, g
Réglez le gain ou l'atténuation requis en dB. Attention à l'écrêtage lors de l'utilisation d'un positif
gagner.

Exemples

· Atténuer 10 dB à 1000 Hz, avec une bande passante de 200 Hz :

égaliseur=f=1000:width_type=h:width=200:g=-10

· Appliquer un gain de 2 dB à 1000 Hz avec Q 1 et atténuer 5 dB à 100 Hz avec Q 2 :

equalizer=f=1000:width_type=q:width=1:g=2,equalizer=f=100:width_type=q:width=2:g=-5

flanger
Appliquez un effet de flanger à l'audio.

Le filtre accepte les options suivantes :

retarder
Définir le délai de base en millisecondes. Plage de 0 à 30. La valeur par défaut est 0.

profondeur
Définissez le délai de balayage ajouté en millisecondes. Plage de 0 à 10. La valeur par défaut est 2.

remuer
Définir le pourcentage de régénération (retour de signal retardé). Plage de -95 à 95. Par défaut
la valeur est 0.

largeur
Définir le pourcentage de signal retardé mélangé avec l'original. Plage de 0 à 100. Par défaut
la valeur est 71.

vitesse
Réglez les balayages par seconde (Hz). Plage de 0.1 à 10. La valeur par défaut est 0.5.

forme
Définir la forme d'onde balayée, peut être triangulaire or sinusoïdal. La valeur par défaut est sinusoïdal.

phase
Définissez le décalage en pourcentage de l'onde balayée pour le multicanal. Plage de 0 à 100. Valeur par défaut
est 25.

interpréter
Définir l'interpolation de la ligne à retard, linéaire or quadratique. La valeur par défaut est linéaire.

passe-haut
Appliquez un filtre passe-haut avec une fréquence ponctuelle de 3 dB. Le filtre peut être soit unipolaire,
ou bipolaire (par défaut). Le filtre s'abaisse à 6dB par pôle par octave (20dB par
pôle par décennie).

Le filtre accepte les options suivantes :

la fréquence, f
Réglez la fréquence en Hz. La valeur par défaut est 3000.

poteaux, p
Définir le nombre de pôles. La valeur par défaut est 2.

largeur_type
Définir la méthode pour spécifier la bande passante du filtre.

h Hz

q Facteur Q

o octave

s pente

largeur, w
Spécifiez la bande passante d'un filtre en unités width_type. S'applique uniquement aux bipolaires
filtre. La valeur par défaut est 0.707q et donne une réponse Butterworth.

rejoindre
Joignez plusieurs flux d'entrée en un seul flux multicanal.

Il accepte les paramètres suivants :

entrées
Le nombre de flux d'entrée. La valeur par défaut est 2.

canal_layout
La disposition du canal de sortie souhaitée. Il est par défaut en stéréo.

Localisation Mapper les canaux des entrées à la sortie. L'argument est une liste de mappages séparés par '|',
chacun dans le "input_idx.in_channel-out_channel" formulaire. entrée_idx est l'indice de base 0 de
le flux d'entrée. in_channel peut être soit le nom du canal d'entrée (par exemple FL pour
avant gauche) ou son index dans le flux d'entrée spécifié. canal_out est le nom de la
canal de sortie.

Le filtre tentera de deviner les mappages lorsqu'ils ne sont pas spécifiés explicitement. Ce
le fait en essayant d'abord de trouver un canal d'entrée correspondant inutilisé et si cela échoue
sélectionne le premier canal d'entrée inutilisé.

Rejoignez 3 entrées (avec des dispositions de canaux correctement définies) :

ffmpeg -i INPUT1 -i INPUT2 -i INPUT3 -filter_complex join=entrées=3 SORTIE

Créez une sortie 5.1 à partir de 6 flux monocanal :

ffmpeg -i fl -i fr -i fc -i sl -i sr -i lfe -filter_complex
'join=inputs=6:channel_layout=5.1:map=0.0-FL|1.0-FR|2.0-FC|3.0-SL|4.0-SR|5.0-LFE'
ande

spa
Chargez un plugin LADSPA (Linux Audio Developer's Simple Plugin API).

Pour activer la compilation de ce filtre, vous devez configurer FFmpeg avec "--enable-ladspa".

fichier, f
Spécifie le nom de la bibliothèque de plug-ins LADSPA à charger. Si la variable d'environnement
LADSPA_PATH est défini, le plugin LADSPA est recherché dans chacun des répertoires
spécifié par la liste séparée par deux points dans LADSPA_PATH, sinon dans la norme LADSPA
chemins, qui sont dans cet ordre: ACCUEIL/.ladspa/lib/, /usr/local/lib/ladspa/,
/usr/lib/ladspa/.

plugin, p
Spécifie le plugin dans la bibliothèque. Certaines bibliothèques ne contiennent qu'un seul plugin, mais
d'autres en contiennent beaucoup. Si ce n'est pas défini, le filtre listera tous les plugins disponibles
dans la bibliothèque spécifiée.

les contrôles, c
Définissez le '|' liste séparée de contrôles qui sont zéro ou plusieurs valeurs à virgule flottante
qui déterminent le comportement du plugin chargé (par exemple délai, seuil ou
Gain). Les contrôles doivent être définis à l'aide de la syntaxe suivante :
c0=value0|c1=value1|c2=value2|..., où valeuri est la valeur définie sur le i-ème contrôle.
If contrôles est défini sur "help", tous les contrôles disponibles et leurs plages valides sont
imprimé.

taux d'échantillonnage, s
Spécifiez le taux d'échantillonnage, par défaut à 44100. Utilisé uniquement si le plug-in n'a aucune entrée.

nb_échantillons, n
Définissez le nombre d'échantillons par canal pour chaque trame de sortie, la valeur par défaut est 1024. Uniquement
utilisé si le plugin n'a aucune entrée.

durée, d
Définissez la durée minimale de l'audio source. Voir le Temps durée in le
ffmpeg-utils(1) Manuel pour la syntaxe acceptée. Notez que la durée résultante peut
être supérieure à la durée spécifiée, car l'audio généré est toujours coupé à la
fin d'un cadre complet. Si elle n'est pas précisée ou si la durée exprimée est négative, la
l'audio est censé être généré pour toujours. Uniquement utilisé si le plugin n'a aucune entrée.

Exemples

· Répertoriez tous les plugins disponibles dans la bibliothèque amp (exemple de plugin LADSPA) :

ladspa=fichier=amp

· Répertorier tous les contrôles disponibles et leurs plages valides pour le plugin "vcf_notch" de "VCF"
bibliothèque:

ladspa=f=vcf:p=vcf_notch:c=aide

· Simulez un équipement audio de faible qualité à l'aide du plug-in "Computer Music Toolkit" (CMT)
bibliothèque:

ladspa=file=cmt:plugin=lofi:controls=c0=22|c1=12|c2=12

· Ajoutez de la réverbération à l'audio à l'aide des plug-ins TAP (plugins de traitement audio de Tom) :

ladspa=file=tap_reverb:tap_reverb

· Générer du bruit blanc, avec une amplitude de 0.2 :

ladspa=file=cmt:noise_source_white:c=c0=.2

· Générer 20 clics bpm en utilisant le plugin "C* Click - Metronome" du "C* Audio Plugin
Bibliothèque "Suite" (CAPS) :

ladspa=file=caps:Cliquez:c=c1=20'

· Appliquer l'effet "C* Eq10X2 - Égaliseur stéréo 10 bandes" :

ladspa=caps:Eq10X2:c=c0=-48|c9=-24|c3=12|c4=2

Commandes

Ce filtre prend en charge les commandes suivantes :

cN Modifier la N-ième valeur de contrôle.

Si la valeur spécifiée n'est pas valide, elle est ignorée et la valeur précédente est conservée.

passe-bas
Appliquez un filtre passe-bas avec une fréquence ponctuelle de 3 dB. Le filtre peut être unipolaire ou
bipolaire (par défaut). Le filtre s'abaisse à 6dB par pôle par octave (20dB par pôle
par décennie).

Le filtre accepte les options suivantes :

la fréquence, f
Réglez la fréquence en Hz. La valeur par défaut est 500.

poteaux, p
Définir le nombre de pôles. La valeur par défaut est 2.

largeur_type
Définir la méthode pour spécifier la bande passante du filtre.

h Hz

q Facteur Q

o octave

s pente

largeur, w
Spécifiez la bande passante d'un filtre en unités width_type. S'applique uniquement aux bipolaires
filtre. La valeur par défaut est 0.707q et donne une réponse Butterworth.

casserole
Mixez les canaux avec des niveaux de gain spécifiques. Le filtre accepte la disposition du canal de sortie
suivi d'un ensemble de définitions de canaux.

Ce filtre est également conçu pour remapper efficacement les canaux d'un flux audio.

Le filtre accepte des paramètres de la forme : "l|outdef|outdef|..."

l disposition des canaux de sortie ou nombre de canaux

outdef
spécification du canal de sortie, de la forme :
"nom_outre=[Gain*]in_name[+[Gain*]in_name...]"

nom_outre
canal de sortie à définir, soit un nom de canal (FL, FR, etc.) soit un numéro de canal
(c0, c1, etc...)

Gain
coefficient multiplicatif pour le canal, 1 laissant le volume inchangé

in_name
canal d'entrée à utiliser, voir out_name pour plus de détails ; il n'est pas possible de mélanger nommé et
canaux d'entrée numérotés

Si le `=' dans une spécification de canal est remplacé par `<', alors les gains pour cela
la spécification sera renormalisée de sorte que le total soit égal à 1, évitant ainsi le bruit d'écrêtage.

Mixage audio exemples

Par exemple, si vous souhaitez effectuer un downmix de stéréo en mono, mais avec un facteur plus important pour le
canal gauche :

pan=1c|c0=0.9*c0+0.1*c1

Un down-mix personnalisé en stéréo qui fonctionne automatiquement pour 3, 4, 5 et 7 canaux
entourer:

pan=stéréo| FL < FL + 0.5*FC + 0.6*BL + 0.6*SL | FR < FR + 0.5*FC + 0.6*BR + 0.6*SR

Notez que ffmpeg intègre un système de down-mix (et up-mix) par défaut qui doit être
préféré (voir option "-ac") sauf si vous avez des besoins très spécifiques.

Remappage exemples

Le remappage des canaux sera effectif si, et seulement si :

*
*

Si toutes ces conditions sont remplies, le filtre notifiera l'utilisateur ("Canal pur
mapping détecté"), et utilisez une méthode optimisée et sans perte pour effectuer le remappage.

Par exemple, si vous avez une source 5.1 et que vous souhaitez un flux audio stéréo en supprimant le
canaux:

pan="stéréo| c0=FL | c1=FR"

Étant donné la même source, vous pouvez également basculer entre les canaux avant gauche et avant droit et garder
la disposition du canal d'entrée :

pan="5.1| c0=c1 | c1=c0 | c2=c2 | c3=c3 | c4=c4 | c5=c5"

Si l'entrée est un flux audio stéréo, vous pouvez couper le canal avant gauche (tout en gardant
la disposition des canaux stéréo) avec :

pan="stéréo|c1=c1"

Toujours avec une entrée de flux audio stéréo, vous pouvez copier le canal droit dans les deux avant gauche
et à droite :

pan="stéréo| c0=FR | c1=FR"

rejouer
Filtre d'analyse ReplayGain. Ce filtre prend un flux audio en entrée et le sort
inchangé. A la fin du filtrage, il affiche "track_gain" et "track_peak".

rééchantillonner
Convertissez le format d'échantillon audio, la fréquence d'échantillonnage et la disposition des canaux. Ce n'est pas censé être
utilisé directement.

compression de chaîne latérale
Ce filtre agit comme un compresseur normal mais a la capacité de compresser le signal détecté
en utilisant le deuxième signal d'entrée. Il a besoin de deux flux d'entrée et renvoie un flux de sortie.
Le premier flux d'entrée sera traité en fonction du signal du deuxième flux. Le filtré
le signal peut alors être filtré avec d'autres filtres dans les étapes ultérieures du traitement. Voir casserole ainsi que
fusionner filtre.

Le filtre accepte les options suivantes :

порог
Si un signal du deuxième flux s'élève au-dessus de ce niveau, cela affectera la réduction de gain
du premier flux. La valeur par défaut est 0.125. La plage est comprise entre 0.00097563 et 1.

rapport
Définissez un rapport sur lequel le signal est réduit. 1:2 signifie que si le niveau a augmenté de 4dB
au-dessus du seuil, il ne sera que de 2 dB au-dessus après la réduction. La valeur par défaut est 2.
La plage est comprise entre 1 et 20.

attaquer
Nombre de millisecondes pendant lesquelles le signal doit s'élever au-dessus du seuil avant le gain
la réduction commence. La valeur par défaut est 20. La plage est comprise entre 0.01 et 2000.

libérer
Nombre de millisecondes pendant lesquelles le signal doit tomber en dessous du seuil avant que la réduction ne soit
diminué à nouveau. La valeur par défaut est 250. La plage est comprise entre 0.01 et 9000 XNUMX.

maquillage
Définissez la quantité de signal qui sera amplifié après le traitement. La valeur par défaut est 2.
La plage va de 1 à 64.

genou
Courbez le coude pointu autour du seuil pour entrer la réduction de gain plus doucement.
La valeur par défaut est 2.82843. La plage est comprise entre 1 et 8.

lien
Choisissez si le niveau "moyen" entre tous les canaux du flux side-chain ou le
le canal le plus fort ("maximum") du flux side-chain affecte la réduction. La valeur par défaut est
"moyenne".

détection
Faut-il prendre le signal exact en cas de "peak" ou un signal RMS en cas de "rms".
La valeur par défaut est "rms" qui est principalement plus fluide.

Exemples

· Exemple ffmpeg complet prenant 2 entrées audio, 1ère entrée à compresser selon le
signal de la 2e entrée et plus tard le signal compressé à fusionner avec la 2e entrée :

ffmpeg -i main.flac -i sidechain.flac -filter_complex "[1:a]asplit=2[sc][mix];[0:a][sc]sidechaincompress[compr];[compr][mix]amerge"

détection de silence
Détectez le silence dans un flux audio.

Ce filtre enregistre un message lorsqu'il détecte que le volume audio d'entrée est inférieur ou égal à
une valeur de tolérance au bruit pour une durée supérieure ou égale au bruit minimum détecté
durée.

Les temps et durées imprimés sont exprimés en secondes.

Le filtre accepte les options suivantes :

durée, d
Définissez la durée du silence jusqu'à la notification (la valeur par défaut est de 2 secondes).

bruit, n
Définir la tolérance au bruit. Peut être spécifié en dB (au cas où "dB" est ajouté à la valeur spécifiée
valeur) ou le rapport d'amplitude. La valeur par défaut est -60 dB ou 0.001.

Exemples

· Détecte 5 secondes de silence avec une tolérance au bruit de -50 dB :

détection de silence=n=-50dB:d=5

· Exemple complet avec ffmpeg pour détecter le silence avec une tolérance au bruit de 0.0001 dans
silence.mp3:

ffmpeg -i silence.mp3 -af silencedetect=bruit=0.0001 -f null -

silencesupprimer
Supprimez le silence au début, au milieu ou à la fin de l'audio.

Le filtre accepte les options suivantes :

start_periods
Cette valeur est utilisée pour indiquer si l'audio doit être coupé au début de l'audio. UNE
la valeur zéro indique qu'aucun silence ne doit être supprimé depuis le début. Lorsque
en spécifiant une valeur non nulle, il coupe l'audio jusqu'à ce qu'il trouve un non-silence. Normalement,
lors de la coupe du silence depuis le début de l'audio, le start_periods sera 1 mais il peut
être augmenté à des valeurs plus élevées pour couper tout l'audio jusqu'à un nombre spécifique de non-silence
périodes. La valeur par défaut est 0.

durée_début
Spécifiez la durée pendant laquelle le non-silence doit être détecté avant qu'il ne s'arrête de rogner
l'audio. En augmentant la durée, les rafales de bruits peuvent être traitées comme du silence et
coupé. La valeur par défaut est 0.

seuil_début
Cela indique quelle valeur d'échantillon doit être traitée comme un silence. Pour l'audio numérique, un
une valeur de 0 peut convenir, mais pour l'audio enregistré à partir de l'analogique, vous souhaiterez peut-être augmenter
la valeur pour tenir compte du bruit de fond. Peut être spécifié en dB (au cas où "dB" est
ajouté à la valeur spécifiée) ou le rapport d'amplitude. La valeur par défaut est 0.

stop_périodes
Définissez le nombre de coupures de silence à partir de la fin de l'audio. Pour supprimer le silence de la
milieu d'un fichier, spécifiez un stop_périodes c'est négatif. Cette valeur est ensuite traitée
comme valeur positive et est utilisé pour indiquer que l'effet doit redémarrer le traitement comme
spécifié par start_periods, ce qui le rend approprié pour supprimer les périodes de silence dans le
milieu de l'audio. La valeur par défaut est 0.

durée_arrêt
Spécifiez une durée de silence qui doit exister avant que l'audio ne soit plus copié. Par
en spécifiant une durée plus élevée, le silence souhaité peut être laissé dans l'audio.
La valeur par défaut est 0.

stop_seuil
C'est la même chose que seuil_début mais pour couper le silence de la fin de l'audio.
Peut être spécifié en dB (au cas où "dB" est ajouté à la valeur spécifiée) ou en amplitude
rapport. La valeur par défaut est 0.

laisser_silence
Cela indique que durée_arrêt la longueur de l'audio doit être laissée intacte au
début de chaque période de silence. Par exemple, si vous souhaitez supprimer les longues pauses
entre les mots mais ne veulent pas supprimer complètement les pauses. La valeur par défaut est 0.

Exemples

· L'exemple suivant montre comment ce filtre peut être utilisé pour démarrer un enregistrement qui
ne pas contenir le retard au démarrage qui se produit généralement entre le pressage du disque
bouton et le début de la performance :

suppression du silence=1:5:0.02

aigus
Augmentez ou coupez les fréquences aiguës (supérieures) de l'audio à l'aide d'un filtre en plateau à deux pôles avec
une réponse similaire à celle des commandes de tonalité d'une chaîne hi-fi standard. Ceci est également connu comme
égalisation en plateau (EQ).

Le filtre accepte les options suivantes :

Gain, g
Donnez le gain à la plus faible de ~22 kHz et de la fréquence de Nyquist. Son
la plage utile est d'environ -20 (pour un gros cut) à +20 (pour un gros boost). Faîtes attention à
écrêtage lors de l'utilisation d'un gain positif.

la fréquence, f
Réglez la fréquence centrale du filtre et peut donc être utilisé pour étendre ou réduire la
gamme de fréquences à amplifier ou à couper. La valeur par défaut est 3000 Hz.

largeur_type
Définir la méthode pour spécifier la bande passante du filtre.

h Hz

q Facteur Q

o octave

s pente

largeur, w
Déterminez la pente de la transition de plateau du filtre.

le volume
Réglez le volume audio d'entrée.

Il accepte les paramètres suivants :

le volume
Définir l'expression du volume audio.

Les valeurs de sortie sont écrêtées à la valeur maximale.

Le volume audio de sortie est donné par la relation :

= *

La valeur par défaut pour le volume est "1.0".

avec précision
Ce paramètre représente la précision mathématique.

Il détermine quels formats d'échantillons d'entrée seront autorisés, ce qui affecte la précision
de la mise à l'échelle du volume.

fixé
virgule fixe 8 bits; cela limite le format d'échantillon d'entrée à U8, S16 et S32.

flotter
virgule flottante 32 bits ; cela limite le format d'échantillon d'entrée à FLT. (défaut)

double
virgule flottante 64 bits ; cela limite le format d'échantillon d'entrée à DBL.

rejouer
Choisissez le comportement lors de la rencontre des données latérales ReplayGain dans les trames d'entrée.

déposer
Supprimez les données côté ReplayGain, en ignorant son contenu (valeur par défaut).

ignorer
Ignorez les données latérales ReplayGain, mais laissez-les dans le cadre.

suivre
Préférez le gain de piste, s'il est présent.

album
Préférez l'album gain, s'il est présent.

replaygain_preamp
Gain de préamplification en dB à appliquer au gain de replaygain sélectionné.

Valeur par défaut pour replaygain_preamp est 0.0.

eval
Défini quand l'expression de volume est évaluée.

Il accepte les valeurs suivantes :

une fois
n'évalue l'expression qu'une seule fois lors de l'initialisation du filtre, ou lorsque le le volume
la commande est envoyée

cadre
évaluer l'expression pour chaque trame entrante

La valeur par défaut est une fois.

L'expression de volume peut contenir les paramètres suivants.

n numéro de trame (commençant à zéro)

nb_canaux
Nombre de canaux

nb_consumed_samples
nombre d'échantillons consommés par le filtre

nb_échantillons
nombre d'échantillons dans la trame actuelle

poster position du cadre d'origine dans le fichier

pts cadre PTS

taux d'échantillonnage
taux d'échantillonnage

points de départ
PTS au début du flux

commencer
heure au début du flux

t temps de trame

tb base de temps d'horodatage

le volume
dernière valeur de volume définie

Notez que lorsque eval est fixé à une fois que l' taux d'échantillonnage ainsi que tb des variables sont disponibles,
toutes les autres variables seront évaluées à NAN.

Commandes

Ce filtre prend en charge les commandes suivantes :

le volume
Modifiez l'expression du volume. La commande accepte la même syntaxe du
option correspondante.

Si l'expression spécifiée n'est pas valide, elle est conservée à sa valeur actuelle.

replaygain_noclip
Empêche l'écrêtage en limitant le gain appliqué.

Valeur par défaut pour replaygain_noclip est 1.

Exemples

· Réduisez de moitié le volume audio d'entrée :

volume=volume=0.5
volumes=volumes=1/2
volume=volume=-6.0206dB

Dans tous les exemples ci-dessus, la clé nommée pour le volume peut être omis, par exemple comme dans :

volume=0.5

· Augmentez la puissance audio d'entrée de 6 décibels en utilisant une précision à virgule fixe :

volume=volume=6dB:précision=fixe

· Volume de fondu après le temps 10 avec une période d'annihilation de 5 secondes :

volume='if(lt(t,10),1,max(1-(t-10)/5,0))':eval=frame

détection de volume
Détecter le volume de la vidéo d'entrée.

Le filtre n'a pas de paramètres. L'entrée n'est pas modifiée. Les statistiques sur le volume seront
être imprimé dans le journal lorsque la fin du flux d'entrée est atteinte.

En particulier, il affichera le volume moyen (racine quadratique moyenne), le volume maximum (sur un
base d'échantillon), et le début d'un histogramme des valeurs de volume enregistrées (à partir de la
valeur maximale à un 1/1000 cumulé des échantillons).

Tous les volumes sont en décibels par rapport à la valeur PCM maximale.

Exemples

Voici un extrait de la sortie :

[Parsed_volumedetect_0 0xa23120] Mean_volume : -27 dB
[Parsed_volumedetect_0 0xa23120] max_volume : -4 dB
[Parsed_volumedetect_0 0xa23120] histogram_4db : 6
[Parsed_volumedetect_0 0xa23120] histogram_5db : 62
[Parsed_volumedetect_0 0xa23120] histogram_6db : 286
[Parsed_volumedetect_0 0xa23120] histogram_7db : 1042
[Parsed_volumedetect_0 0xa23120] histogram_8db : 2551
[Parsed_volumedetect_0 0xa23120] histogram_9db : 4609
[Parsed_volumedetect_0 0xa23120] histogram_10db : 8409

Cela signifie que:

· L'énergie quadratique moyenne est d'environ -27 dB, soit 10^-2.7.

· Le plus grand échantillon est à -4 dB, ou plus précisément entre -4 dB et -5 dB.

· Il y a 6 échantillons à -4 dB, 62 à -5 dB, 286 à -6 dB, etc.

En d'autres termes, augmenter le volume de +4 dB ne provoque aucun écrêtage, l'augmenter de +5
dB provoque un écrêtage pour 6 échantillons, etc.

AUDIO SOURCES


Vous trouverez ci-dessous une description des sources audio actuellement disponibles.

un tampon
Tamponnez les trames audio et mettez-les à disposition de la chaîne de filtrage.

Cette source est principalement destinée à un usage programmatique, notamment au travers de l'interface
défini dans libavfilter/asrc_buffer.h.

Il accepte les paramètres suivants :

base_temps
La base de temps qui sera utilisée pour les horodatages des trames soumises. Il doit être soit
un nombre à virgule flottante ou en numérateur/dénominateur formulaire.

taux d'échantillonnage
Le taux d'échantillonnage des tampons audio entrants.

échantillon_fmt
Le format d'échantillon des tampons audio entrants. Soit un exemple de nom de format, soit son
représentation entière correspondante de l'énumération AVSampleFormat dans
libavutil/samplefmt.h

canal_layout
La disposition des canaux des tampons audio entrants. Soit un nom de disposition de canal de
channel_layout_map dans libavutil/channel_layout.c ou son entier correspondant
représentation des macros AV_CH_LAYOUT_* dans libavutil/channel_layout.h

Voies
Le nombre de canaux des tampons audio entrants. Si les deux Voies ainsi que
canal_layout sont spécifiés, alors ils doivent être cohérents.

Exemples

abuffer=sample_rate=44100:sample_fmt=s16p:channel_layout=stéréo

indiquera à la source d'accepter la stéréo planaire signée 16 bits à 44100 XNUMX Hz. Depuis le
le format d'échantillon avec le nom "s16p" correspond au numéro 6 et à la disposition des canaux "stéréo"
correspond à la valeur 0x3, cela équivaut à :

abuffer=sample_rate=44100:sample_fmt=6:channel_layout=0x3

aevalsrc
Générer un signal audio spécifié par une expression.

Cette source accepte en entrée une ou plusieurs expressions (une pour chaque canal), qui sont
évalué et utilisé pour générer un signal audio correspondant.

Cette source accepte les options suivantes :

expressions
Définissez la liste d'expressions séparées par '|' pour chaque canal séparé. Au cas où le
canal_layout option n'est pas spécifiée, la disposition des canaux sélectionnée dépend de la
nombre d'expressions fournies. Sinon, la dernière expression spécifiée est appliquée à
les canaux de sortie restants.

canal_layout, c
Définissez la disposition des canaux. Le nombre de canaux dans la disposition spécifiée doit être égal
au nombre d'expressions spécifiées.

durée, d
Définissez la durée minimale de l'audio source. Voir le Temps durée in le
ffmpeg-utils(1) Manuel pour la syntaxe acceptée. Notez que la durée résultante peut
être supérieure à la durée spécifiée, car l'audio généré est toujours coupé à la
fin d'un cadre complet.

S'il n'est pas spécifié ou si la durée exprimée est négative, l'audio est censé être
généré pour toujours.

nb_échantillons, n
Définissez le nombre d'échantillons par canal pour chaque trame de sortie, par défaut à 1024.

taux d'échantillonnage, s
Spécifiez le taux d'échantillonnage, par défaut à 44100.

Chaque expression dans expressions peut contenir les constantes suivantes :

n numéro de l'échantillon évalué, à partir de 0

t temps de l'échantillon évalué exprimé en secondes, à partir de 0

s taux d'échantillonnage

Exemples

· Générer du silence :

aevalsrc=0

· Générez un signal sin avec une fréquence de 440 Hz, réglez la fréquence d'échantillonnage sur 8000 Hz :

aevalsrc="/sin(440*2*PI*t):s=8000"

· Générer un signal à deux canaux, spécifier la disposition des canaux (Avant Centre + Arrière
Centre) explicitement :

aevalsrc="/sin(420*2*PI*t)|cos(430*2*PI*t):c=FC|BC"

· Générer du bruit blanc :

aevalsrc="/-2+aléatoire(0)"

· Générer un signal modulé en amplitude :

aevalsrc="/sin(10*2*PI*t)*sin(880*2*PI*t)"

· Générer des battements binauraux à 2.5 Hz sur une porteuse à 360 Hz :

aevalsrc="/0.1*sin(2*PI*(360-2.5/2)*t) | 0.1*sin(2*PI*(360+2.5/2)*t)"

anulsrc
La source audio nulle renvoie des trames audio non traitées. Il est principalement utile comme modèle
et à utiliser dans des outils d'analyse/de débogage, ou comme source de filtres qui
ignorer les données d'entrée (par exemple le filtre sox synth).

Cette source accepte les options suivantes :

canal_layout, cl
Spécifie la disposition du canal et peut être un entier ou une chaîne représentant un
disposition des canaux. La valeur par défaut de canal_layout est "stéréo".

Vérifiez la définition channel_layout_map dans libavutil/channel_layout.c pour la cartographie
entre les chaînes et les valeurs de disposition des canaux.

taux d'échantillonnage, r
Spécifie la fréquence d'échantillonnage et la valeur par défaut est 44100 XNUMX.

nb_échantillons, n
Définissez le nombre d'échantillons par trames demandées.

Exemples

· Réglez la fréquence d'échantillonnage sur 48000 XNUMX Hz et la disposition des canaux sur AV_CH_LAYOUT_MONO.

anulsrc=r=48000:cl=4

· Faites la même opération avec une syntaxe plus évidente :

anullsrc=r=48000:cl=mono

Tous les paramètres doivent être explicitement définis.

flite
Synthétisez un énoncé vocal à l'aide de la bibliothèque libflite.

Pour activer la compilation de ce filtre, vous devez configurer FFmpeg avec
"--enable-libflite".

Notez que la bibliothèque flite n'est pas thread-safe.

Le filtre accepte les options suivantes :

liste_voix
S'il est défini sur 1, répertoriez les noms des voix disponibles et quittez immédiatement. Défaut
la valeur est 0.

nb_échantillons, n
Définissez le nombre maximum d'échantillons par image. La valeur par défaut est 512.

fichier texte
Définissez le nom de fichier contenant le texte à prononcer.

texte
Réglez le texte à parler.

voix, v
Réglez la voix à utiliser pour la synthèse vocale. La valeur par défaut est « kal ». Voir aussi le
liste_voix option.

Exemples

· Lire à partir d'un fichier discours.txt, et synthétisez le texte à l'aide de la voix standard de flite :

flite=fichier texte=parole.txt

· Lire le texte spécifié en sélectionnant la voix "slt":

flite=text='Adieu, pauvre diable de sous-sous, dont je suis le commentateur':voice=slt

· Saisir du texte dans ffmpeg :

ffmpeg -f lavfi -i flite=text='Adieu, pauvre diable de sous-sous, dont je suis le commentateur':voice=slt

· Faire ffplay prononcez le texte spécifié, en utilisant "flite" et le périphérique "lavfi":

ffplay -f lavfi flite=text='Ne t'afflige plus pour ce que tu as fait.'

Pour plus d'informations sur libflite, consultez :http://www.speech.cs.cmu.edu/flite/>

leur
Générer un signal audio constitué d'une onde sinusoïdale d'amplitude 1/8.

Le signal audio est exact au bit près.

Le filtre accepte les options suivantes :

la fréquence, f
Réglez la fréquence porteuse. La valeur par défaut est 440 Hz.

facteur_bip, b
Activer un bip périodique toutes les secondes avec fréquence facteur_bip fois le transporteur
la fréquence. La valeur par défaut est 0, ce qui signifie que le bip est désactivé.

taux d'échantillonnage, r
Spécifiez le taux d'échantillonnage, la valeur par défaut est 44100.

durée, d
Spécifiez la durée du flux audio généré.

échantillons_par_image
Définissez le nombre d'échantillons par trame de sortie, la valeur par défaut est 1024.

Exemples

· Générer une onde sinusoïdale simple de 440 Hz :

leur

· Générer une onde sinusoïdale de 220 Hz avec un bip de 880 Hz chaque seconde, pendant 5 secondes :

sinus=220:4:d=5
sinus=f=220:b=4:d=5
sinus=fréquence=220:beep_factor=4:duration=5

AUDIO PUITS


Vous trouverez ci-dessous une description des récepteurs audio actuellement disponibles.

un tampon
Tamponnez les trames audio et rendez-les disponibles jusqu'à la fin de la chaîne de filtrage.

Ce puits est principalement destiné à un usage programmatique, notamment via l'interface
défini dans libavfilter/bufferink.h ou le système d'options.

Il accepte un pointeur vers une structure AVABufferSinkContext, qui définit le
formats des buffers, à passer en paramètre opaque à "avfilter_init_filter" pour
initialisation

évier
Récepteur audio nul ; ne faites absolument rien avec l'audio d'entrée. Il est principalement utile comme
modèle et à utiliser dans les outils d'analyse / de débogage.

VIDÉO FILTRES


Lorsque vous configurez votre build FFmpeg, vous pouvez désactiver l'un des filtres existants en utilisant
"--désactiver-filtres". La sortie de configuration affichera les filtres vidéo inclus dans votre
construire.

Vous trouverez ci-dessous une description des filtres vidéo actuellement disponibles.

extrait alpha
Extrayez la composante alpha de l'entrée sous forme de vidéo en niveaux de gris. Ceci est particulièrement utile
les fusion alpha filtre.

fusion alpha
Ajoutez ou remplacez la composante alpha de l'entrée principale par la valeur en niveaux de gris d'un
deuxième entrée. Ceci est destiné à être utilisé avec extrait alpha pour permettre la transmission ou
stockage des séquences d'images qui ont alpha dans un format qui ne prend pas en charge un alpha
canal.

Par exemple, pour reconstruire des images complètes à partir d'une vidéo encodée YUV normale et d'une
vidéo créée avec extrait alpha, vous pouvez utiliser :

film=in_alpha.mkv [alpha] ; [entrée][alpha] alphamerge [sortie]

Étant donné que ce filtre est conçu pour la reconstruction, il fonctionne sur des séquences de trames sans
en tenant compte des horodatages, et se termine lorsque l'une des entrées atteint la fin du flux. Cette volonté
causer des problèmes si votre pipeline d'encodage supprime des trames. Si vous essayez d'appliquer une image
comme superposition à un flux vidéo, considérez le revêtement filtrer à la place.

class
Identique au les sous-titres filtre, sauf qu'il ne nécessite pas libavcodec et libavformat pour
travail. En revanche, il est limité aux fichiers de sous-titres ASS (Advanced Substation Alpha).

Ce filtre accepte l'option suivante en plus des options courantes du
les sous-titres filtre:

mise en forme
Définir le moteur de mise en forme

Les valeurs disponibles sont :

auto
Le moteur de mise en forme par défaut, qui est le meilleur disponible.

simple
Shaper rapide et indépendant de la police qui ne peut faire que des substitutions

complexe
Shaper plus lent utilisant OpenType pour les substitutions et le positionnement

La valeur par défaut est "auto".

atadnoise
Appliquez un débruiteur de moyenne temporelle adaptative à l'entrée vidéo.

Le filtre accepte les options suivantes :

0a Réglez le seuil A pour le 1er plan. La valeur par défaut est 0.02. La plage valide est de 0 à 0.3.

0b Réglez le seuil B pour le 1er plan. La valeur par défaut est 0.04. La plage valide est de 0 à 5.

1a Réglez le seuil A pour le 2e plan. La valeur par défaut est 0.02. La plage valide est de 0 à 0.3.

1b Réglez le seuil B pour le 2e plan. La valeur par défaut est 0.04. La plage valide est de 0 à 5.

2a Réglez le seuil A pour le 3ème plan. La valeur par défaut est 0.02. La plage valide est de 0 à 0.3.

2b Réglez le seuil B pour le 3e plan. La valeur par défaut est 0.04. La plage valide est de 0 à 5.

Le seuil A est conçu pour réagir aux changements brusques du signal d'entrée et du seuil B
est conçu pour réagir aux changements continus du signal d'entrée.

s Définir le nombre d'images que le filtre utilisera pour le calcul de la moyenne. La valeur par défaut est 33. Doit être un nombre impair
dans la plage [5, 129].

bbox
Calculez le cadre de délimitation des pixels non noirs dans le plan de luminance de l'image d'entrée.

Ce filtre calcule la boîte englobante contenant tous les pixels avec une valeur de luminance
supérieure à la valeur minimale autorisée. Les paramètres décrivant la boîte englobante sont
imprimé sur le journal du filtre.

Le filtre accepte l'option suivante :

min_val
Définissez la valeur de luminance minimale. La valeur par défaut est 16.

détection noire
Détectez les intervalles vidéo qui sont (presque) complètement noirs. Peut être utile pour détecter le chapitre
transitions, publicités ou enregistrements invalides. Les lignes de sortie contiennent l'heure de la
début, fin et durée de l'intervalle de noir détecté exprimé en secondes.

Afin d'afficher les lignes de sortie, vous devez définir le niveau de journalisation au moins sur le
valeur AV_LOG_INFO.

Le filtre accepte les options suivantes :

noir_min_durée, d
Définissez la durée minimale du noir détecté exprimée en secondes. Il doit s'agir d'un non-
nombre à virgule flottante négatif.

La valeur par défaut est 2.0.

image_noir_ratio_th, pic_th
Définissez le seuil pour considérer une image « noire ». Exprimez la valeur minimale pour
le rapport:

/

pour laquelle une image est considérée comme noire. La valeur par défaut est de 0.98.

pixel_noir_th, pix_ième
Définissez le seuil pour considérer un pixel "noir".

Le seuil exprime la valeur maximale de luminance de pixel pour laquelle un pixel est
considéré comme « noir ». La valeur fournie est mise à l'échelle selon l'équation suivante :

= + *

luminance_range_size ainsi que luminance_minimum_value dépendent du format vidéo d'entrée, le
la plage est [0-255] pour les formats de gamme complète YUV et [16-235] pour les formats non complets YUV
formats.

La valeur par défaut est 0.10.

L'exemple suivant définit le seuil de pixel maximal sur la valeur minimale et détecte
uniquement des intervalles noirs de 2 secondes ou plus :

blackdetect=d=2:pix_th=0.00

cadre noir
Détectez les images qui sont (presque) complètement noires. Peut être utile pour détecter le chapitre
transitions ou publicités. Les lignes de sortie sont constituées du numéro de trame du
frame, le pourcentage de noirceur, la position dans le fichier si connue ou -1 et le
horodatage en secondes.

Afin d'afficher les lignes de sortie, vous devez définir le niveau de journalisation au moins sur le
valeur AV_LOG_INFO.

Il accepte les paramètres suivants :

montant
Le pourcentage de pixels qui doivent être inférieurs au seuil ; la valeur par défaut est 98.

au seuil, battre
Le seuil en dessous duquel une valeur de pixel est considérée comme noire ; il est par défaut à 32.

mélanger, mélanger
Mélangez deux images vidéo l'une dans l'autre.

Le filtre "blend" prend deux flux d'entrée et sort un flux, la première entrée est le
la couche "supérieure" et la deuxième entrée est la couche "inférieure". La sortie se termine lorsque l'entrée la plus courte
se termine.

Le filtre "tblend" (mélange temporel) prend deux images consécutives d'un seul flux, et
affiche le résultat obtenu en mélangeant la nouvelle image sur l'ancienne image.

Une description des options acceptées suit.

c0_mode
c1_mode
c2_mode
c3_mode
tout_mode
Définir le mode de fusion pour un composant de pixel spécifique ou tous les composants de pixel en cas de
tout_mode. La valeur par défaut est "normale".

Les valeurs disponibles pour les modes de composant sont :

ajout
ainsi que
moyen
brûler
assombrir
différence
différence128
diviser
esquive
exclusion
lueur
Lumière forte
mélange dur
alléger
lumière linéaire
multiplier
négation
Ordinaire
or
revêtement
phénix
lumière d'épingle
refléter
écran
Lumière douce
soustraire
vive lumière
xor
c0_opacité
c1_opacité
c2_opacité
c3_opacité
all_opacity
Définir l'opacité du mélange pour un composant de pixel spécifique ou tous les composants de pixel en cas de
all_opacity. Uniquement utilisé en combinaison avec les modes de fusion des composants de pixels.

c0_expr
c1_expr
c2_expr
c3_expr
all_expr
Définir l'expression de mélange pour un composant de pixel spécifique ou tous les composants de pixel en cas de
all_expr. Notez que les options de mode associées seront ignorées si elles sont définies.

Les expressions peuvent utiliser les variables suivantes :

N Le numéro séquentiel de la trame filtrée, à partir de 0.

X
Y les coordonnées de l'échantillon actuel

W
H la largeur et la hauteur du plan actuellement filtré

SW
SH Echelle de largeur et de hauteur en fonction du plan actuellement filtré. c'est le rapport
entre le nombre de pixels du plan de luminance correspondant et ceux du plan courant.
Par exemple, pour YUV4:2:0, les valeurs sont "1,1" pour le plan de luminance et "0.5,0.5" pour
plans de chrominance.

T Temps de l'image actuelle, exprimé en secondes.

HAUT, A
Valeur du composant de pixel à l'emplacement actuel pour la première image vidéo (couche supérieure).

BAS, B
Valeur du composant de pixel à l'emplacement actuel pour la deuxième image vidéo (en bas
couche).

le plus court
Forcer l'arrêt lorsque l'entrée la plus courte se termine. La valeur par défaut est 0. Cette option est
uniquement défini pour le filtre « mélange ».

répéter en dernier
Continuez à appliquer la dernière image du bas après la fin du flux. Une valeur de 0
désactiver le filtre une fois que la dernière image du calque inférieur est atteinte. La valeur par défaut est 1.
Cette option n'est définie que pour le filtre "blend".

Exemples

· Appliquer la transition de la couche inférieure à la couche supérieure dans les 10 premières secondes :

blend=all_expr='A*(if(gte(T,10),1,T/10))+B*(1-(if(gte(T,10),1,T/10)))'

· Appliquer un effet damier 1x1 :

blend=all_expr='if(eq(mod(X,2),mod(Y,2)),A,B)'

· Appliquer l'effet découvert gauche :

blend=all_expr='if(gte(N*SW+X,W),A,B)'

· Appliquer l'effet découvert du duvet :

blend=all_expr='if(gte(YN*SH,0),A,B)'

· Appliquer l'effet découvrir en haut à gauche :

blend=all_expr='if(gte(T*SH*40+Y,H)*gte((T*40*SW+X)*W/H,W),A,B)'

· Afficher les différences entre l'image actuelle et l'image précédente :

tblend=all_mode=difference128

boîte floue
Appliquez un algorithme boxblur à la vidéo d'entrée.

Il accepte les paramètres suivants :

luma_radius, lr
luma_power, lp
chroma_radius, cr
chroma_power, cp
rayon_alpha, ar
alpha_puissance, ap

Une description des options acceptées suit.

luma_radius, lr
chroma_radius, cr
rayon_alpha, ar
Définissez une expression pour le rayon de la boîte en pixels utilisé pour brouiller le
plan d'entrée.

La valeur du rayon doit être un nombre non négatif et ne doit pas être supérieure à la valeur
de l'expression "min(w,h)/2" pour les plans luma et alpha, et de "min(cw,ch)/2"
pour les plans de chrominance.

Valeur par défaut pour luma_radius est "2". Si non spécifié, chroma_radius ainsi que rayon_alpha
par défaut à la valeur correspondante définie pour luma_radius.

Les expressions peuvent contenir les constantes suivantes :

w
h La largeur et la hauteur d'entrée en pixels.

cw
ch La largeur et la hauteur de l'image de chrominance d'entrée en pixels.

hsub
vssub
Les valeurs de sous-échantillon de chrominance horizontale et verticale. Par exemple, pour le pixel
formater "yuv422p", hsub est 2 et vssub est 1.

luma_power, lp
chroma_power, cp
alpha_puissance, ap
Spécifiez combien de fois le filtre boxblur est appliqué au plan correspondant.

Valeur par défaut pour luma_power est 2. Si non spécifié, chroma_puissance ainsi que alpha_puissance
par défaut à la valeur correspondante définie pour luma_power.

Une valeur de 0 désactivera l'effet.

Exemples

· Appliquez un filtre boxblur avec les rayons de luminance, de chrominance et d'alpha définis sur 2 :

boxblur=luma_radius=2:luma_power=1
flou de boîte=2:1

· Réglez le rayon de luminance sur 2 et les rayons alpha et chroma sur 0 :

flou de boîte=2:1:cr=0:ar=0

· Réglez les rayons de luminance et de chrominance sur une fraction de la dimension vidéo :

boxblur=luma_radius=min(h\,w)/10:luma_power=1:chroma_radius=min(cw\,ch)/10:chroma_power=1

vue codec
Visualisez les informations exportées par certains codecs.

Certains codecs peuvent exporter des informations via des trames à l'aide de données secondaires ou d'autres moyens. Pour
Par exemple, certains codecs basés sur MPEG exportent des vecteurs de mouvement via le export_mvs drapeau dans le
codec flags2 option.

Le filtre accepte l'option suivante :

mv Définissez des vecteurs de mouvement à visualiser.

Drapeaux disponibles pour mv sont:

pf MV prédites vers l'avant des images P

bf MV prédites vers l'avant des trames B

bb MV prédites en arrière des images B

Exemples

· Visualise les MV multidirectionnelles à partir des trames P et B à l'aide ffplay:

ffplay -flags2 +export_mvs input.mpg -vf codecview=mv=pf+bf+bb

Balance de couleur
Modifier l'intensité des couleurs primaires (rouge, vert et bleu) des trames d'entrée.

Le filtre permet d'ajuster une trame d'entrée dans les ombres, les tons moyens ou les hautes lumières
régions pour la balance rouge-cyan, vert-magenta ou bleu-jaune.

Une valeur de réglage positive déplace la balance vers la couleur primaire, une valeur négative
vers la couleur complémentaire.

Le filtre accepte les options suivantes :

rs
gs
bs Ajustez les ombres rouges, vertes et bleues (pixels les plus sombres).

rm
gm
bm Ajustez les tons moyens rouges, verts et bleus (pixels moyens).

rh
gh
bh Ajustez les reflets rouges, verts et bleus (pixels les plus lumineux).

Les plages autorisées pour les options sont "[-1.0, 1.0]". Les valeurs par défaut sont 0.

Exemples

· Ajouter une dominante de couleur rouge aux ombres :

balance des couleurs=rs=.3

Clé de couleur
Incrustation de couleur de l'espace colorimétrique RVB.

Le filtre accepte les options suivantes :

Couleur
La couleur qui sera remplacée par la transparence.

similarité
Pourcentage de similarité avec la couleur de la clé.

0.01 correspond uniquement à la couleur exacte de la clé, tandis que 1.0 correspond à tout.

Anestoderm
Pourcentage de mélange.

0.0 rend les pixels totalement transparents ou pas du tout transparents.

Des valeurs plus élevées donnent des pixels semi-transparents, avec une transparence plus élevée plus
la couleur des pixels est similaire à la couleur de la clé.

Exemples

· Rendre transparent chaque pixel vert de l'image d'entrée :

ffmpeg -i input.png -vf colorkey=green out.png

· Superposer une vidéo sur écran vert sur une image d'arrière-plan statique.

ffmpeg -i background.png -i video.mp4 -filter_complex "[1:v]colorkey=0x3BBD1E:0.3:0.2[ckout];[0:v][ckout]overlay[out]" -map "[out]" sortie.flv

niveaux de couleur
Ajustez les images d'entrée vidéo à l'aide des niveaux.

Le filtre accepte les options suivantes :

rime
gimin
bimine
viser
Ajustez le point noir d'entrée rouge, vert, bleu et alpha. Les plages autorisées pour les options sont
"[-1.0, 1.0]". Les valeurs par défaut sont 0.

Rimax
Gimax
bimax
Aimax
Ajustez le point blanc d'entrée rouge, vert, bleu et alpha. Les plages autorisées pour les options sont
"[-1.0, 1.0]". Les valeurs par défaut sont 1.

Les niveaux d'entrée sont utilisés pour éclaircir les hautes lumières (tons clairs), assombrir les ombres (sombres
tons), modifiez l'équilibre des tons clairs et sombres.

romin
Gomine
bonjour
Aomine
Ajustez le point noir de sortie rouge, vert, bleu et alpha. Les plages autorisées pour les options sont
"[0, 1.0]". Les valeurs par défaut sont 0.

romax
gomax
bomax
aomax
Ajustez le point blanc de sortie rouge, vert, bleu et alpha. Les plages autorisées pour les options sont
"[0, 1.0]". Les valeurs par défaut sont 1.

Les niveaux de sortie permettent la sélection manuelle d'une plage de niveaux de sortie limitée.

Exemples

· Rendre la sortie vidéo plus sombre :

niveaux de couleur=rimin=0.058:gimin=0.058:bimin=0.058

· Augmenter le contraste:

colorlevels=rimin=0.039:gimin=0.039:bimin=0.039:rimax=0.96:gimax=0.96:bimax=0.96

· Rendre la sortie vidéo plus légère :

niveaux de couleur=rimax=0.902:gimax=0.902:bimax=0.902

· Augmenter la luminosité :

niveaux de couleur=romin=0.5:gomin=0.5:bomin=0.5

mélangeur de canaux de couleur
Ajustez les images d'entrée vidéo en remixant les canaux de couleur.

Ce filtre modifie un canal de couleur en ajoutant les valeurs associées aux autres canaux
des mêmes pixels. Par exemple si la valeur à modifier est rouge, la valeur de sortie sera :

= * + * + * + *

Le filtre accepte les options suivantes :

rr
rg
rb
ra Ajuster la contribution des canaux d'entrée rouge, vert, bleu et alpha pour le rouge de sortie
canaliser. La valeur par défaut est 1 pour rret 0 pour rg, rb ainsi que ra.

gr
gg
gb
ga Ajuster la contribution des canaux d'entrée rouge, vert, bleu et alpha pour le vert de sortie
canaliser. La valeur par défaut est 1 pour gget 0 pour gr, gb ainsi que ga.

br
bg
bb
ba Ajuster la contribution des canaux d'entrée rouge, vert, bleu et alpha pour le bleu de sortie
canaliser. La valeur par défaut est 1 pour bbet 0 pour br, bg ainsi que ba.

ar
ag
ab
aa Ajuster la contribution des canaux d'entrée rouge, vert, bleu et alpha pour l'alpha de sortie
canaliser. La valeur par défaut est 1 pour aaet 0 pour ar, ag ainsi que ab.

Les plages autorisées pour les options sont "[-2.0, 2.0]".

Exemples

· Convertir la source en niveaux de gris :

colorchannelmixer=.3:.4:.3:0:.3:.4:.3:0:.3:.4:.3

· Simulez des tons sépia :

colorchannelmixer=.393:.769:.189:0:.349:.686:.168:0:.272:.534:.131

matrice de couleurs
Convertir la matrice de couleur.

Le filtre accepte les options suivantes :

src
dst Spécifiez la matrice de couleurs source et de destination. Les deux valeurs doivent être spécifiées.

Les valeurs acceptées sont :

bt709
BT.709

bt601
BT.601

smpte240m
SMPTE-240M

Fcc FCC

Par exemple pour convertir de BT.601 en SMPTE-240M, utilisez la commande :

matrice de couleurs=bt601:smpte240m

copier
Copiez la source d'entrée inchangée dans la sortie. Ceci est principalement utile à des fins de test.

récolte
Recadrez la vidéo d'entrée aux dimensions données.

Il accepte les paramètres suivants :

w, out_w
La largeur de la vidéo de sortie. La valeur par défaut est "iw". Cette expression est évaluée uniquement
une fois lors de la configuration du filtre, ou lorsque le w or out_w la commande est envoyée.

h, out_h
La hauteur de la vidéo de sortie. La valeur par défaut est "ih". Cette expression est évaluée
une seule fois lors de la configuration du filtre, ou lorsque le h or out_h la commande est envoyée.

x La position horizontale, dans la vidéo d'entrée, du bord gauche de la vidéo de sortie. Ce
par défaut "(in_w-out_w)/2". Cette expression est évaluée par image.

y La position verticale, dans la vidéo d'entrée, du bord supérieur de la vidéo de sortie. Ce
par défaut "(in_h-out_h)/2". Cette expression est évaluée par image.

garder_aspect
S'il est défini sur 1, le format d'affichage de la sortie sera le même que celui de l'entrée, en
changer le rapport hauteur/largeur de l'échantillon de sortie. La valeur par défaut est 0.

La out_w, out_h, x, y les paramètres sont des expressions contenant les constantes suivantes :

x
y Les valeurs calculées pour x ainsi que y. Ils sont évalués pour chaque nouvelle trame.

en W
in_h
La largeur et la hauteur d'entrée.

iw
ih Ce sont les mêmes que en W ainsi que in_h.

out_w
out_h
La largeur et la hauteur de sortie (rognées).

ow
oh Ce sont les mêmes que out_w ainsi que out_h.

a même que iw / ih

sar rapport d'aspect de l'échantillon d'entrée

donner rapport d'aspect d'affichage d'entrée, c'est le même que (iw / ih) * sar

hsub
vssub
valeurs de sous-échantillon de chrominance horizontale et verticale. Par exemple pour le format pixel
"yuv422p" hsub est 2 et vssub est 1.

n Le numéro de la trame d'entrée, à partir de 0.

poster la position dans le fichier de la trame d'entrée, NAN si inconnue

t L'horodatage exprimé en secondes. C'est NAN si l'horodatage d'entrée est inconnu.

L'expression pour out_w peut dépendre de la valeur de out_h, et l'expression de out_h
peut dépendre de out_w, mais ils ne peuvent pas dépendre de x ainsi que y, comme x ainsi que y sont évalués après
out_w ainsi que out_h.

La x ainsi que y les paramètres spécifient les expressions pour la position du coin supérieur gauche de
la zone de sortie (non recadrée). Ils sont évalués pour chaque trame. Si la valeur évaluée
n'est pas valide, il est approximé à la valeur valide la plus proche.

L'expression pour x peut dépendre de y, et l'expression de y peut dépendre de x.

Exemples

· Zone de recadrage avec la taille 100x100 à la position (12,34).

recadrage=100:100:12:34

En utilisant les options nommées, l'exemple ci-dessus devient :

recadrer=w=100:h=100:x=12:y=34

· Recadrer la zone de saisie centrale au format 100x100 :

recadrage=100:100

· Recadrez la zone d'entrée centrale avec la taille 2/3 de la vidéo d'entrée :

recadrage=2/3*in_w:2/3*in_h

· Recadrer le carré central de la vidéo d'entrée :

crop=out_w=in_h
recadrage=in_h

· Délimitez le rectangle avec le coin supérieur gauche placé à la position 100:100 et le
coin inférieur droit correspondant au coin inférieur droit de l'image d'entrée.

recadrage=in_w-100:in_h-100:100:100

· Recadrer 10 pixels des bordures gauche et droite et 20 pixels du haut et du bas
limites

recadrage=in_w-2*10:in_h-2*20

· Ne conserver que le quart inférieur droit de l'image d'entrée :

recadrage=in_w/2:in_h/2:in_w/2:in_h/2

· Hauteur de coupe pour obtenir l'harmonie grecque :

recadrage=in_w:1/PHI*in_w

· Appliquer l'effet tremblant :

crop=in_w/2:in_h/2:(in_w-out_w)/2+((in_w-out_w)/2)*sin(n/10):(in_h-out_h)/2 +((in_h-out_h)/2)*sin(n/7)

· Appliquer un effet de caméra erratique en fonction de l'horodatage :

crop=in_w/2:in_h/2:(in_w-out_w)/2+((in_w-out_w)/2)*sin(t*10):(in_h-out_h)/2 +((in_h-out_h)/2)*sin(t*13)"

· Définir x en fonction de la valeur de y :

crop=in_w/2:in_h/2:y:10+10*sin(n/10)

Commandes

Ce filtre prend en charge les commandes suivantes :

w, out_w
h, out_h
x
y Définir la largeur/hauteur de la vidéo de sortie et la position horizontale/verticale dans l'entrée
vidéo. La commande accepte la même syntaxe que l'option correspondante.

Si l'expression spécifiée n'est pas valide, elle est conservée à sa valeur actuelle.

détection de recadrage
Détection automatique de la taille du recadrage.

Il calcule les paramètres de recadrage nécessaires et imprime les paramètres recommandés via
le système de journalisation. Les dimensions détectées correspondent à la zone non noire de l'entrée
Vidéo.

Il accepte les paramètres suivants :

limite
Définir un seuil de valeur de noir plus élevé, qui peut être spécifié en option à partir de rien (0)
à tout (255 pour les formats basés sur 8 bits). Une valeur d'intensité supérieure à l'ensemble
la valeur est considérée comme non noire. La valeur par défaut est 24. Vous pouvez également spécifier une valeur
entre 0.0 et 1.0 qui sera mis à l'échelle en fonction de la profondeur de bit du pixel
le format.

Round
La valeur par laquelle la largeur/hauteur doit être divisible. La valeur par défaut est 16. Le décalage
est automatiquement ajusté pour centrer la vidéo. Utilisez 2 pour obtenir uniquement des dimensions paires
(nécessaire pour la vidéo 4:2:2). 16 est le meilleur lors de l'encodage vers la plupart des codecs vidéo.

réinitialiser_compte, réinitialiser
Réglez le compteur qui détermine après combien de trames cropdetect réinitialisera le
la plus grande zone vidéo précédemment détectée et recommencer pour détecter l'optimum actuel
zone de culture. La valeur par défaut est 0.

Cela peut être utile lorsque les logos des chaînes déforment la zone vidéo. 0 indique 'jamais
reset', et renvoie la plus grande zone rencontrée pendant la lecture.

courbes
Appliquez des ajustements de couleur à l'aide de courbes.

Ce filtre est similaire aux outils de courbes Adobe Photoshop et GIMP. Chaque composant (rouge,
vert et bleu) a ses valeurs définies par N points clés liés les uns aux autres à l'aide d'un
courbe. L'axe des x représente les valeurs de pixel de l'image d'entrée, et l'axe des y la nouvelle
valeurs de pixels à définir pour la trame de sortie.

Par défaut, une courbe composante est définie par les deux points (0;0) ainsi que (1;1). Cela crée un
ligne droite où chaque valeur de pixel d'origine est "ajustée" à sa propre valeur, ce qui signifie
aucun changement à l'image.

Le filtre permet de redéfinir ces deux points et d'en ajouter d'autres. Une nouvelle courbe (à l'aide d'un
interpolation spline cubique naturelle) sera définie pour passer en douceur à travers tous ces nouveaux
coordonnées. Les nouveaux points définis doivent être strictement croissants sur l'axe des x, et
leur x ainsi que y les valeurs doivent être dans le [0;1] intervalle. Si les courbes calculées devaient aller
en dehors des espaces vectoriels, les valeurs seront tronquées en conséquence.

S'il n'y a pas de point clé défini dans "x=0", le filtre insérera automatiquement un (0;0)
point. De la même manière, s'il n'y a pas de point clé défini dans "x=1", le filtre
insérer automatiquement un (1;1) point.

Le filtre accepte les options suivantes :

préréglé
Sélectionnez l'un des préréglages de couleurs disponibles. Cette option peut être utilisée en complément de la
r, g, b paramètres; dans ce cas, les dernières options sont prioritaires sur le préréglage
valeurs. Les préréglages disponibles sont :

aucun
couleur_négative
processus croisés
plus foncé
augmenter le contraste
plus léger
contraste_linéaire
moyen_contraste
négatif
contraste_fort
esprit vintage

La valeur par défaut est "aucun".

maîtriser, m
Définissez les points clés principaux. Ces points définiront une cartographie de seconde passe. Il est
parfois appelé mappage de « luminance » ou de « valeur ». Il peut être utilisé avec r, g, b or TOUTE
car il agit comme une LUT de post-traitement.

rouge, r
Définissez les points clés pour le composant rouge.

(en vert) g
Définissez les points clés de la composante verte.

bleu, b
Définissez les points clés pour le composant bleu.

TOUTE Définissez les points clés pour tous les composants (hors master). Peut être utilisé en plus
aux autres options de composants de points clés. Dans ce cas, le ou les composants non réglés
repli sur ce TOUTE réglage.

fichier ps
Spécifiez un fichier de courbes Photoshop (".asv") à partir duquel importer les paramètres.

Pour éviter certains conflits de syntaxe de filtergraph, chaque liste de points clés doit être définie en utilisant
la syntaxe suivante : "x0/y0 x1/y1 x2/y2 ...".

Exemples

· Augmenter légèrement le niveau moyen de bleu :

courbes=bleu='0.5/0.58'

· Effet vintage :

curves=r='0/0.11 .42/.51 1/0.95':g='0.50/0.48':b='0/0.22 .49/.44 1/0.8'

On obtient ici les coordonnées suivantes pour chacun des composants :

rouge "(0;0.11) (0.42;0.51) (1;0.95)"

et une transition qui soit juste.
"(0;0) (0.50;0.48) (1;1)"

Bleu
"(0;0.22) (0.49;0.44) (1;0.80)"

· L'exemple précédent peut également être réalisé avec le préréglage intégré associé :

courbes=préréglage=vintage

· Ou simplement:

courbes=vintage

· Utilisez un préréglage Photoshop et redéfinissez les points du composant vert :

courbes=psfile='MyCurvesPresets/purple.asv':green='0.45/0.53'

dctdnoiz
Débruitez les trames à l'aide du DCT 2D (filtrage dans le domaine fréquentiel).

Ce filtre n'est pas conçu pour le temps réel.

Le filtre accepte les options suivantes :

sigma, s
Réglez la constante sigma du bruit.

Ce sigma définit un seuil strict de "3 * sigma" ; chaque coefficient DCT (absolu
valeur) en dessous de ce seuil sera abandonné.

Si vous avez besoin d'un filtrage plus avancé, consultez expr.

La valeur par défaut est 0.

chevauchement
Définissez le nombre de pixels qui se chevauchent pour chaque bloc. Étant donné que le filtre peut être lent, vous pouvez
vouloir réduire cette valeur, au prix d'un filtre moins efficace et au risque de
divers artefacts.

Si la valeur de chevauchement ne permet pas de traiter toute la largeur ou la hauteur d'entrée, un
un avertissement sera affiché et les bordures correspondantes ne seront pas débruitées.

La valeur par défaut est taille de bloc-1, qui est le meilleur réglage possible.

expression, e
Définissez l'expression du facteur de coefficient.

Pour chaque coefficient d'un bloc DCT, cette expression sera évaluée comme un multiplicateur
valeur du coefficient.

Si cette option est définie, le sigma l'option sera ignorée.

La valeur absolue du coefficient est accessible via le c variable.

n Met le taille de bloc en utilisant le nombre de bits. "1<n" définit le taille de bloc, qui est le
largeur et hauteur des blocs traités.

La valeur par défaut est 3 (8x8) et peut être élevé à 4 pour taille de bloc de 16x16. Noter
que la modification de ce paramètre a d'énormes conséquences sur la vitesse de traitement. Aussi un
une plus grande taille de bloc ne signifie pas nécessairement un meilleur débruitage.

Exemples

Appliquer un débruitage avec un sigma de 4.5:

dctdnoiz = 4.5

La même opération peut être réalisée en utilisant le système d'expression :

dctdnoiz=e='gte(c, 4.5*3)'

Débruitage violent en utilisant une taille de bloc de "16x16":

dctdnoiz=15:n=4

débander
Supprimez les artefacts de bande de la vidéo d'entrée. Cela fonctionne en remplaçant les pixels en bandes par
valeur moyenne des pixels référencés.

Le filtre accepte les options suivantes :

1e
2e
3e
4e
Définissez le seuil de détection des bandes pour chaque plan. La valeur par défaut est 0.02. La plage valide est
0.00003 à 0.5. Si la différence entre le pixel actuel et le pixel de référence est inférieure à
seuil, il sera considéré comme bagué.

gamme, r
Plage de détection de bandes en pixels. La valeur par défaut est 16. Si positif, nombre aléatoire dans la plage
0 pour définir la valeur sera utilisé. Si elle est négative, la valeur absolue exacte sera utilisée. Les
range définit un carré de quatre pixels autour du pixel courant.

direction, d
Définir la direction en radians à partir de laquelle quatre pixels seront comparés. Si positif, aléatoire
la direction de 0 à la direction définie sera sélectionnée. Si négatif, exact de la valeur absolue
sera choisi. Par exemple, la direction 0, -PI ou -2*PI radians ne sélectionnera que les pixels sur
même ligne et -PI/2 ne sélectionnera que les pixels de la même colonne.

tache
Si activé, le pixel actuel est comparé à la valeur moyenne des quatre
pixels. La valeur par défaut est activée. Si désactivé, le pixel actuel est comparé aux quatre
pixels environnants. Le pixel est considéré en bandes si seulement les quatre différences avec
les pixels environnants sont inférieurs au seuil.

décimer
Supprimez les images dupliquées à intervalles réguliers.

Le filtre accepte les options suivantes :

cycle
Définissez le nombre d'images dont une sera supprimée. Régler ceci sur N signifie un
cadre dans chaque lot de N les images seront supprimées. La valeur par défaut est 5.

dupliquer
Définissez le seuil de détection des doublons. Si la métrique de différence pour une trame est
inférieur ou égal à cette valeur, il est alors déclaré comme doublon. La valeur par défaut est 1.1

schrresh
Définir le seuil de changement de scène. La valeur par défaut est 15.

blocx
polyédrique
Définissez la taille des blocs des axes x et y utilisés lors des calculs métriques. Plus grand
les blocs donnent une meilleure suppression du bruit, mais aussi une plus mauvaise détection des petits
mouvements. Doit être une puissance de deux. La valeur par défaut est 32.

ppsrc
Marquez l'entrée principale comme entrée prétraitée et activez le flux d'entrée source propre. Cette
permet à l'entrée d'être prétraitée avec divers filtres pour aider les métriques
calcul tout en gardant la sélection de trame sans perte. Lorsqu'il est réglé sur 1, le premier
flux est pour l'entrée pré-traitée, et le deuxième flux est la source propre de
où les cadres conservés sont choisis. La valeur par défaut est 0.

chroma
Définissez si la chrominance est prise en compte ou non dans les calculs métriques. La valeur par défaut est 1.

dégonfler
Appliquez un effet de dégonflage à la vidéo.

Ce filtre remplace le pixel par le locales(3x3) moyenne en ne prenant en compte que
valeurs inférieures au pixel.

Il accepte les options suivantes :

seuil0
seuil1
seuil2
seuil3
Limitez le changement maximum pour chaque avion, la valeur par défaut est 65535. Si 0, l'avion restera
inchangé.

dejudeur
Supprimez les saccades produites par le contenu téléciné partiellement entrelacé.

Le saccade peut être introduit, par exemple, par remonter filtre. Si la source d'origine était
contenu partiellement téléciné alors la sortie de "pullup,dejudder" aura une variable
fréquence d'images. Peut modifier la fréquence d'images enregistrée du conteneur. A part ce changement,
ce filtre n'affectera pas la vidéo à fréquence d'images constante.

L'option disponible dans ce filtre est :

cycle
Spécifiez la longueur de la fenêtre sur laquelle le saccade se répète.

Accepte tout entier supérieur à 1. Les valeurs utiles sont :

4 Si l'original a été téléciné de 24 à 30 fps (Film en NTSC).

5 Si l'original a été téléciné de 25 à 30 fps (PAL vers NTSC).

20 Si un mélange des deux.

La valeur par défaut est 4.

délogo
Supprimer un logo de chaîne de télévision par une simple interpolation des pixels environnants. Il suffit de définir un
rectangle recouvrant le logo et le regarder disparaître (et parfois quelque chose d'encore plus laid
apparaissent - votre kilométrage peut varier).

Il accepte les paramètres suivants :

x
y Spécifiez les coordonnées du coin supérieur gauche du logo. Ils doivent être spécifiés.

w
h Spécifiez la largeur et la hauteur du logo à effacer. Ils doivent être spécifiés.

B: et, t
Spécifiez l'épaisseur du bord flou du rectangle (ajouté à w ainsi que h). La
la valeur par défaut est 4.

montrer
Lorsqu'il est défini sur 1, un rectangle vert est dessiné sur l'écran pour simplifier la recherche du bon
x, y, wet h paramètres. La valeur par défaut est 0.

Le rectangle est dessiné sur les pixels les plus à l'extérieur qui seront (en partie) remplacés par
valeurs interpolées. Les valeurs des pixels suivants immédiatement à l'extérieur de ce rectangle
dans chaque direction sera utilisé pour calculer les valeurs de pixels interpolées à l'intérieur du
rectangle.

Exemples

· Définir un rectangle couvrant la zone avec les coordonnées du coin supérieur gauche 0,0 et la taille
100x77, et une bande de taille 10 :

delogo=x=0:y=0:w=100:h=77:band=10

secouer
Essayez de corriger les petits changements de décalage horizontal et/ou vertical. Ce filtre permet de supprimer
tremblement de l'appareil photo en tenant un appareil photo à la main, en heurtant un trépied, en se déplaçant sur un véhicule, etc.

Le filtre accepte les options suivantes :

x
y
w
h Spécifiez une zone rectangulaire où limiter la recherche de vecteurs de mouvement. Si on le désire
la recherche de vecteurs de mouvement peut être limitée à une zone rectangulaire du cadre
défini par son coin supérieur gauche, sa largeur et sa hauteur. Ces paramètres ont le même
ce qui signifie que le filtre drawbox qui peut être utilisé pour visualiser la position de la
cadre de délimitation.

Ceci est utile lorsque le mouvement simultané de sujets dans le cadre peut être
confondu avec le mouvement de la caméra par la recherche de vecteur de mouvement.

Si tout ou partie de x, y, w ainsi que h sont réglés sur -1, alors la pleine image est utilisée. Ceci permet
options ultérieures à définir sans spécifier la boîte englobante pour le vecteur de mouvement
chercher.

Par défaut - recherchez l'ensemble du cadre.

rx
ry Spécifiez l'étendue maximale du mouvement dans les directions x et y dans la plage 0-64 pixels.
Par défaut 16.

bord
Spécifiez comment générer des pixels pour remplir les blancs au bord du cadre. Disponible
les valeurs sont:

Vide, 0
Remplir des zéros aux emplacements vides

original, 1
Image originale à des emplacements vierges

serrer, 2
Valeur d'arête extrudée aux emplacements vides

miroir, 3
Bord en miroir aux emplacements vides

La valeur par défaut est miroir.

taille de bloc
Spécifiez la taille de bloc à utiliser pour la recherche de mouvement. Plage 4-128 pixels, valeur par défaut 8.

contraste
Spécifiez le seuil de contraste pour les blocs. Seuls les blocs avec plus que le spécifié
le contraste (différence entre les pixels les plus sombres et les plus clairs) sera pris en compte. Varier
1-255, par défaut 125.

recherche
Spécifiez la stratégie de recherche. Les valeurs disponibles sont :

complet, 0
Définir une recherche exhaustive

Moins, 1
Définir une recherche moins exhaustive.

La valeur par défaut est complet.

nom de fichier
S'il est défini, un journal détaillé de la recherche de mouvement est écrit dans le fichier spécifié.

OpenCL
Si défini sur 1, spécifiez en utilisant les capacités OpenCL, uniquement disponible si FFmpeg était
configuré avec "--enable-opencl". La valeur par défaut est 0.

détélécine
Appliquer un inverse exact de l'opération de télécinéma. Il nécessite un modèle prédéfini
spécifié à l'aide de l'option pattern qui doit être la même que celle transmise au télécinéma
filtre.

Ce filtre accepte les options suivantes :

premier_champ
sommet, t
champ supérieur en premier

bas, b
bottom field first La valeur par défaut est "top".

modèle
Une chaîne de chiffres représentant le modèle de pulldown que vous souhaitez appliquer. Le défaut
la valeur est 23.

start_frame
Un nombre représentant la position de la première image par rapport au télécinéma
modèle. Ceci doit être utilisé si le flux est coupé. La valeur par défaut est 0.

dilatation
Appliquez un effet de dilatation à la vidéo.

Ce filtre remplace le pixel par le locales(3x3) maximum.

Il accepte les options suivantes :

seuil0
seuil1
seuil2
seuil3
Limitez le changement maximum pour chaque avion, la valeur par défaut est 65535. Si 0, l'avion restera
inchangé.

les coordonnées
Drapeau qui spécifie le pixel auquel se référer. La valeur par défaut est 255, c'est-à-dire que les huit pixels sont
utilisé.

Les drapeaux vers les cartes de coordonnées locales 3x3 comme ceci :

+1 (2)3
+4 (5)XNUMX XNUMX
+6 (7)8

tiroir
Dessinez une boîte colorée sur l'image d'entrée.

Il accepte les paramètres suivants :

x
y Les expressions qui spécifient les coordonnées du coin supérieur gauche de la boîte. C'est par défaut
à 0.

largeur, w
la taille, h
Les expressions qui spécifient la largeur et la hauteur de la boîte ; si 0 ils sont
interprété comme la largeur et la hauteur d'entrée. La valeur par défaut est 0.

couleur, c
Précisez la couleur de la case à écrire. Pour la syntaxe générale de cette option, cochez
la section "Couleur" dans le manuel ffmpeg-utils. Si la valeur spéciale "invert" est utilisée,
la couleur du bord de la boîte est la même que celle de la vidéo avec luma inversé.

épaisseur, t
L'expression qui définit l'épaisseur du bord de la boîte. La valeur par défaut est 3.

Voir ci-dessous pour la liste des constantes acceptées.

Les paramètres pour x, y, w ainsi que h ainsi que t sont des expressions contenant les constantes suivantes :

donner Le rapport d'aspect d'affichage d'entrée, c'est le même que (w / h) * sar.

hsub
vssub
valeurs de sous-échantillon de chrominance horizontale et verticale. Par exemple pour le format pixel
"yuv422p" hsub est 2 et vssub est 1.

in_h, ih
en W, iw
La largeur et la hauteur d'entrée.

sar Le rapport hauteur/largeur de l'échantillon d'entrée.

x
y Les coordonnées de décalage x et y où la boîte est dessinée.

w
h La largeur et la hauteur de la boîte dessinée.

t L'épaisseur de la boîte dessinée.

Ces constantes permettent x, y, w, h ainsi que t expressions pour se référer les unes aux autres, donc vous
peut par exemple spécifier "y=x/dar" ou "h=w/dar".

Exemples

· Dessinez une boîte noire autour du bord de l'image d'entrée :

tiroir

· Dessinez une boîte de couleur rouge et d'une opacité de 50 % :

boîte de tirage=10:20:200:60 :[email protected]

L'exemple précédent peut être spécifié comme :

drawbox=x=10:y=20:w=200:h=60:color=[email protected]

· Remplissez la case de couleur rose :

drawbox=x=10:y=10:w=100:h=100:color=[email protected]:t=maximum

· Dessinez un masque rouge 2:2.40 de 1 pixels :

drawbox=x=-t:y=0.5*(ih-iw/2.4)-t:w=iw+t*2:h=iw/2.4+t*2:t=2:c=red

graphique, graphique
Dessinez un graphique à l'aide des métadonnées vidéo ou audio d'entrée.

Il accepte les paramètres suivants :

m1 Définissez la clé de métadonnées de la première image à partir de laquelle les valeurs de métadonnées seront utilisées pour dessiner un graphique.

fg1 Définir la 1ère expression de couleur de premier plan.

m2 Définissez la clé de métadonnées de la 2e image à partir de laquelle les valeurs de métadonnées seront utilisées pour dessiner un graphique.

fg2 Définir la 2ème expression de couleur de premier plan.

m3 Définissez la clé de métadonnées de la 3e image à partir de laquelle les valeurs de métadonnées seront utilisées pour dessiner un graphique.

fg3 Définir la 3ème expression de couleur de premier plan.

m4 Définissez la clé de métadonnées de la 4e image à partir de laquelle les valeurs de métadonnées seront utilisées pour dessiner un graphique.

fg4 Définir la 4ème expression de couleur de premier plan.

m. Définir la valeur minimale de la valeur des métadonnées.

max Définir la valeur maximale de la valeur des métadonnées.

bg Définir la couleur d'arrière-plan du graphique. La valeur par défaut est le blanc.

mode
Définir le mode graphique.

Les valeurs disponibles pour le mode sont :

barre
point
en ligne

La valeur par défaut est "ligne".

diapositive
Réglez le mode diapositive.

Les valeurs disponibles pour la diapositive sont :

cadre
Dessinez un nouveau cadre lorsque la bordure droite est atteinte.

remplacer
Remplacez les anciennes colonnes par des nouvelles.

volute
Faites défiler de droite à gauche.

faire défiler
Faites défiler de gauche à droite.

La valeur par défaut est "cadre".

taille
Définir la taille de la vidéo graphique. Pour la syntaxe de cette option, cochez la case "Vidéo Taille"
in le ffmpeg-utils Manuel. La valeur par défaut est "900x256".

Les expressions de couleur de premier plan peuvent utiliser les variables suivantes :

MIN Valeur minimale de la valeur des métadonnées.

MAX Valeur maximale de la valeur des métadonnées.

VAL Valeur actuelle de la clé de métadonnées.

La couleur est définie comme 0xAABBGGRR.

Exemple utilisant les métadonnées de statistiques de signal filtre:

signalstats, drawgraph=lavfi.signalstats.YAVG:min=0:max=255

Exemple utilisant les métadonnées de ebur128 filtre:

ebur128=metadata=1,adrawgraph=lavfi.r128.M:min=-120:max=5

grille
Tracez une grille sur l'image d'entrée.

Il accepte les paramètres suivants :

x
y Les expressions qui spécifient les coordonnées d'un point d'intersection de la grille
(destiné à configurer le décalage). Les deux sont par défaut à 0.

largeur, w
la taille, h
Les expressions qui spécifient la largeur et la hauteur de la cellule de la grille, si 0 elles sont
interprété comme la largeur et la hauteur d'entrée, respectivement, moins "l'épaisseur", donc l'image
est encadré. La valeur par défaut est 0.

couleur, c
Spécifiez la couleur de la grille. Pour la syntaxe générale de cette option, cochez la case
Section "Couleur" dans le manuel ffmpeg-utils. Si la valeur spéciale "invert" est utilisée, le
la couleur de la grille est la même que la vidéo avec luma inversé.

épaisseur, t
L'expression qui définit l'épaisseur de la ligne de grille. La valeur par défaut est 1.

Voir ci-dessous pour la liste des constantes acceptées.

Les paramètres pour x, y, w ainsi que h ainsi que t sont des expressions contenant les constantes suivantes :

donner Le rapport d'aspect d'affichage d'entrée, c'est le même que (w / h) * sar.

hsub
vssub
valeurs de sous-échantillon de chrominance horizontale et verticale. Par exemple pour le format pixel
"yuv422p" hsub est 2 et vssub est 1.

in_h, ih
en W, iw
La largeur et la hauteur de la cellule de la grille d'entrée.

sar Le rapport hauteur/largeur de l'échantillon d'entrée.

x
y Les coordonnées x et y d'un point d'intersection de la grille (destiné à configurer
décalage).

w
h La largeur et la hauteur de la cellule dessinée.

t L'épaisseur de la cellule dessinée.

Ces constantes permettent x, y, w, h ainsi que t expressions pour se référer les unes aux autres, donc vous
peut par exemple spécifier "y=x/dar" ou "h=w/dar".

Exemples

· Dessinez une grille avec cellule 100x100 pixels, épaisseur 2 pixels, avec couleur rouge et un
opacité de 50% :

drawgrid=largeur=100:hauteur=100:épaisseur=2:couleur=[email protected]

· Dessinez une grille 3x3 blanche avec une opacité de 50% :

grille de dessin=w=iw/3:h=ih/3:t=2:c=[email protected]

dessiner le texte
Dessinez une chaîne de texte ou du texte à partir d'un fichier spécifié au-dessus d'une vidéo, en utilisant le libfreetype
bibliothèque.

Pour activer la compilation de ce filtre, vous devez configurer FFmpeg avec
"--enable-libfreetype". Pour activer la police de secours par défaut et le fonte option dont vous avez besoin
configurez FFmpeg avec "--enable-libfontconfig". Pour activer le text_shaping option, vous
besoin de configurer FFmpeg avec "--enable-libfribidi".

Syntaxe

Il accepte les paramètres suivants :

boîte Utilisé pour dessiner un cadre autour du texte en utilisant la couleur d'arrière-plan. La valeur doit être soit 1
(activer) ou 0 (désactiver). La valeur par défaut de boîte est 0.

bordure de boîte
Définissez la largeur de la bordure à dessiner autour de la boîte à l'aide de couleur de la boîte. Le défaut
valeur de bordure de boîte est 0.

couleur de la boîte
La couleur à utiliser pour dessiner la zone autour du texte. Pour la syntaxe de cette option, cochez
la section "Couleur" dans le manuel ffmpeg-utils.

La valeur par défaut de couleur de la boîte est blanc".

frontière
Définissez la largeur de la bordure à dessiner autour du texte à l'aide de couleur de la bordureL’
valeur par défaut de frontière est 0.

couleur de la bordure
Définissez la couleur à utiliser pour dessiner la bordure autour du texte. Pour la syntaxe de ce
option, vérifiez la section "Couleur" dans le manuel ffmpeg-utils.

La valeur par défaut de couleur de la bordure est noir".

avec des données
Sélectionnez comment le texte est élargi. Peut être "none", "strftime" (obsolète) ou
"normal" (par défaut). Voir le drawtext_expansion, Texte avec des données section ci-dessous pour
détails.

fix_bounds
Si vrai, vérifiez et corrigez les coordonnées du texte pour éviter l'écrêtage.

couleur de la police
La couleur à utiliser pour dessiner les polices. Pour la syntaxe de cette option, cochez la case
Section "Couleur" dans le manuel ffmpeg-utils.

La valeur par défaut de couleur de la police est noir".

fontcolor_expr
Chaîne qui est développée de la même manière que texte obtenir une dynamique couleur de la police valeur. Par
par défaut, cette option a une valeur vide et n'est pas traitée. Lorsque cette option est définie, il
remplacements couleur de la police option.

fonte
La famille de polices à utiliser pour dessiner du texte. Par défaut Sans.

fichier de polices
Le fichier de police à utiliser pour dessiner du texte. Le chemin doit être inclus. Ce paramètre
est obligatoire si la prise en charge de fontconfig est désactivée.

dessiner
Cette option n'existe pas, veuillez consulter le système de chronologie

Alpha
Dessinez le texte en appliquant la fusion alpha. La valeur peut être soit un nombre compris entre 0.0
et 1.0 L'expression accepte les mêmes variables x, y faire. La valeur par défaut est 1.
S'il vous plaît voir fontcolor_expr

taille de police
La taille de police à utiliser pour dessiner du texte. La valeur par défaut de taille de police est 16.

text_shaping
S'il est défini sur 1, essayez de façonner le texte (par exemple, inversez l'ordre
texte à gauche et joindre des caractères arabes) avant de le dessiner. Sinon, dessinez simplement le
texte exactement comme indiqué. Par défaut 1 (si pris en charge).

ft_load_flags
Les drapeaux à utiliser pour charger les polices.

Les drapeaux mappent les drapeaux correspondants pris en charge par libfreetype et sont une combinaison
des valeurs suivantes:

défaut
no_scale
no_hiting
rendement
no_bitmap
disposition_verticale
force_autohint
crop_bitmap
pédant
ignore_global_advance_width
no_recurse
ignorer_transformer
monochrome
conception_linéaire
no_autohint

La valeur par défaut est "par défaut".

Pour plus d'informations, consultez la documentation des indicateurs de libfreetype FT_LOAD_*.

couleur de l'ombre
La couleur à utiliser pour dessiner une ombre derrière le texte dessiné. Pour la syntaxe de
cette option, vérifiez la section "Couleur" dans le manuel ffmpeg-utils.

La valeur par défaut de couleur de l'ombre est noir".

ombrex
ténébreux
Les décalages x et y pour la position de l'ombre du texte par rapport à la position du
texte. Il peut s'agir de valeurs positives ou négatives. La valeur par défaut pour les deux est
"0".

numéro_début
Le numéro de trame de départ pour la variable n/frame_num. La valeur par défaut est « 0 ».

taille de tabulation
La taille en nombre d'espaces à utiliser pour le rendu de l'onglet. La valeur par défaut est 4.

timecode
Définissez la représentation initiale du code temporel au format "hh:mm:ss[:;.]ff". Ça peut être utilisé
avec ou sans paramètre de texte. taux_timecode l'option doit être spécifiée.

taux_timecode, taux, r
Réglez la fréquence d'images du code temporel (code temporel uniquement).

texte
La chaîne de texte à dessiner. Le texte doit être une séquence de caractères codés en UTF-8.
Ce paramètre est obligatoire si aucun fichier n'est spécifié avec le paramètre fichier texte.

fichier texte
Un fichier texte contenant du texte à dessiner. Le texte doit être une séquence de code UTF-8
caractères.

Ce paramètre est obligatoire si aucune chaîne de texte n'est spécifiée avec le paramètre texte.

Si les deux texte ainsi que fichier texte sont spécifiés, une erreur est renvoyée.

Recharger
S'il est défini sur 1, le fichier texte sera rechargé avant chaque trame. Assurez-vous de le mettre à jour
atomiquement, ou il peut être lu partiellement, ou même échouer.

x
y Les expressions qui spécifient les décalages où le texte sera dessiné dans la vidéo
Cadre. Ils sont relatifs à la bordure supérieure/gauche de l'image de sortie.

La valeur par défaut de x ainsi que y est "0".

Voir ci-dessous pour la liste des constantes et fonctions acceptées.

Les paramètres pour x ainsi que y sont des expressions contenant les constantes suivantes et
les fonctions:

donner rapport d'aspect d'affichage d'entrée, c'est le même que (w / h) * sar

hsub
vssub
valeurs de sous-échantillon de chrominance horizontale et verticale. Par exemple pour le format pixel
"yuv422p" hsub est 2 et vssub est 1.

ligne_h, lh
la hauteur de chaque ligne de texte

main_h, h, H
la hauteur d'entrée

main_w, w, W
la largeur d'entrée

max_glyph_a, ascension
la distance maximale entre la ligne de base et la coordonnée de grille la plus élevée/supérieure utilisée pour
placez un point de contour de glyphe, pour tous les glyphes rendus. C'est une valeur positive, due
à l'orientation de la grille avec l'axe Y vers le haut.

max_glyph_d, descente
la distance maximale entre la ligne de base et la coordonnée de grille la plus basse utilisée pour placer un
point de contour du glyphe, pour tous les glyphes rendus. Il s'agit d'une valeur négative, en raison de
l'orientation de la grille, avec l'axe Y vers le haut.

max_glyphe_h
hauteur maximale des glyphes, c'est-à-dire la hauteur maximale de tous les glyphes contenus dans le
texte rendu, il équivaut à ascension - descente.

max_glyphe_w
largeur maximale des glyphes, c'est-à-dire la largeur maximale de tous les glyphes contenus dans le
texte rendu

n le nombre de trame d'entrée, à partir de 0

rands(min, max)
renvoie un nombre aléatoire compris entre m. ainsi que max

sar Le rapport hauteur/largeur de l'échantillon d'entrée.

t horodatage exprimé en secondes, NAN si l'horodatage d'entrée est inconnu

texte_h, th
la hauteur du texte rendu

texte_w, tw
la largeur du texte rendu

x
y les coordonnées de décalage x et y où le texte est dessiné.

Ces paramètres permettent au x ainsi que y expressions pour se référer les unes aux autres, vous pouvez donc pour
exemple, spécifiez "y=x/dar".

Texte avec des données

If avec des données est réglé sur "strftime", le filtre reconnaît strftime() séquences dans le
texte fourni et les développe en conséquence. Consultez la documentation de strftime(). Ce
la fonctionnalité est obsolète.

If avec des données est défini sur "aucun", le texte est imprimé textuellement.

If avec des données est défini sur "normal" (ce qui est la valeur par défaut), le mécanisme d'expansion suivant
est utilisé.

Le caractère barre oblique inverse \, suivi de n'importe quel caractère, s'étend toujours à la seconde
caractère.

Les séquences de la forme "%{...}" sont développées. Le texte entre les accolades est une fonction
nom, éventuellement suivi d'arguments séparés par ':'. Si les arguments contiennent des
caractères ou délimiteurs (':' ou '}'), ils doivent être échappés.

Notez qu'ils doivent probablement aussi être échappés en tant que valeur pour le texte option dans la
chaîne d'argument de filtre et comme argument de filtre dans la description de filtergraph, et
éventuellement aussi pour la coque, cela fait jusqu'à quatre niveaux d'évasion ; à l'aide d'un fichier texte
évite ces problèmes.

Les fonctions suivantes sont disponibles :

expression, e
Le résultat de l'évaluation de l'expression.

Il doit prendre un argument spécifiant l'expression à évaluer, qui accepte le
mêmes constantes et fonctions que le x ainsi que y valeurs. Notez que toutes les constantes ne doivent pas
être utilisé, par exemple la taille du texte n'est pas connue lors de l'évaluation de l'expression, donc le
des constantes texte_w ainsi que texte_h aura une valeur indéfinie.

expr_int_format, fei
Évaluez la valeur de l'expression et la sortie sous forme d'entier formaté.

Le premier argument est l'expression à évaluer, tout comme pour le expr la fonction.
Le deuxième argument spécifie le format de sortie. Les valeurs autorisées sont x, X, d ainsi que u.
Ils sont traités exactement comme dans la fonction "printf". Le troisième paramètre est facultatif
et définit le nombre de positions prises par la sortie. Il peut être utilisé pour ajouter un rembourrage
avec des zéros à partir de la gauche.

heure de gm
L'heure à laquelle le filtre s'exécute, exprimée en UTC. Il peut accepter un argument :
a strftime() chaîne de formatage.

heure locale
L'heure à laquelle le filtre s'exécute, exprimée dans le fuseau horaire local. Ça peut
accepter un argument : un strftime() chaîne de formatage.

métadonnées
Métadonnées du cadre. Il doit prendre un argument spécifiant la clé de métadonnées.

n, num_cadre
Le numéro de trame, à partir de 0.

pict_type
Une description à 1 caractère du type d'image actuel.

pts L'horodatage de l'image actuelle. Cela peut prendre jusqu'à deux arguments.

Le premier argument est le format de l'horodatage ; il est par défaut "flt" pendant quelques secondes car
un nombre décimal avec une précision de la microseconde ; "hms" signifie formaté
[-]HH:MM:SS.mmm horodatage avec une précision de la milliseconde.

Le deuxième argument est un décalage ajouté à l'horodatage.

Exemples

· Dessinez "Test Text" avec la police FreeSerif, en utilisant les valeurs par défaut pour l'option
paramètres.

drawtext="fontfile=/usr/share/fonts/truetype/freefont/FreeSerif.ttf: text='Test Text'"

· Dessinez 'Test Text' avec la police FreeSerif de taille 24 à la position x=100 et y=50 (en comptant
dans le coin supérieur gauche de l'écran), le texte est jaune entouré d'un cadre rouge. Les deux
le texte et le cadre ont une opacité de 20%.

drawtext="fontfile=/usr/share/fonts/truetype/freefont/FreeSerif.ttf: text='Test Text':\
x=100 : y=50 : fontsize=24 : fontcolor=[email protected]: case=1: casecolor=[email protected]"

Notez que les guillemets doubles ne sont pas nécessaires si les espaces ne sont pas utilisés dans le
liste de paramètres.

· Afficher le texte au centre de l'image vidéo :

drawtext="fontsize=30:fontfile=FreeSerif.ttf:text='hello world':x=(w-text_w)/2:y=(h-text_h)/2"

· Afficher une ligne de texte glissant de droite à gauche dans la dernière rangée de l'image vidéo. le
filet LONGUE LIGNE est supposé contenir une seule ligne sans retour à la ligne.

drawtext="fontsize=15:fontfile=FreeSerif.ttf:text=LONG_LINE:y=h-line_h:x=-50*t"

· Afficher le contenu du fichier CRÉDITS en bas du cadre et faites défiler vers le haut.

drawtext="fontsize=20:fontfile=FreeSerif.ttf:textfile=CREDITS:y=h-20*t"

· Dessinez une seule lettre verte "g", au centre de la vidéo d'entrée. La ligne de base du glyphe
est placé à mi-hauteur de l'écran.

drawtext="fontsize=60:fontfile=FreeSerif.ttf:fontcolor=green:text=g:x=(w-max_glyph_w)/2:y=h/2-ascent"

· Afficher le texte pendant 1 seconde toutes les 3 secondes :

drawtext="fontfile=FreeSerif.ttf:fontcolor=white:x=100:y=x/dar:enable=lt(mod(t\,3)\,1):text='blink'"

· Utilisez fontconfig pour définir la police. Notez que les deux points doivent être échappés.

drawtext='fontfile=Linux Libertine O-40\:style=Semibold:text=FFmpeg'

· Imprimer la date d'un encodage en temps réel (voir strftime(sept)):

drawtext='fontfile=FreeSans.ttf:text=%{localtime\:%a %b %d %Y}'

· Afficher le texte en fondu entrant et sortant (apparaît/disparaît) :

#!/ Bin / sh
DS=1.0 # début d'affichage
DE=10.0 # fin d'affichage
FID=1.5 # durée de fondu enchaîné
FOD=5 # durée de fondu
ffplay -f lavfi "color,drawtext=text=TEST:fontsize=50:fontfile=FreeSerif.ttf:fontcolor_expr=ff0000%{eif\\\\: clip(255*(1*between(t\\, $DS + $FID\\, $DE - $FOD) + ((t - $DS)/$FID)*entre(t\\, $DS\\, $DS + $FID) + (-(t - $DE) /$FOD)*entre(t\\, $DE - $FOD\\, $DE) )\\, 0\\, 255) \\\\: x\\\\: 2 }"

Pour plus d'informations sur libfreetype, consultez :http://www.freetype.org/>.

Pour plus d'informations sur fontconfig, vérifiez :
<http://freedesktop.org/software/fontconfig/fontconfig-user.html>.

Pour plus d'informations sur libfribidi, consultez :http://fribidi.org/>.

détecter bord
Détectez et dessinez les bords. Le filtre utilise l'algorithme Canny Edge Detection.

Le filtre accepte les options suivantes :

faible
Élevée
Définissez les valeurs de seuil bas et haut utilisées par l'algorithme de seuillage de Canny.

Le seuil haut sélectionne les pixels de bord « forts », qui sont ensuite connectés via
8-connectivité avec les pixels de bord "faibles" sélectionnés par le seuil bas.

faible ainsi que Élevée les valeurs de seuil doivent être choisies dans la plage [0,1], et faible devrait être
inférieur ou égal à Élevée.

Valeur par défaut pour faible est "20/255", et la valeur par défaut pour Élevée est "50/255".

mode
Définissez le mode de dessin.

fils
Dessinez des fils blancs/gris sur fond noir.

mélange de couleurs
Mélangez les couleurs pour créer un effet peinture/bande dessinée.

La valeur par défaut est fils.

Exemples

· Détection de front standard avec valeurs personnalisées pour le seuillage d'hystérésis :

edgedetect=bas=0.1:haut=0.4

· Effet peinture sans seuillage :

edgedetect=mode=colormix:high=0

eq
Réglez la luminosité, le contraste, la saturation et le réglage approximatif du gamma.

Le filtre accepte les options suivantes :

contraste
Définissez l'expression de contraste. La valeur doit être une valeur flottante comprise entre "-2.0" et 2.0.
La valeur par défaut est "0".

luminosité
Définissez l'expression de la luminosité. La valeur doit être une valeur flottante comprise entre "-1.0" et 1.0.
La valeur par défaut est "0".

saturation
Définissez l'expression de saturation. La valeur doit être un flottant compris entre 0.0 et 3.0. le
la valeur par défaut est "1".

gamma
Définissez l'expression gamma. La valeur doit être un flottant dans la plage 0.1 à 10.0. Le défaut
la valeur est "1".

gamma_r
Définissez l'expression gamma pour le rouge. La valeur doit être un flottant dans la plage 0.1 à 10.0. le
la valeur par défaut est "1".

gamma_g
Définissez l'expression gamma pour le vert. La valeur doit être un flottant dans la plage 0.1 à 10.0.
La valeur par défaut est "1".

gamma_b
Définissez l'expression gamma pour le bleu. La valeur doit être un flottant dans la plage 0.1 à 10.0. le
la valeur par défaut est "1".

poids_gamma
Définissez l'expression du poids gamma. Il peut être utilisé pour réduire l'effet d'un gamma élevé
valeur sur les zones d'image lumineuses, par exemple les empêcher de devenir suramplifiées et tout simplement
blanc. La valeur doit être un flottant compris entre 0.0 et 1.0. Une valeur de 0.0 transforme le gamma
correction tout en bas tandis que 1.0 le laisse à sa pleine puissance. La valeur par défaut est "1".

eval
Définir quand les expressions pour la luminosité, le contraste, la saturation et les expressions gamma
sont évalués.

Il accepte les valeurs suivantes :

init
n'évalue les expressions qu'une seule fois lors de l'initialisation du filtre ou lorsqu'une commande
est traité

cadre
évaluer les expressions pour chaque trame entrante

La valeur par défaut est init.

Les expressions acceptent les paramètres suivants :

n nombre de trames de la trame d'entrée à partir de 0

poster position d'octet du paquet correspondant dans le fichier d'entrée, NAN si non spécifié

r fréquence d'images de la vidéo d'entrée, NAN si la fréquence d'images d'entrée est inconnue

t horodatage exprimé en secondes, NAN si l'horodatage d'entrée est inconnu

Commandes

Le filtre prend en charge les commandes suivantes :

contraste
Définissez l'expression de contraste.

luminosité
Définissez l'expression de la luminosité.

saturation
Définissez l'expression de saturation.

gamma
Définissez l'expression gamma.

gamma_r
Définissez l'expression gamma_r.

gamma_g
Définir l'expression gamma_g.

gamma_b
Définir l'expression gamma_b.

poids_gamma
Définir l'expression gamma_weight.

La commande accepte la même syntaxe que l'option correspondante.

Si l'expression spécifiée n'est pas valide, elle est conservée à sa valeur actuelle.

l'érosion
Appliquez un effet d'érosion à la vidéo.

Ce filtre remplace le pixel par le locales(3x3) minimum.

Il accepte les options suivantes :

seuil0
seuil1
seuil2
seuil3
Limitez le changement maximum pour chaque avion, la valeur par défaut est 65535. Si 0, l'avion restera
inchangé.

les coordonnées
Drapeau qui spécifie le pixel auquel se référer. La valeur par défaut est 255, c'est-à-dire que les huit pixels sont
utilisé.

Les drapeaux vers les cartes de coordonnées locales 3x3 comme ceci :

+1 (2)3
+4 (5)XNUMX XNUMX
+6 (7)8

plans d'extraction
Extraire les composants du canal de couleur du flux vidéo d'entrée dans une vidéo distincte en niveaux de gris
ruisseaux.

Le filtre accepte l'option suivante :

avions
Définir le(s) plan(s) à extraire.

Les valeurs disponibles pour les avions sont :

y
u
v
a
r
g
b

Le choix de plans non disponibles dans l'entrée entraînera une erreur. Cela signifie que vous
ne peut pas sélectionner les plans "r", "g", "b" avec les plans "y", "u", "v" en même temps.

Exemples

· Extraire le composant de canal de couleur luma, u et v de l'image vidéo d'entrée en 3 niveaux de gris
les sorties:

ffmpeg -i video.avi -filter_complex 'extractplanes=y+u+v[y][u][v]' -map '[y]' y.avi -map '[u]' u.avi -map '[ v]' v.avi

elbg
Appliquez un effet postérisé à l'aide de l'algorithme ELBG (Enhanced LBG).

Pour chaque image d'entrée, le filtre calculera le mappage optimal de l'entrée à la
sortie étant donné la longueur du livre de codes, c'est-à-dire le nombre de couleurs de sortie distinctes.

Ce filtre accepte les options suivantes.

longueur_codebook, l
Définir la longueur du livre de codes. La valeur doit être un entier positif et représente le nombre
de couleurs de sortie distinctes. La valeur par défaut est 256.

nb_pas, n
Définissez le nombre maximal d'itérations à appliquer pour calculer le mappage optimal. le
plus la valeur est élevée, meilleur est le résultat et plus le temps de calcul est élevé. Défaut
la valeur est 1.

la graine, s
Définir une valeur de départ aléatoire, doit être un entier compris entre 0 et UINT32_MAX. Si non
spécifié, ou s'il est explicitement défini sur -1, le filtre essaiera d'utiliser une bonne graine aléatoire
sur la base du meilleur effort.

pal8
Définir le format de pixel de sortie pal8. Cette option ne fonctionne pas avec une longueur de livre de codes supérieure
que 256.

fondu
Appliquez un effet de fondu d'entrée/sortie à la vidéo d'entrée.

Il accepte les paramètres suivants :

Type, t
Le type d'effet peut être soit "in" pour un fondu d'entrée, soit "out" pour un effet de fondu de sortie.
La valeur par défaut est "dans".

start_frame, s
Spécifiez le numéro de l'image pour commencer à appliquer l'effet de fondu. La valeur par défaut est 0.

nb_frames, n
Le nombre d'images que dure l'effet de fondu. A la fin de l'effet de fondu, le
la vidéo de sortie aura la même intensité que la vidéo d'entrée. A la fin du fondu-
transition de sortie, la vidéo de sortie sera remplie avec la Couleur. La valeur par défaut est
25.

Alpha
S'il est défini sur 1, fondu uniquement sur le canal alpha, s'il en existe un sur l'entrée. La valeur par défaut est 0.

Heure de début, st
Spécifiez l'horodatage (en secondes) de l'image pour commencer à appliquer l'effet de fondu. Si
les deux start_frame et start_time sont spécifiés, le fondu commencera à celui qui vient
dernière. La valeur par défaut est 0.

durée, d
Le nombre de secondes pendant lesquelles l'effet de fondu doit durer. A la fin du fondu enchaîné
effet la vidéo de sortie aura la même intensité que la vidéo d'entrée, à la fin de
la transition de fondu sortant la vidéo de sortie sera remplie avec le Couleur. Si
la durée et nb_frames sont spécifiés, la durée est utilisée. La valeur par défaut est 0 (nb_frames
est utilisé par défaut).

couleur, c
Spécifiez la couleur du fondu. La valeur par défaut est "noir".

Exemples

· Fondu dans les 30 premières images de la vidéo :

fondu=en:0:30

La commande ci-dessus équivaut à :

fondu=t=in:s=0:n=30

· Estompez les 45 dernières images d'une vidéo de 200 images :

fondu = sortie:155:45
fondu=type=out:start_frame=155:nb_frames=45

· Fondu dans les 25 premières images et fondu dans les 25 dernières images d'une vidéo de 1000 images :

fondu=entrée:0:25, fondu=sortie:975:25

· Rendre les 5 premières images jaunes, puis fondu enchaîné à partir des images 5-24 :

fondu=in:5:20:couleur=jaune

· Fondu en alpha sur les 25 premières images de la vidéo :

fondu=in:0:25:alpha=1

· Rendez les 5.5 premières secondes noires, puis fondu enchaîné pendant 0.5 seconde :

fondu=t=in:st=5.5:d=0.5

fftfilter
Appliquer des expressions arbitraires aux échantillons dans le domaine fréquentiel

dc_Y
Ajustez la valeur CC (gain) du plan de luminance de l'image. Le filtre accepte un
valeur entière comprise entre 0 et 1000. La valeur par défaut est définie sur 0.

dc_U
Ajustez la valeur dc (gain) du 1er plan de chrominance de l'image. Le filtre accepte un
valeur entière comprise entre 0 et 1000. La valeur par défaut est définie sur 0.

dc_V
Ajustez la valeur CC (gain) du 2e plan de chrominance de l'image. Le filtre accepte un
valeur entière comprise entre 0 et 1000. La valeur par défaut est définie sur 0.

lourd
Définissez l'expression du poids du domaine fréquentiel pour le plan de luminance.

poids_U
Définissez l'expression du poids du domaine fréquentiel pour le 1er plan de chrominance.

poids_V
Définissez l'expression du poids du domaine fréquentiel pour le 2e plan de chrominance.

Le filtre accepte les variables suivantes :

X
Y Les coordonnées de l'échantillon actuel.

W
H La largeur et la hauteur de l'image.

Exemples

· Passe-haut :

fftfilt=dc_Y=128:weight_Y='squish(1-(Y+X)/100)'

· Passe-bas:

fftfilt=dc_Y=0:weight_Y='squish((Y+X)/100-1)'

· Aiguiser :

fftfilt=dc_Y=0:weight_Y='1+squish(1-(Y+X)/100)'

champ
Extraire un seul champ d'une image entrelacée en utilisant l'arithmétique de la foulée pour éviter le gaspillage
Temps CPU. Les trames de sortie sont marquées comme non entrelacées.

Le filtre accepte les options suivantes :

type
Précisez s'il faut extraire le champ du haut (si la valeur est 0 ou "top") ou le champ du bas
(si la valeur est 1 ou "en bas").

correspondance sur le terrain
Filtre de correspondance de champ pour le télécinéma inversé. Il s'agit de reconstruire la progressivité
images d'un flux téléciné. Le filtre ne supprime pas les images dupliquées, donc pour obtenir
un "fieldmatch" inverse complet de télécinéma doit être suivi d'un filtre de décimation tel
as décimer dans le filtre graphique.

La séparation de l'appariement de champ et de la décimation est notamment motivée par la
possibilité d'insérer un filtre de désentrelacement de repli entre les deux. Si la source
a un contenu mixte téléciné et réel entrelacé, "fieldmatch" ne pourra pas correspondre
champs pour les parties entrelacées. Mais ces cadres peignés restants seront marqués comme
entrelacé, et peut donc être désentrelacé par un filtre ultérieur tel que Yadif before
décimation.

En plus des différentes options de configuration, "fieldmatch" peut prendre une seconde optionnelle
flux, activé via le ppsrc option. Si activé, la reconstruction des images sera
sur la base des champs et des trames de ce deuxième flux. Cela permet à la première entrée d'être
pré-traités afin d'aider les différents algorithmes du filtre, tout en gardant le
sortie sans perte (en supposant que les champs correspondent correctement). En règle générale, une personne connaissant le terrain
le débruiteur ou les réglages de luminosité/contraste peuvent aider.

A noter que ce filtre utilise les mêmes algorithmes que TIVTC/TFM (projet AviSynth) et
VIVTC/VFM (projet VapourSynth). Ce dernier est un clone léger de TFM à partir duquel "fieldmatch"
est basé sur. Bien que la sémantique et l'utilisation soient très proches, certains noms de comportement et d'options
peut différer.

La décimer le filtre ne fonctionne actuellement que pour une entrée à fréquence d'images constante. Si votre entrée a
Le contenu mixte téléciné (30 ips) et progressif avec une fréquence d'images inférieure à 24 ips utilise le
la chaîne de filtrage suivante pour produire le flux cfr nécessaire :
"dejudder,fps=30000/1001,fieldmatch,decimate".

Le filtre accepte les options suivantes :

de commander
Spécifiez l'ordre des champs supposé du flux d'entrée. Les valeurs disponibles sont :

auto
Détection automatique de la parité (utilisez la valeur de parité interne de FFmpeg).

bff Supposons d'abord le champ du bas.

tff Supposons d'abord le champ supérieur.

A noter qu'il est parfois recommandé de ne pas se fier à la parité annoncée par le flux.

La valeur par défaut est auto.

mode
Définissez le mode de correspondance ou la stratégie à utiliser. pc le mode est le plus sûr dans le sens où il
ne risque pas de créer des saccades dues à des images en double lorsque cela est possible, mais s'il y a
de mauvaises modifications ou des champs mélangés, il finira par produire des images peignées lorsqu'une bonne correspondance
pourrait réellement exister. D'autre part, pcn_ub le mode est le plus risqué en termes de
créant des saccades, mais trouvera presque toujours un bon cadre s'il y en a un. le
les autres valeurs sont toutes quelque part entre les deux pc ainsi que pcn_ub en termes de risque de saccades
et créer des cadres en double au lieu de trouver de bonnes correspondances dans les sections avec de mauvaises modifications,
champs orphelins, champs mixtes, etc.

Plus de détails sur p/c/n/u/b sont disponibles dans p/c/n/u/b sens .

Les valeurs disponibles sont :

pc Correspondance à 2 voies (p/c)

pc_n
Correspondance bidirectionnelle et essai de la 2e correspondance si toujours peigné (p/c + n)

pc_u
Correspondance bidirectionnelle et essai de la 2e correspondance (même ordre) si toujours peigné (p/c + u)

pc_n_ub
Correspondance bidirectionnelle, essayer la 2e correspondance si toujours peignée et essayer les 3e/4e correspondances si
encore peigné (p/c + n + u/b)

pcn Correspondance à 3 voies (p/c/n)

pcn_ub
Correspondance à trois et essayer les 3e/4e correspondances si les 5 correspondances d'origine sont
détecté comme peigné (p/c/n + u/b)

La parenthèse à la fin indique les correspondances qui seraient utilisées pour ce mode
en supposant de commander=tff (Et champ on auto or top).

En termes de vitesse pc le mode est de loin le plus rapide et pcn_ub est le plus lent.

La valeur par défaut est pc_n.

ppsrc
Marquez le flux d'entrée principal en tant qu'entrée prétraitée et activez l'entrée secondaire
stream comme source propre pour sélectionner les champs. Voir l'introduction du filtre pour
plus de détails. C'est similaire au clip2 fonction de VFM/TFM.

La valeur par défaut est 0 (désactivé).

champ
Définissez le champ à partir duquel faire correspondre. Il est recommandé de régler ce paramètre sur la même valeur que de commander
sauf si vous rencontrez des échecs de correspondance avec ce paramètre. Dans certaines circonstances
changer le champ utilisé pour la correspondance peut avoir un impact important sur la correspondance
performance. Les valeurs disponibles sont :

auto
Automatique (même valeur que de commander).

bas
Match à partir du champ du bas.

top Match à partir du champ du haut.

La valeur par défaut est auto.

mchroma
Définissez si la chrominance est incluse ou non lors des comparaisons de matchs. Dans la plupart des cas, il
est recommandé de laisser cette option activée. Vous devez définir ce paramètre sur 0 uniquement si votre clip a
de mauvais problèmes de chrominance tels que des arcs-en-ciel importants ou d'autres artefacts. Mettre cela à 0
pourrait également être utilisé pour accélérer les choses au prix d'une certaine précision.

La valeur par défaut est 1.

y0
y1 Ceux-ci définissent une bande d'exclusion qui exclut les lignes entre y0 ainsi que y1 d'être
inclus dans la décision d'appariement sur le terrain. Une bande d'exclusion peut être utilisée pour ignorer
des sous-titres, un logo ou d'autres éléments susceptibles d'interférer avec la correspondance. y0 définit le
début de la ligne de balayage et y1 définit la ligne de fin ; toutes les lignes entre les deux y0 ainsi que y1
(Y compris y0 ainsi que y1) sera ignoré. Réglage y0 ainsi que y1 à la même valeur sera
désactiver la fonctionnalité. y0 ainsi que y1 la valeur par défaut est 0.

schrresh
Définir le seuil de détection de changement de scène en pourcentage du changement maximal sur la luminance
avion. Les bonnes valeurs se situent dans la plage "[8.0, 14.0]". La détection de changement de scène est seulement
pertinent en cas match de peigne=sc. La gamme pour schrresh est "[0.0, 100.0]".

La valeur par défaut est 12.0.

match de peigne
Quand combat n'est pas aucun, "fieldmatch" prendra en compte les scores peignés de
matchs au moment de décider quel match utiliser comme match final. Les valeurs disponibles sont :

aucun
Pas de correspondance finale basée sur les scores peignés.

sc Les scores peignés ne sont utilisés que lorsqu'un changement de scène est détecté.

plein
Utilisez des scores peignés tout le temps.

La valeur par défaut est sc.

peignedbg
Forcez "fieldmatch" pour calculer les métriques peignées pour certaines correspondances et les imprimer.
Ce paramètre est connu sous le nom micro dans le vocabulaire TFM/VFM. Les valeurs disponibles sont :

aucun
Pas de calcul forcé.

pcn Forcer les calculs p/c/n.

pcnub
Forcer les calculs p/c/n/u/b.

La valeur par défaut est aucun.

seuil
Il s'agit du seuil de peignage de zone utilisé pour la détection de trame peignée. Ceci essentiellement
contrôle à quel point le peignage « fort » ou « visible » doit être détecté. Des valeurs plus élevées signifient
le peignage doit être plus visible et des valeurs plus petites signifient que le peignage peut être moins visible ou
fort et toujours être détecté. Les paramètres valides sont de "-1" (chaque pixel sera
détecté comme peigné) à 255 (aucun pixel ne sera détecté comme peigné). Il s'agit essentiellement d'un
valeur de différence de pixels. Une bonne plage est "[8, 12]".

La valeur par défaut est 9.

chroma
Définit si la chrominance est prise en compte ou non dans la décision de trame peignée. Désactiver uniquement
ceci si votre source a des problèmes de chrominance (arc-en-ciel, etc.) qui causent des problèmes
pour la détection de trame peignée avec chrominance activée. En fait, en utilisant chroma=0 is
généralement plus fiable, sauf dans le cas où il n'y a de chrominance que dans le
la source.

La valeur par défaut est 0.

blocx
polyédrique
Définissez respectivement la taille de l'axe des x et de l'axe des y de la fenêtre utilisée pendant le cadre peigné
détection. Cela a à voir avec la taille de la zone dans laquelle comble les pixels sont
doit être détecté comme peigné pour qu'une trame soit déclarée peignée. Voir le comble
description du paramètre pour plus d'informations. Les valeurs possibles sont n'importe quel nombre qui est une puissance
de 2 commençant à 4 et allant jusqu'à 512.

La valeur par défaut est 16.

comble
Le nombre de pixels peignés à l'intérieur de l'un des polyédrique by blocx blocs de taille sur le
trame pour que la trame soit détectée comme peignée. Tandis que seuil contrôle la « visibilité » du
peignage doit être, ce paramètre contrôle "combien" de peignage il doit y avoir dans n'importe quel
zone localisée (une fenêtre définie par le blocx ainsi que polyédrique paramètres) sur le cadre.
La valeur minimale est 0 et la valeur maximale est "blocky x blockx" (à quel point aucune trame ne sera
jamais être détecté comme peigné). Ce paramètre est connu sous le nom MI dans le vocabulaire TFM/VFM.

La valeur par défaut est 80.

p/c/n/u/b sens

p/c/n

Nous supposons le flux téléciné suivant :

Champs supérieurs : 1 2 2 3 4
Champs inférieurs : 1 2 3 4 4

Les numéros correspondent au cadre progressif auquel les champs se rapportent. Ici, les deux premiers
les montures sont progressives, les 3ème et 4ème sont peignées, et ainsi de suite.

Lorsque "fieldmatch" est configuré pour exécuter une correspondance à partir du bas (champ=bas) c'est ainsi
ce flux d'entrée est transformé :

Flux d'entrée:
V 1 2 2 3 4
B 1 2 3 4 4 <-- référence correspondante

Correspondances : ccnnc

Flux de sortie :
V 1 2 3 4 4
B 1 2 3 4 4

À la suite de la correspondance des champs, nous pouvons voir que certaines images sont dupliquées. Pour effectuer
un télécinéma inversé complet, il faut s'appuyer sur un filtre de décimation après cette opération.
Voir par exemple le décimer filtre.

La même opération correspond maintenant à partir des champs supérieurs (champ=top) ressemble à ça:

Flux d'entrée:
T 1 2 2 3 4 <-- référence correspondante
B 1 2 3 4 4

Matchs : ccppc

Flux de sortie :
V 1 2 2 3 4
B 1 2 2 3 4

Dans ces exemples, nous pouvons voir ce que p, c ainsi que n moyenne; fondamentalement, ils se réfèrent au cadre et
champ de parité opposée :

*<p correspond au champ de la parité opposée dans la trame précédente>
*<c correspond au champ de la parité opposée dans la trame courante>
*<n correspond au champ de la parité opposée dans la trame suivante>

tu/b

La u ainsi que b les correspondances sont un peu spéciales dans le sens où elles correspondent à l'opposé
drapeau de parité. Dans les exemples suivants, nous supposons que nous correspondons actuellement au 2e
cadre (Haut :2, bas :2). Selon le match, un « x » est placé au-dessus et au-dessous de chaque
champs correspondants.

Avec fond assorti (champ=bas):

Correspondance : cpnbu

xxxxx
Haut 1 2 2 1 2 2 1 2 2 1 2 2 1 2 2
Bas 1 2 3 1 2 3 1 2 3 1 2 3 1 2 3
xxxxx

Trames de sortie :
2 1 2 2 2
2 2 2 1 3

Avec top assorti (champ=top):

Correspondance : cpnbu

xxxxx
Haut 1 2 2 1 2 2 1 2 2 1 2 2 1 2 2
Bas 1 2 3 1 2 3 1 2 3 1 2 3 1 2 3
xxxxx

Trames de sortie :
2 2 2 1 2
2 1 3 2 2

Exemples

IVTC simple d'un premier flux téléciné de premier plan :

fieldmatch=order=tff:combmatch=none, décimer

IVTC avancé, avec repli activé Yadif pour les cadres encore peignés :

fieldmatch=order=tff:combmatch=complet, yadif=deint=entrelacé, décimer

ordre des champs
Transformez l'ordre des champs de la vidéo d'entrée.

Il accepte les paramètres suivants :

de commander
L'ordre des champs de sortie. Les valeurs valides sont tff pour le premier champ en premier ou bff pour le bas
champ en premier.

La valeur par défaut est tff.

La transformation se fait en déplaçant le contenu de l'image vers le haut ou vers le bas d'une ligne, et
remplir la ligne restante avec le contenu d'image approprié. Cette méthode est cohérente
avec la plupart des convertisseurs d'ordre de champ de diffusion.

Si la vidéo d'entrée n'est pas signalée comme étant entrelacée, ou si elle est déjà signalée comme étant
de l'ordre des champs de sortie requis, alors ce filtre ne modifie pas la vidéo entrante.

Il est très utile lors de la conversion vers ou à partir de matériel PAL DV, qui est le champ inférieur en premier.

Par exemple :

ffmpeg -i in.vob -vf "fieldorder=bff" out.dv

FIFO
Tamponnez les images d'entrée et envoyez-les lorsqu'elles sont demandées.

Il est principalement utile lorsqu'il est inséré automatiquement par le framework libavfilter.

Il ne prend pas de paramètres.

trouver_rect
Trouver un objet rectangulaire

Il accepte les options suivantes :

objet
Le chemin du fichier de l'image de l'objet doit être en gray8.

порог
Seuil de détection, la valeur par défaut est 0.5.

mipmaps
Nombre de mipmaps, la valeur par défaut est 3.

xmin, ouais, xmax, ymax
Spécifie le rectangle dans lequel rechercher.

Exemples

· Générer une palette représentative d'une vidéo donnée en utilisant ffmpeg:

ffmpeg -i fichier.ts -vf find_rect=newref.pgm,cover_rect=cover.jpg:mode=cover new.mkv

couverture_rect
Couvrir un objet rectangulaire

Il accepte les options suivantes :

couverture
Le chemin du fichier de l'image de couverture facultative doit être au format yuv420.

mode
Définir le mode de couverture.

Il accepte les valeurs suivantes :

couverture
couvrez-le par l'image fournie

tache
le couvrir en interpolant les pixels environnants

La valeur par défaut est tache.

Exemples

· Générer une palette représentative d'une vidéo donnée en utilisant ffmpeg:

ffmpeg -i fichier.ts -vf find_rect=newref.pgm,cover_rect=cover.jpg:mode=cover new.mkv

le format
Convertissez la vidéo d'entrée dans l'un des formats de pixels spécifiés. Libavfilter essaiera de
choisissez celui qui convient comme entrée pour le filtre suivant.

Il accepte les paramètres suivants :

pix_fmts
Une liste de noms de formats de pixels séparés par des « | », tels que « pix_fmts=yuv420p|monow|rgb24 ».

Exemples

· Convertir la vidéo d'entrée en yuv420p le format

format=pix_fmts=yuv420p

Convertir la vidéo d'entrée dans l'un des formats de la liste

format=pix_fmts=yuv420p|yuv444p|yuv410p

fps
Convertissez la vidéo à une fréquence d'images constante spécifiée en dupliquant ou en supprimant des images comme
nécessaire.

Il accepte les paramètres suivants :

fps La fréquence d'images de sortie souhaitée. La valeur par défaut est 25.

Round
Méthode d'arrondi.

Les valeurs possibles sont :

zéro
zéro rond vers 0

inf arrondir à 0

down
rond vers -infini

up rond vers +infini

près
arrondir au plus proche

La valeur par défaut est "proche".

Heure de début
Supposons que le premier PTS doit être la valeur donnée, en secondes. Cela permet de
remplissage/découpage au début du flux. Par défaut, aucune hypothèse n'est faite sur la
le PTS attendu de la première image, donc aucun remplissage ou rognage n'est effectué. Par exemple, ce
peut être défini sur 0 pour compléter le début avec des doublons de la première image si une vidéo
le flux commence après le flux audio ou pour rogner les images avec un PTS négatif.

Alternativement, les options peuvent être spécifiées sous forme de chaîne plate : fps[:Round].

Voir aussi paramètres filtre.

Exemples

· Une utilisation type pour régler les fps à 25 :

ips=ips=25

· Définit le fps à 24, en utilisant l'abréviation et la méthode d'arrondi pour arrondir au plus proche :

fps=fps=film:rond=proche

pack cadre
Emballez deux flux vidéo différents dans une vidéo stéréoscopique, en définissant les métadonnées appropriées sur
codecs pris en charge. Les deux vues doivent avoir la même taille, la même fréquence d'images et le même traitement
s'arrêtera à la fin de la vidéo plus courte. Veuillez noter que vous pouvez facilement ajuster la vue
propriétés avec le escaliers ainsi que fps filtres

Il accepte les paramètres suivants :

le format
Le format d'emballage souhaité. Les valeurs prises en charge sont :

sbs Les vues sont côte à côte (par défaut).

languette Les vues se superposent.

lignes
Les vues sont emballées par ligne.

colonnes
Les vues sont emballées par colonne.

séquence d'images
Les vues sont intercalées dans le temps.

Quelques exemples:

# Convertir les vues gauche et droite en une vidéo séquentielle
ffmpeg -i LEFT -i RIGHT -filter_complex framepack=frameseq SORTIE

# Convertir les vues en une vidéo côte à côte avec la même résolution de sortie que l'entrée
ffmpeg -i LEFT -i RIGHT -filter_complex [0:v]scale=w=iw/2[left],[1:v]scale=w=iw/2[right],[left][right]framepack=sbs SORTIR

framerate
Modifiez la fréquence d'images en interpolant de nouvelles images de sortie vidéo à partir des images source.

Ce filtre n'est pas conçu pour fonctionner correctement avec des supports entrelacés. Si vous souhaitez
modifier la fréquence d'images du média entrelacé, vous devez alors désentrelacer avant cela
filtre et réentrelace après ce filtre.

Une description des options acceptées suit.

fps Spécifiez les images de sortie par seconde. Cette option peut également être spécifiée comme valeur
seul. La valeur par défaut est 50.

interp_start
Spécifiez le début d'une plage où l'image de sortie sera créée en tant que linéaire
interpolation de deux trames. La plage est [0-255], la valeur par défaut est 15.

interp_end
Spécifiez la fin d'une plage où le cadre de sortie sera créé en tant que linéaire
interpolation de deux trames. La plage est [0-255], la valeur par défaut est 240.

scène
Spécifiez le niveau auquel un changement de scène est détecté comme une valeur comprise entre 0 et 100 pour
indiquer une nouvelle scène; une valeur faible reflète une faible probabilité pour la trame actuelle de
introduire une nouvelle scène, tandis qu'une valeur plus élevée signifie que l'image actuelle est plus susceptible de
être une. La valeur par défaut est 7.

drapeaux
Spécifiez les indicateurs influençant le processus de filtrage.

Valeur disponible pour drapeaux est:

scène_change_detect, scd
Activer la détection de changement de scène en utilisant la valeur de l'option scène. Ce drapeau est
activé par défaut.

pas de cadre
Sélectionnez une image toutes les N-ièmes images.

Ce filtre accepte l'option suivante :

étape
Sélectionnez le cadre après chaque "pas" cadres. Les valeurs autorisées sont des entiers positifs supérieurs
que 0. La valeur par défaut est 1.

plus libre
Appliquez un effet Frei0r à la vidéo d'entrée.

Pour activer la compilation de ce filtre, vous devez installer l'en-tête frei0r et
configurez FFmpeg avec "--enable-frei0r".

Il accepte les paramètres suivants :

nom_filtre
Le nom de l'effet Frei0r à charger. Si la variable d'environnement FREI0R_CHEMIN is
défini, l'effet frei0r est recherché dans chacun des répertoires spécifiés par le
liste séparée par des deux-points dans FREIOR_PATH. Sinon, les chemins frei0r standard sont
recherché, dans cet ordre : ACCUEIL/.frei0r-1/lib/, /usr/local/lib/frei0r-1/,
/usr/lib/frei0r-1/.

filtre_params
Une liste de paramètres séparés par des '|' à transmettre à l'effet Frei0r.

Un paramètre d'effet frei0r peut être un booléen (sa valeur est soit "y" soit "n"), un double, un
couleur (spécifiée comme R/G/B, Où R, Get B sont des nombres à virgule flottante compris entre 0.0 et
1.0, inclus) ou par une description de couleur spécifiée dans la section "Couleur" dans le ffmpeg-
manuel utils), une position (spécifiée comme X/Y, Où X ainsi que Y sont des nombres à virgule flottante)
et/ou une chaîne.

Le nombre et les types de paramètres dépendent de l'effet chargé. Si un paramètre d'effet est
non spécifié, la valeur par défaut est définie.

Exemples

· Appliquer l'effet distort0r en définissant les deux premiers paramètres doubles :

frei0r=nom_filtre=distort0r:filter_params=0.5|0.01

· Appliquer l'effet colordistance, en prenant une couleur comme premier paramètre :

frei0r=distance de couleur : 0.2/0.3/0.4
frei0r=distance de couleur :violet
frei0r=distance de couleur:0x112233

· Appliquer l'effet de perspective, en spécifiant les positions de l'image en haut à gauche et en haut à droite :

frei0r=perspective:0.2/0.2|0.8/0.2

Pour plus d'informations, voirhttp://frei0r.dyne.org>

fspp
Appliquez un post-traitement simple et rapide. C'est une version plus rapide de spp.

Il divise (I)DCT en passes horizontales/verticales. Contrairement au simple post-traitement
filtre, l'un d'eux est effectué une fois par bloc, pas par pixel. Cela permet beaucoup
vitesse plus élevée.

Le filtre accepte les options suivantes :

qualité
Définir la qualité. Cette option définit le nombre de niveaux pour la moyenne. Il accepte un
entier compris entre 4 et 5. La valeur par défaut est 4.

qp Forcer un paramètre de quantification constant. Il accepte un entier compris entre 0 et 63. Si non
défini, le filtre utilisera le QP du flux vidéo (si disponible).

force
Réglez la force du filtre. Il accepte un entier compris entre -15 et 32. Les valeurs inférieures signifient plus
détails mais aussi plus d'artefacts, tandis que des valeurs plus élevées rendent l'image plus lisse mais aussi
plus flou. La valeur par défaut est 0 X PSNR optimal.

use_bframe_qp
Activez l'utilisation du QP à partir des B-Frames s'il est défini sur 1. L'utilisation de cette option peut entraîner
scintillement car les B-Frames ont souvent un QP plus important. La valeur par défaut est 0 (non activé).

gq
Le filtre accepte les options suivantes :

lum_expr, lum
Définissez l'expression de luminance.

cb_expr, cb
Définissez l'expression du bleu de chrominance.

cr_expr, cr
Définissez l'expression du rouge de chrominance.

alpha_expr, a
Définissez l'expression alpha.

expr_rouge, r
Définissez l'expression rouge.

expression_verte, g
Définissez l'expression verte.

expression_bleue, b
Définissez l'expression bleue.

L'espace colorimétrique est sélectionné en fonction des options spécifiées. Si l'un des lum_expr,
cb_exprou cr_expr options est spécifiée, le filtre sélectionnera automatiquement un YCbCr
espace colorimétrique. Si l'un des expr_rouge, expression_verteou expression_bleue options est spécifié, il sera
sélectionnez un espace colorimétrique RVB.

Si l'une des expressions de chrominance n'est pas définie, elle retombe sur l'autre. Sinon
l'expression alpha est spécifiée, elle sera évaluée à une valeur opaque. Si aucune chrominance
expressions sont spécifiées, elles seront évaluées à l'expression de luminance.

Les expressions peuvent utiliser les variables et fonctions suivantes :

N Le numéro séquentiel de la trame filtrée, à partir de 0.

X
Y Les coordonnées de l'échantillon actuel.

W
H La largeur et la hauteur de l'image.

SW
SH Echelle de largeur et de hauteur en fonction du plan actuellement filtré. c'est le rapport
entre le nombre de pixels du plan de luminance correspondant et ceux du plan courant. Par exemple
pour YUV4:2:0, les valeurs sont "1,1" pour le plan de luminance et "0.5,0.5" pour les plans de chrominance.

T Temps de l'image actuelle, exprimé en secondes.

p(x, y)
Renvoie la valeur du pixel à l'emplacement (x,y) du plan courant.

lum(x, y)
Renvoie la valeur du pixel à l'emplacement (x,y) du plan de luminance.

bc(x, y)
Renvoie la valeur du pixel à l'emplacement (x,y) du plan de chrominance de différence de bleu.
Renvoie 0 s'il n'y a pas de tel plan.

cr(x, y)
Renvoie la valeur du pixel à l'emplacement (x,y) du plan de chrominance de différence rouge.
Renvoie 0 s'il n'y a pas de tel plan.

r(x, y)
g(x, y)
b(x, y)
Renvoie la valeur du pixel à l'emplacement (x,y) de la composante rouge/vert/bleu.
Renvoie 0 s'il n'y a pas de tel composant.

alpha(x, y)
Renvoie la valeur du pixel à l'emplacement (x,y) du plan alpha. Renvoie 0 s'il y a
n'est pas un tel avion.

Pour les fonctions, si x ainsi que y sont en dehors de la zone, la valeur sera automatiquement écrêtée à
le bord le plus proche.

Exemples

· Retournez l'image horizontalement :

geq=p(WX\,Y)

· Générer une onde sinusoïdale bidimensionnelle, avec un angle "PI/3" et une longueur d'onde de 100 pixels :

geq=128 + 100*sin(2*(PI/100)*(cos(PI/3)*(X-50*T) + sin(PI/3)*Y)):128:128

· Générez une lumière mobile énigmatique de fantaisie :

nullsrc=s=256x256,geq=aléatoire(1)/hypot(X-cos(N*0.07)*W/2-W/2\,Y-sin(N*0.09)*H/2-H/2)^2*1000000*sin(N*0.02):128:128

· Générer un effet de gaufrage rapide :

format=gris,geq=lum_expr='(p(X,Y)+(256-p(X-4,Y-4)))/2'

· Modifier les composants RVB en fonction de la position des pixels :

geq=r='X/W*r(X,Y)':g='(1-X/W)*g(X,Y)':b='(HY)/H*b(X,Y) )'

· Créez un dégradé radial de la même taille que l'entrée (voir aussi le vignette
filtre):

geq=lum=255*gauss((X/W-0.5)*3)*gauss((Y/H-0.5)*3)/Gauss(0) /Gauss(0),format=gris

· Créez un dégradé linéaire à utiliser comme masque pour un autre filtre, puis composez avec
revêtement. Dans cet exemple, la vidéo deviendra progressivement plus floue du haut vers le
le bas de l'axe des ordonnées tel que défini par le gradient linéaire :

ffmpeg -i input.mp4 -filter_complex "geq=lum=255*(Y/H),format=gray[grad];[0:v]boxblur=4[blur];[blur][grad]alphamerge[alpha] ;[0:v][alpha]overlay" output.mp4

Diplômé
Corrigez les artefacts de bandes qui sont parfois introduits dans des régions presque plates en
troncature à une profondeur de couleur de 8 bits. Interpolez les dégradés qui doivent aller là où les bandes
sont, et les tergiverser.

Il est conçu pour la lecture uniquement. Ne l'utilisez pas avant la compression avec perte, car
la compression a tendance à perdre le dither et à ramener les bandes.

Il accepte les paramètres suivants :

force
La quantité maximale par laquelle le filtre modifiera n'importe quel pixel. C'est aussi le
seuil pour détecter les régions presque plates. Les valeurs acceptables vont de 51 à 64 ;
la valeur par défaut est 1.2. Les valeurs hors plage seront écrêtées dans la plage valide.

radius
Le quartier auquel ajuster le dégradé. Un rayon plus large permet des dégradés plus lisses,
mais empêche également le filtre de modifier les pixels à proximité des régions détaillées.
Les valeurs acceptables sont 8-32 ; la valeur par défaut est 16. Les valeurs hors limites seront
écrêté à la plage valide.

Alternativement, les options peuvent être spécifiées sous forme de chaîne plate : force[:radius]

Exemples

· Appliquer le filtre avec une force de 3.5 et un rayon de 8 :

gradfun = 3.5: 8

· Spécifiez le rayon, en omettant la force (qui reviendra à la valeur par défaut) :

gradfun=rayon=8

hadclut
Appliquez un Hald CLUT à un flux vidéo.

La première entrée est le flux vidéo à traiter, et la seconde est le Hald CLUT. la moitié
L'entrée CLUT peut être une simple image ou un flux vidéo complet.

Le filtre accepte les options suivantes :

le plus court
Forcer l'arrêt lorsque l'entrée la plus courte se termine. La valeur par défaut est 0.

répéter en dernier
Continuez à appliquer le dernier CLUT après la fin du flux. Une valeur de 0 désactive le
filtre après que la dernière trame de la CLUT est atteinte. La valeur par défaut est 1.

"haldclut" a également les mêmes options d'interpolation que lut3d (les deux filtres partagent le même
internes).

Vous trouverez plus d'informations sur le Hald CLUT sur le site Web d'Eskil Steenberg (Hald CLUT
auteur) àhttp://www.quelsolaar.com/technology/clut.html>.

Workflow exemples

Hald CLUT flux vidéo

Générer un flux Hald CLUT d'identité modifié avec divers effets :

ffmpeg -f lavfi -i B =8 -vf "hue=H=2*PI*t:s=sin(2*PI*t)+1, curves=cross_process" -t 10 -c:v ffv1 clut.nut

Remarque : assurez-vous d'utiliser un codec sans perte.

Ensuite, utilisez-le avec "haldclut" pour l'appliquer sur un flux aléatoire :

ffmpeg -f lavfi -i mandelbrot -i clut.nut -filter_complex '[0][1] haldclut' -t 20 mandelclut.mkv

Le Hald CLUT sera appliqué aux 10 premières secondes (durée de écrou.clut), puis le
la dernière image de ce flux CLUT sera appliquée aux images restantes du
ruisseau "mandelbrot".

Hald CLUT avec aperçu

Un Hald CLUT est censé être une image au carré de "Level*Level*Level" par
Pixels "Niveau*Niveau*Niveau". Pour un Hald CLUT donné, FFmpeg sélectionnera le plus grand
carré commençant en haut à gauche de l'image. Les pixels de remplissage restants (en bas ou
à droite) sera ignoré. Cette zone peut être utilisée pour ajouter un aperçu du Hald CLUT.

En règle générale, le Hald CLUT généré suivant sera pris en charge par le filtre « haldclut » :

ffmpeg -f lavfi -i B =8 -vf "
pad=iw+320 [padded_clut] ;
smptebars=s=320x256, diviser [a][b] ;
[padded_clut][a] overlay=W-320:h, curves=color_negative [main] ;
[main][b] overlay=W-320" -frames:v 1 clut.png

Il contient l'original et un aperçu de l'effet du CLUT : les barres de couleur SMPTE sont
affichées en haut à droite et en dessous des mêmes barres de couleur traitées par les changements de couleur.

Ensuite, l'effet de ce Hald CLUT peut être visualisé avec :

ffplay input.mkv -vf "movie=clut.png, [in] haldclut"

hflip
Retournez la vidéo d'entrée horizontalement.

Par exemple, pour retourner horizontalement la vidéo d'entrée avec ffmpeg:

ffmpeg -i in.avi -vf "hflip" out.avi

histoq
Ce filtre applique une égalisation globale de l'histogramme des couleurs image par image.

Il peut être utilisé pour corriger une vidéo dont la plage d'intensités de pixels est compressée. le
le filtre redistribue les intensités des pixels pour égaliser leur distribution sur le
plage d'intensité. Il peut être considéré comme un "filtre de contraste à réglage automatique". Cette
Le filtre n'est utile que pour corriger une vidéo source dégradée ou mal capturée.

Le filtre accepte les options suivantes :

force
Déterminez le montant d'égalisation à appliquer. Au fur et à mesure que la force diminue, le
la distribution des intensités de pixels se rapproche de plus en plus de celle de la trame d'entrée.
La valeur doit être un nombre flottant dans la plage [0,1] et la valeur par défaut est 0.200.

intensité
Définir l'intensité maximale pouvant être générée et mettre à l'échelle les valeurs de sortie
de manière appropriée. La force doit être réglée comme vous le souhaitez, puis l'intensité peut être
limité si nécessaire pour éviter le lessivage. La valeur doit être un nombre flottant dans la plage
[0,1] et la valeur par défaut est 0.210.

anti bandages
Réglez le niveau d'antibanding. S'il est activé, le filtre variera aléatoirement la luminance de
pixels de sortie d'une petite quantité pour éviter les bandes de l'histogramme. Les valeurs possibles sont
"aucun", "faible" ou "fort". La valeur par défaut est "aucun".

histogramme
Calculez et dessinez un histogramme de distribution des couleurs pour la vidéo d'entrée.

L'histogramme calculé est une représentation de la distribution des composantes de couleur dans un
l'image.

Le filtre accepte les options suivantes :

mode
Définir le mode histogramme.

Il accepte les valeurs suivantes :

niveaux
Histogramme standard qui affiche la distribution des composants de couleur dans une image.
Affiche le graphique des couleurs pour chaque composant de couleur. Affiche la distribution des Y, U, V,
Composantes A ou R, V, B, selon le format d'entrée, dans l'image actuelle. Au dessous de
chaque graphique un compteur d'échelle de composante de couleur est affiché.

Couleur
Affiche les valeurs de chrominance (placement des couleurs U/V) dans un graphique à deux dimensions (qui est
appelé vecteurscope). Plus un pixel est brillant dans le vecteurscope, plus il y a de pixels de
l'image d'entrée correspond à ce pixel (c'est-à-dire que plus de pixels ont cette chrominance
valeur). La composante V est affichée sur l'axe horizontal (X), avec la plus à gauche
côté étant V = 0 et le côté le plus à droite étant V = 255. La composante U est
affiché sur l'axe vertical (Y), le haut représentant U = 0 et le bas
représentant U = 255.

La position d'un pixel blanc dans le graphique correspond à la valeur de chrominance d'un
pixel du clip d'entrée. Le graphique peut donc être utilisé pour lire la teinte (couleur
saveur) et la saturation (la dominance de la teinte dans la couleur). Comme la teinte de
une couleur change, elle se déplace autour du carré. Au centre de la place le
la saturation est nulle, ce qui signifie que le pixel correspondant n'a pas de couleur. Si la
la quantité d'une couleur spécifique est augmentée (tout en laissant les autres couleurs inchangées)
la saturation augmente et l'indicateur se déplace vers le bord du carré.

couleur 2
Valeurs de chrominance dans le vecteurscope, similaires à "couleur", mais les valeurs de chrominance réelles sont
affiché.

forme d'onde
Graphique de composante de couleur par ligne/colonne. En mode ligne, le graphique sur le côté gauche
représente la valeur du composant de couleur 0 et le côté droit représente la valeur = 255. Dans
mode colonne, le côté supérieur représente la valeur du composant de couleur = 0 et le côté inférieur
représente la valeur = 255.

La valeur par défaut est "niveaux".

niveau_hauteur
Réglez la hauteur du niveau dans "levels". La valeur par défaut est 200. La plage autorisée est [50, 2048].

échelle_hauteur
Définissez la hauteur de l'échelle de couleurs dans les "niveaux". La valeur par défaut est 12. La plage autorisée est [0, 40].

étape
Définir l'étape pour le mode « forme d'onde ». Des valeurs plus petites sont utiles pour savoir combien de valeurs de
la même luminance est répartie sur les lignes/colonnes d'entrée. La valeur par défaut est 10.
La plage autorisée est [1, 255].

mode_forme d'onde
Définir le mode pour la "forme d'onde". Peut être soit "ligne", soit "colonne". La valeur par défaut est "ligne".

forme d'onde_miroir
Définissez le mode de mise en miroir pour la "forme d'onde". 0 signifie non mis en miroir, 1 signifie mis en miroir. En miroir
mode, des valeurs plus élevées seront représentées sur le côté gauche pour le mode "ligne" et en haut
pour le mode "colonne". La valeur par défaut est 0 (sans miroir).

mode d'affichage
Réglez le mode d'affichage pour la "forme d'onde" et les "niveaux". Il accepte les valeurs suivantes :

parade
Afficher un graphique séparé pour les composants de couleur côte à côte dans la forme d'onde "ligne"
mode ou l'un en dessous de l'autre en mode forme d'onde « colonne » pour l'histogramme « forme d'onde »
mode. Pour le mode histogramme « niveaux », les graphiques de composante de couleur sont placés ci-dessous
L'un et l'autre.

L'utilisation de ce mode d'affichage en mode histogramme « forme d'onde » permet de repérer facilement les couleurs
projette les hautes lumières et les ombres d'une image, en comparant les contours des
graphiques du haut et du bas de chaque forme d'onde. Puisque les blancs, les gris et les noirs sont
caractérisé par des quantités exactement égales de rouge, vert et bleu, des zones neutres de
l'image doit afficher trois formes d'onde de largeur/hauteur à peu près égales. Si non,
la correction est facile à effectuer en effectuant des réglages de niveau sur les trois formes d'onde.

revêtement
Présente des informations identiques à celles du « défilé », sauf que les graphiques
représentant des composants de couleur sont superposés directement les uns sur les autres.

Ce mode d'affichage en mode histogramme « waveform » permet de repérer plus facilement
différences ou similitudes dans les zones de chevauchement des composants de couleur qui sont
censés être identiques, comme les blancs neutres, les gris ou les noirs.

La valeur par défaut est "parade".

modes_niveaux
Définir le mode pour les "niveaux". Peut être soit "linéaire", soit "logarithmique". La valeur par défaut est "linéaire".

composants électriques
Définissez les composants de couleur à afficher pour le mode "niveaux". La valeur par défaut est 7.

Exemples

· Calculer et dessiner l'histogramme :

ffplay -i input -vf histogramme

hqdn3d
Il s'agit d'un filtre antibruit 3D de haute précision/qualité. Il vise à réduire le bruit de l'image,
produire des images fluides et rendre les images fixes vraiment immobiles. Il devrait améliorer
compressibilité.

Il accepte les paramètres facultatifs suivants :

luma_spatial
Un nombre à virgule flottante non négatif qui spécifie la force de luminance spatiale. Ce
la valeur par défaut est 4.0.

chrominance_spatiale
Un nombre à virgule flottante non négatif qui spécifie la force de chrominance spatiale. Ce
par défaut à 3.0*luma_spatial/ 4.0.

luma_tmp
Un nombre à virgule flottante qui spécifie la force temporelle de luma. Il est par défaut
6.0 *luma_spatial/ 4.0.

chroma_tmp
Un nombre à virgule flottante qui spécifie la force temporelle de la chrominance. Il est par défaut
luma_tmp*chrominance_spatiale/luma_spatial.

hqx
Appliquez un filtre de grossissement de haute qualité conçu pour le pixel art. Ce filtre était
créé à l'origine par Maxim Stepin.

Il accepte l'option suivante :

n Définissez la dimension de mise à l'échelle : 2 pour "hq2x", 3 pour "hq3x" et 4 pour "hq4x". La valeur par défaut est 3.

pile h
Empilez les vidéos d'entrée horizontalement.

Tous les flux doivent être du même format de pixels et de la même hauteur.

Notez que ce filtre est plus rapide que d'utiliser revêtement ainsi que chemin filtre pour créer la même sortie.

Le filtre accepte l'option suivante :

nb_entrées
Définir le nombre de flux d'entrée. La valeur par défaut est 2.

teinte
Modifier la teinte et/ou la saturation de l'entrée.

Il accepte les paramètres suivants :

h Spécifiez l'angle de teinte en nombre de degrés. Il accepte une expression, et par défaut
à "0".

s Spécifiez la saturation dans la plage [-10,10]. Il accepte une expression et prend par défaut la valeur
"1".

H Spécifiez l'angle de teinte en nombre de radians. Il accepte une expression, et par défaut
à "0".

b Spécifiez la luminosité dans la plage [-10,10]. Il accepte une expression et prend par défaut la valeur
"0".

h ainsi que H sont mutuellement exclusifs et ne peuvent pas être spécifiés en même temps.

La b, h, H ainsi que s les valeurs d'option sont des expressions contenant les constantes suivantes :

n nombre de trames de la trame d'entrée à partir de 0

pts horodatage de présentation de la trame d'entrée exprimé en unités de base de temps

r fréquence d'images de la vidéo d'entrée, NAN si la fréquence d'images d'entrée est inconnue

t horodatage exprimé en secondes, NAN si l'horodatage d'entrée est inconnu

tb base de temps de la vidéo d'entrée

Exemples

· Réglez la teinte à 90 degrés et la saturation à 1.0 :

teinte=h=90:s=1

· Même commande mais exprimant la teinte en radians :

teinte=H=PI/2:s=1

· Faites pivoter la teinte et faites osciller la saturation entre 0 et 2 sur une période de 1 seconde :

teinte="H=2*PI*t : s=sin(2*PI*t)+1"

· Appliquer un effet de fondu de saturation de 3 secondes à partir de 0 :

teinte="s=min(t/3\,1)"

L'expression générale de fondu d'entrée peut s'écrire :

hue="s=min(0\, max((t-START)/DURATION\, 1))"

· Appliquer un effet de fondu de saturation de 3 secondes à partir de 5 secondes :

teinte="s=max(0\, min(1\, (8-t)/3))"

L'expression générale du fondu sortant peut être écrite comme suit :

hue="s=max(0\, min(1\, (DEBUT+DUREE-t)/DUREE))"

Commandes

Ce filtre prend en charge les commandes suivantes :

b
s
h
H Modifiez la teinte et/ou la saturation et/ou la luminosité de la vidéo d'entrée. le
La commande accepte la même syntaxe que l'option correspondante.

Si l'expression spécifiée n'est pas valide, elle est conservée à sa valeur actuelle.

idée
Détecter le type d'entrelacement vidéo.

Ce filtre essaie de détecter si les images d'entrée sont entrelacées, progressives, supérieures ou inférieures
champ en premier. Il essaiera également de détecter les champs qui se répètent entre des images adjacentes
(signe de télécinéma).

La détection de trame unique ne prend en compte que les trames immédiatement adjacentes lors de la classification de chacune
Cadre. La détection de trames multiples intègre l'historique de classification des précédents
cadres.

Le filtre enregistrera ces valeurs de métadonnées :

single.current_frame
Type de trame actuelle détecté à l'aide de la détection d'une seule trame. L'un des : ``tff'' (en haut
champ en premier), ``bff'' (champ du bas en premier), ``progressif'' ou ``indéterminé''

célibataire.tff
Nombre cumulé d'images détectées comme champ supérieur en premier à l'aide de la détection d'une seule image.

multiple.tff
Nombre cumulé d'images détectées comme champ supérieur en premier à l'aide d'images multiples
détection.

célibataire.bff
Nombre cumulé d'images détectées comme champ inférieur en premier à l'aide d'une seule image
détection.

multiple.current_frame
Type de trame actuelle détecté à l'aide de la détection de trames multiples. L'un des : ``tff'' (en haut
champ en premier), ``bff'' (champ du bas en premier), ``progressif'' ou ``indéterminé''

multiple.bff
Nombre cumulé d'images détectées comme champ du bas en premier à l'aide d'images multiples
détection.

unique.progressif
Nombre cumulé d'images détectées comme progressives à l'aide de la détection d'une seule image.

multiple.progressif
Nombre cumulé d'images détectées comme progressives à l'aide de la détection d'images multiples.

célibataire.indéterminé
Nombre cumulé d'images qui n'ont pas pu être classées à l'aide de la détection d'une seule image.

multiple.indéterminé
Nombre cumulé de trames qui n'ont pas pu être classées à l'aide de trames multiples
détection.

répété.current_frame
Quel champ dans la trame actuelle est répété à partir de la dernière. L'un des "ni",
``haut'', ou ``bas''.

répété.ni
Nombre cumulé d'images sans champ répété.

répété.top
Nombre cumulé d'images avec le champ supérieur répété à partir du haut de l'image précédente
champ.

répété.bas
Nombre cumulé d'images avec le champ du bas répété à partir de l'image précédente
champ du bas.

Le filtre accepte les options suivantes :

intl_thres
Définir le seuil d'entrelacement.

prog_thres
Définir le seuil progressif.

répéter_thres
Seuil de détection de champ répété.

demi vie
Nombre de trames après lequel la contribution d'une trame donnée aux statistiques est réduite de moitié
(c'est-à-dire qu'il ne contribue que pour 0.5 à sa classification). La valeur par défaut de 0 signifie que
toutes les images vues reçoivent un poids total de 1.0 pour toujours.

analyser_entrelacé_flag
Lorsque ce n'est pas 0, idet utilisera le nombre d'images spécifié pour déterminer si
le drapeau entrelacé est précis, il ne comptera pas les trames indéterminées. Si le drapeau
s'avère exact, il sera utilisé sans autre calcul, s'il est
jugée inexacte, elle sera effacée sans aucun autre calcul. Cette
permet d'insérer le filtre idet comme méthode de calcul faible pour nettoyer le
drapeau entrelacé

il
Désentrelacer ou entrelacer les champs.

Ce filtre permet de traiter des champs d'images entrelacées sans les désentrelacer.
Le désentrelacement divise l'image d'entrée en 2 champs (appelés demi-images). Lignes impaires
sont déplacés vers la moitié supérieure de l'image de sortie, même les lignes vers la moitié inférieure. Tu peux
les traiter (filtrer) indépendamment puis les ré-entrelacer.

Le filtre accepte les options suivantes :

luma_mode, l
mode_chrome, c
alpha_mode, a
Valeurs disponibles pour luma_mode, mode_chrome ainsi que alpha_mode sont:

aucun
Ne fais rien.

désentrelacer, d
Désentrelacer les champs, en les plaçant les uns au-dessus des autres.

entrelacer, i
Entrelacer les champs. Inversez l'effet du désentrelacement.

La valeur par défaut est "aucun".

luma_swap, ls
chroma_swap, cs
alpha_swap, as
Échangez les champs luma/chroma/alpha. Échangez les lignes paires et impaires. La valeur par défaut est 0.

gonfler
Appliquez un effet de gonflage à la vidéo.

Ce filtre remplace le pixel par le locales(3x3) moyenne en ne prenant en compte que
valeurs supérieures au pixel.

Il accepte les options suivantes :

seuil0
seuil1
seuil2
seuil3
Limitez le changement maximum pour chaque avion, la valeur par défaut est 65535. Si 0, l'avion restera
inchangé.

entrelacer
Filtre d'entrelacement simple à partir de contenus progressifs. Cela s'intercale en haut (ou en bas)
lignes provenant d'images impaires avec des lignes inférieures (ou supérieures) provenant d'images paires, réduisant de moitié la fréquence d'images
et en préservant la hauteur de l'image.

Original Original Nouveau Cadre
Cadre 'j' Cadre 'j+1' (tff)
========== =========== ==================
Ligne 0 --------------------> Cadre 'j' Ligne 0
Ligne 1 Ligne 1 ----> Cadre 'j+1' Ligne 1
Ligne 2 ---------------------> Cadre 'j' Ligne 2
Ligne 3 Ligne 3 ----> Cadre 'j+1' Ligne 3
... ... ...
Le nouveau cadre + 1 sera généré par le cadre 'j+2' et le cadre 'j+3' et ainsi de suite

Il accepte les paramètres facultatifs suivants :

balayage
Ceci détermine si la trame entrelacée est prise à partir de l'événement pair (tff - par défaut) ou
lignes impaires (bff) de la trame progressive.

passe-bas
Activer (par défaut) ou désactiver le filtre passe-bas vertical pour éviter l'entrelacement de Twitter
et réduire les motifs de moiré.

kerndeint
Désentrelacez la vidéo d'entrée en appliquant le désentrelacement adaptatif du noyau de Donald Graft. Travailler sur
parties entrelacées d'une vidéo pour produire des images progressives.

La description des paramètres acceptés suit.

battre
Définissez le seuil qui affecte la tolérance du filtre lors de la détermination si un pixel
la ligne doit être traitée. Il doit s'agir d'un entier compris dans la plage [0,255] et la valeur par défaut est 10.
Une valeur de 0 entraînera l'application du traitement sur tous les pixels.

Localisation Peignez les pixels dépassant la valeur seuil en blanc s'il est défini sur 1. La valeur par défaut est 0.

de commander
Définissez l'ordre des champs. Échangez les champs si défini sur 1, laissez les champs seuls si 0. La valeur par défaut est 0.

net
Activez la netteté supplémentaire si elle est définie sur 1. La valeur par défaut est 0.

bidirectionnel
Activez la netteté bidirectionnelle si elle est définie sur 1. La valeur par défaut est 0.

Exemples

· Appliquer les valeurs par défaut :

kerndeint=thresh=10:map=0:order=0:sharp=0:twoway=0

· Activer l'affûtage supplémentaire :

kerndeint=pointu=1

· Peignez les pixels traités en blanc :

kerndeint=carte=1

correction des lentilles
Corriger la distorsion radiale de l'objectif

Ce filtre peut être utilisé pour corriger la distorsion radiale pouvant résulter de l'utilisation de
objectifs grand angle, et ainsi rectifier à nouveau l'image. Pour trouver les bons paramètres, on peut
utiliser des outils disponibles par exemple dans le cadre d'opencv ou simplement d'essais et d'erreurs. Utiliser
opencv utilise l'échantillon d'étalonnage (sous samples/cpp) des sources opencv et extrait
les coefficients k1 et k2 de la matrice résultante.

Notez qu'effectivement le même filtre est disponible dans les outils open source Krita et
Digikam du projet KDE.

Contrairement à la vignette filtre, qui peut également être utilisé pour compenser les erreurs d'objectif, ce
filtre corrige la distorsion de l'image, alors que vignette corrige la luminosité
distribution, vous pouvez donc utiliser les deux filtres ensemble dans certains cas, bien que vous
devra s'occuper de la commande, c'est-à-dire si le vignettage doit être appliqué avant ou
après correction de l'objectif.

Options

Le filtre accepte les options suivantes :

cx Coordonnée x relative du point focal de l'image, et donc du centre de la
Distorsion. Cette valeur a une plage [0,1] et est exprimée en fractions de l'image
largeur.

cy Coordonnée y relative du point focal de l'image, et donc du centre de la
Distorsion. Cette valeur a une plage [0,1] et est exprimée en fractions de l'image
la taille.

k1 Coefficient du terme de correction quadratique. 0.5 signifie aucune correction.

k2 Coefficient du terme de correction double quadratique. 0.5 signifie aucune correction.

La formule qui génère la correction est :

r_src = r_cible * (1 + k1 * (r_cible / r_0)^2 + k2 * (r_cible / r_0)^4)

De r_0 est la moitié de la diagonale de l'image et r_src ainsi que r_cible sont les distances de la
point focal dans les images source et cible, respectivement.

lut3d
Appliquez une LUT 3D à une vidéo d'entrée.

Le filtre accepte les options suivantes :

filet
Définissez le nom du fichier 3D LUT.

Formats actuellement pris en charge :

3dl Effets secondaires

cube
Iridas

dat DaVinci

m3d Pandora

interpréter
Sélectionnez le mode d'interpolation.

Les valeurs disponibles sont :

le plus proche
Utilisez les valeurs du point défini le plus proche.

trilinéaire
Interpolez les valeurs en utilisant les 8 points définissant un cube.

tétraédrique
Interpolez les valeurs à l'aide d'un tétraèdre.

lut, lutrgb, lutyuv
Calculer une table de correspondance pour lier chaque valeur d'entrée de composant de pixel à une valeur de sortie,
et l'appliquer à la vidéo d'entrée.

lutyuv applique une table de recherche à une vidéo d'entrée YUV, lutrgb à une vidéo d'entrée RVB.

Ces filtres acceptent les paramètres suivants :

c0 définir la première expression de composant de pixel

c1 définir l'expression du deuxième composant de pixel

c2 définir l'expression du troisième composant de pixel

c3 définir la quatrième expression de composante de pixel, correspond à la composante alpha

r définir l'expression du composant rouge

g définir l'expression du composant vert

b définir l'expression du composant bleu

a expression de la composante alpha

y définir l'expression du composant Y/luminance

u définir l'expression du composant U/Cb

v définir l'expression du composant V/Cr

Chacun d'eux spécifie l'expression à utiliser pour calculer la table de recherche pour le
les valeurs des composantes de pixels correspondantes.

La composante exacte associée à chacun des c* les options dépendent du format en entrée.

La LUT le filtre nécessite les formats de pixels YUV ou RVB en entrée, lutrgb nécessite RVB
formats de pixels en entrée, et lutyuv nécessite YUV.

Les expressions peuvent contenir les constantes et fonctions suivantes :

w
h La largeur et la hauteur d'entrée.

vague La valeur d'entrée pour le composant de pixel.

clipval
La valeur d'entrée, écrêtée sur le minval-maxval Luxinar.

maxval
La valeur maximale pour le composant de pixel.

minval
La valeur minimale pour le composant de pixel.

négval
La valeur négative de la valeur du composant de pixel, tronquée au minval-maxval gamme;
il correspond à l'expression "maxval-clipval+minval".

clip(valeur)
La valeur calculée en vague, accroché au minval-maxval Luxinar.

gammaval(gamma)
La valeur de correction gamma calculée de la valeur du composant de pixel, écrêtée sur le
minval-maxval intervalle. Il correspond à l'expression
"pow((clipval-minval)/(maxval-minval)\,gamma)*(maxval-minval)+minval"

Toutes les expressions par défaut sont "val".

Exemples

· Annulation de la vidéo d'entrée :

lutrgb="r=maxval+minval-val:g=maxval+minval-val:b=maxval+minval-val"
lutyuv="y=maxval+minval-val:u=maxval+minval-val:v=maxval+minval-val"

Ce qui précède est le même que :

lutrgb="r=negval:g=negval:b=negval"
lutyuv="y=negval:u=negval:v=negval"

· Luminance négative :

lutyuv=y=negval

· Supprimez les composants de chrominance, transformant la vidéo en une image en tons de gris :

lutyuv="u=128:v=128"

· Appliquer un effet de combustion luma :

lutyuv="y=2*val"

· Supprimer les composants verts et bleus :

lutrgb="g=0:b=0"

· Définir une valeur de canal alpha constante à l'entrée :

format=rgba,lutrgb=a="maxval-minval/2"

· Corriger le gamma de luminance par un facteur de 0.5 :

lutyuv=y=gammaval(0.5)

· Jeter les bits de luminance les moins significatifs :

lutyuv=y='bitand(val, 128+64+32)'

plans de fusion
Fusionnez les composants du canal de couleur à partir de plusieurs flux vidéo.

Le filtre accepte jusqu'à 4 flux d'entrée et fusionne les plans d'entrée sélectionnés avec la sortie
Vidéo.

Ce filtre accepte les options suivantes :

cartographie
Définissez le mappage de l'entrée sur le plan de sortie. La valeur par défaut est 0.

Les mappages sont spécifiés sous forme de bitmap. Il doit être spécifié sous forme de nombre hexadécimal
sous la forme 0xAa[Bb[Cc[Dd]]]. 'Aa' décrit la cartographie pour le premier plan du
flux de sortie. 'A' définit le numéro du flux d'entrée à utiliser (de 0 à 3), et 'a'
le numéro de plan de l'entrée correspondante à utiliser (de 0 à 3). Le reste de la
mappages est similaire, 'Bb' décrit le mappage pour le deuxième plan du flux de sortie,
« Cc » décrit le mappage du troisième plan du flux de sortie et « Dd » décrit le
mappage pour le quatrième plan du flux de sortie.

le format
Définir le format de pixel de sortie. La valeur par défaut est "yuva444p".

Exemples

· Fusionnez trois flux vidéo gris de même largeur et hauteur en un seul flux vidéo :

[a0][a1][a2]mergeplanes=0x001020:yuv444p

· Fusionnez le 1er flux yuv444p et le 2e flux vidéo gris dans le flux vidéo yuva444p :

[a0][a1]mergeplanes=0x00010210:yuva444p

· Échangez les avions Y et A dans le flux yuva444p :

format=yuva444p,mergeplanes=0x03010200:yuva444p

· Échangez les avions U et V dans le flux yuv420p :

format=yuv420p,mergeplanes=0x000201:yuv420p

· Diffusez un clip rgb24 sur yuv444p :

format=rgb24,mergeplanes=0x000102:yuv444p

mcdeint
Appliquez un désentrelacement à compensation de mouvement.

Il a besoin d'un champ par trame en entrée et doit donc être utilisé avec yadif=1/3 ou
équivalent.

Ce filtre accepte les options suivantes :

mode
Réglez le mode de désentrelacement.

Il accepte l'une des valeurs suivantes :

vite
moyenne
lent
utiliser l'estimation de mouvement itérative

extra_lent
comme lent, mais utilisez plusieurs cadres de référence.

La valeur par défaut est vite.

parité
Définissez la parité de champ d'image supposée pour la vidéo d'entrée. Ce doit être l'un des
valeurs suivantes:

0, tff
assumer le champ supérieur en premier

1, bff
assumer le champ du bas en premier

La valeur par défaut est bff.

qp Définissez le paramètre de quantification par bloc (QP) utilisé par l'encodeur interne.

Des valeurs plus élevées devraient donner un champ vectoriel de mouvement plus fluide mais moins optimal
vecteurs individuels. La valeur par défaut est 1.

décimer
Déposez des images qui ne diffèrent pas beaucoup de l'image précédente afin de réduire l'image
taux.

L'utilisation principale de ce filtre est pour l'encodage à très faible débit (par exemple, le streaming via une connexion commutée
modem), mais il pourrait en théorie être utilisé pour réparer des films qui ont été inversés
incorrectement.

Une description des options acceptées suit.

max Définir le nombre maximum de trames consécutives pouvant être supprimées (si positives), ou
l'intervalle minimum entre les images perdues (si négatif). Si la valeur est 0, le
trame est supprimée sans tenir compte du nombre de trames précédemment supprimées séquentiellement.

La valeur par défaut est 0.

hi
lo
manteau
Définissez les valeurs de seuil de chute.

Valeurs pour hi ainsi que lo sont pour des blocs de 8x8 pixels et représentent la valeur réelle du pixel
différences, donc un seuil de 64 correspond à 1 unité de différence pour chaque pixel,
ou le même réparti différemment sur le bloc.

Une trame est candidate à l'abandon si aucun bloc 8x8 ne diffère de plus d'un seuil
of hi, et si pas plus de manteau blocs (1 signifiant l'image entière) diffèrent de plus de
un seuil de lo.

Valeur par défaut pour hi est 64*12, valeur par défaut pour lo est 64*5, et la valeur par défaut pour
manteau est 0.33.

nier
Annulez la vidéo d'entrée.

Il accepte un entier en entrée ; s'il est différent de zéro, il annule la composante alpha (si disponible).
La valeur par défaut en entrée est 0.

aucun format
Force libavfilter à n'utiliser aucun des formats de pixels spécifiés pour l'entrée du suivant
filtre.

Il accepte les paramètres suivants :

pix_fmts
Une liste de noms de formats de pixels séparés par des « | », tels que apix_fmts=yuv420p|monow|rgb24".

Exemples

· Forcer libavfilter à utiliser un format différent de yuv420p pour l'entrée dans le vflip
filtre:

noformat=pix_fmts=yuv420p,vflip

· Convertissez la vidéo d'entrée dans l'un des formats non contenus dans la liste :

noformat=yuv420p|yuv444p|yuv410p

bruit
Ajouter du bruit sur le cadre d'entrée vidéo.

Le filtre accepte les options suivantes :

all_seed
c0_graine
c1_graine
c2_graine
c3_graine
Définir la graine de bruit pour un composant de pixel spécifique ou tous les composants de pixel en cas de
all_seed. La valeur par défaut est 123457.

all_force, tout
c0_force, c0s
c1_force, c1s
c2_force, c2s
c3_force, c3s
Définir l'intensité du bruit pour un composant de pixel spécifique ou tous les composants de pixel au cas où
all_force. La valeur par défaut est 0. La plage autorisée est [0, 100].

tous_flags, tout
c0_flags, c0f
c1_flags, c1f
c2_flags, c2f
c3_flags, c3f
Définir des indicateurs de composant de pixel ou définir des indicateurs pour tous les composants si tous_flags. Disponible
les valeurs des indicateurs de composant sont :

a bruit temporel moyenné (plus doux)

p mélanger du bruit aléatoire avec un motif (semi) régulier

t bruit temporel (le motif du bruit change entre les images)

u bruit uniforme (gaussien sinon)

Exemples

Ajoutez du bruit temporel et uniforme à la vidéo d'entrée :

bruit=alls=20:allf=t+u

nul
Passez la source vidéo inchangée à la sortie.

ocv
Appliquez une transformation vidéo à l'aide de libopencv.

Pour activer ce filtre, installez la bibliothèque libopencv et les en-têtes et configurez FFmpeg avec
"--enable-libopencv".

Il accepte les paramètres suivants :

nom_filtre
Le nom du filtre libopencv à appliquer.

filtre_params
Les paramètres à passer au filtre libopencv. Si non spécifié, les valeurs par défaut
sont supposées.

Référez-vous à la documentation officielle de libopencv pour des informations plus précises :
<http://docs.opencv.org/master/modules/imgproc/doc/filtering.html>

Plusieurs filtres libopencv sont pris en charge ; voir les sous-sections suivantes.

dilater

Dilater une image en utilisant un élément structurant spécifique. Il correspond à la libopencv
fonction "cvDilate".

Il accepte les paramètres : struct_el|nb_itérations.

struct_el représente un élément structurant, et a la syntaxe :
colsxlignes+ancre_xxancre_y/forme

cols ainsi que lignes représenter le nombre de colonnes et de lignes de l'élément structurant,
ancre_x ainsi que ancre_y le point d'ancrage, et forme la forme de l'élément structurant.
forme doit être "rect", "cross", "ellipse" ou "custom".

Si la valeur de forme est "personnalisé", il doit être suivi d'une chaîne de la forme
"=nom de fichier". Le fichier avec le nom nom de fichier est supposé représenter une image binaire, avec chaque
caractère imprimable correspondant à un pixel lumineux. Lorsqu'une coutume forme est utilisé, cols ainsi que
lignes sont ignorés, le nombre ou les colonnes et les lignes du fichier lu sont pris en compte à la place.

La valeur par défaut pour struct_el est "3x3+0x0/rect".

nb_itérations spécifie le nombre de fois que la transformation est appliquée à l'image, et
la valeur par défaut est 1.

Quelques exemples:

# Utiliser les valeurs par défaut
ocv=dilater

# Dilater à l'aide d'un élément structurant avec une croix 5x5, en itérant deux fois
ocv=filter_name=dilate:filter_params=5x5+2x2/cross|2

# Lisez la forme du fichier diamond.shape, en itérant deux fois.
# Le fichier diamond.shape peut contenir un motif de caractères comme celui-ci
#*
#***
# *****
#***
#*
# Les colonnes et les lignes spécifiées sont ignorées
# mais les coordonnées du point d'ancrage ne sont pas
ocv=dilate:0x0+2x2/custom=diamond.shape|2

éroder

Éroder une image en utilisant un élément structurant spécifique. Il correspond à la libopencv
fonction "cvErode".

Il accepte les paramètres : struct_el:nb_itérations, avec la même syntaxe et sémantique que
le dilater filtre.

lisse

Lisser la vidéo d'entrée.

Le filtre prend les paramètres suivants : type|param1|param2|param3|param4.

type est le type de filtre lisse à appliquer et doit être l'une des valeurs suivantes :
"blur", "blur_no_scale", "median", "gaussian" ou "bilatéral". La valeur par défaut est
"gaussienne".

Le sens de param1, param2, param3et param4 dépendent du type lisse. param1 ainsi que
param2 accepter les valeurs entières positives ou 0. param3 ainsi que param4 accepter la virgule flottante
valeurs.

La valeur par défaut pour param1 est 3. La valeur par défaut pour les autres paramètres est 0.

Ces paramètres correspondent aux paramètres affectés à la fonction libopencv
"cvSmooth".

revêtement
Superposez une vidéo sur une autre.

Il prend deux entrées et a une sortie. La première entrée est la vidéo "principale" sur laquelle le
la deuxième entrée est superposée.

Il accepte les paramètres suivants :

Une description des options acceptées suit.

x
y Définissez l'expression des coordonnées x et y de la vidéo superposée sur le
vidéo. La valeur par défaut est « 0 » pour les deux expressions. Si l'expression est invalide,
il est défini sur une valeur énorme (ce qui signifie que la superposition ne sera pas affichée dans le
zone visible de sortie).

eof_action
L'action à entreprendre lorsque EOF est rencontré sur l'entrée secondaire ; il accepte l'un des
les valeurs suivantes :

répéter
Répétez la dernière image (par défaut).

à la fin
Terminez les deux flux.

pass
Passez l'entrée principale à travers.

eval
Définir quand les expressions pour xet y sont évalués.

Il accepte les valeurs suivantes :

init
n'évalue les expressions qu'une seule fois lors de l'initialisation du filtre ou lorsqu'une commande
est traité

cadre
évaluer les expressions pour chaque trame entrante

La valeur par défaut est cadre.

le plus court
S'il est défini sur 1, force la sortie à se terminer lorsque l'entrée la plus courte se termine. Défaut
la valeur est 0.

le format
Définissez le format de la vidéo de sortie.

Il accepte les valeurs suivantes :

yuv420
forcer la sortie YUV420

yuv422
forcer la sortie YUV422

yuv444
forcer la sortie YUV444

rgb forcer la sortie RVB

La valeur par défaut est yuv420.

rgb (obsolète)
S'il est défini sur 1, force le filtre à accepter les entrées dans l'espace colorimétrique RVB. Valeur par défaut
est 0. Cette option est dépréciée, utilisez le format à la place.

répéter en dernier
S'il est défini sur 1, forcez le filtre à dessiner la dernière image de superposition sur l'entrée principale jusqu'à ce que
la fin du ruisseau. Une valeur de 0 désactive ce comportement. La valeur par défaut est 1.

La xet y les expressions peuvent contenir les paramètres suivants.

main_w, W
main_h, H
La largeur et la hauteur d'entrée principale.

superposition_w, w
superposition_h, h
La largeur et la hauteur d'entrée de superposition.

x
y Les valeurs calculées pour x ainsi que y. Ils sont évalués pour chaque nouvelle trame.

hsub
vssub
valeurs de sous-échantillon de chrominance horizontale et verticale du format de sortie. Par exemple pour
le format de pixels "yuv422p" hsub est 2 et vssub est 1.

n le nombre de trame d'entrée, à partir de 0

poster la position dans le fichier de la trame d'entrée, NAN si inconnue

t L'horodatage, exprimé en secondes. C'est NAN si l'horodatage d'entrée est inconnu.

Notez que le n, poster, t les variables ne sont disponibles que lorsque l'évaluation est effectuée / cadre,
et évaluera à NAN quand eval est fixé à init.

Sachez que les images sont extraites de chaque vidéo d'entrée dans l'ordre d'horodatage, par conséquent, si leur
les horodatages initiaux diffèrent, c'est une bonne idée de faire passer les deux entrées par un
setpts=PTS-STARTPTS filtre pour qu'ils commencent dans le même horodatage zéro, comme dans l'exemple
pour le film le filtre le fait.

Vous pouvez enchaîner plus de superpositions mais vous devriez tester l'efficacité d'une telle approche.

Commandes

Ce filtre prend en charge les commandes suivantes :

x
y Modifiez les x et y de l'entrée overlay. La commande accepte la même syntaxe du
option correspondante.

Si l'expression spécifiée n'est pas valide, elle est conservée à sa valeur actuelle.

Exemples

· Dessinez la superposition à 10 pixels du coin inférieur droit de la vidéo principale :

superposition=main_w-overlay_w-10:main_h-overlay_h-10

En utilisant les options nommées, l'exemple ci-dessus devient :

superposition=x=main_w-overlay_w-10:y=main_h-overlay_h-10

· Insérez un logo PNG transparent dans le coin inférieur gauche de l'entrée, en utilisant le ffmpeg
outil avec l'option "-filter_complex":

ffmpeg -i entrée -i logo -filter_complex 'overlay=10:main_h-overlay_h-10' sortie

· Insérez 2 logos PNG transparents différents (deuxième logo dans le coin inférieur droit) à l'aide
le ffmpeg outil:

ffmpeg -i entrée -i logo1 -i logo2 -filter_complex 'overlay=x=10:y=Hh-10,overlay=x=Ww-10:y=Hh-10' sortie

· Ajoutez une couche de couleur transparente au-dessus de la vidéo principale ; "LxH" doit spécifier la taille de
l'entrée principale du filtre de superposition :

[email protected]:size=LxH [sur]; [in][over] superposition [out]

· Jouez une vidéo originale et une version filtrée (ici avec le filtre deshakes) côte à côte
côté en utilisant le ffplay outil:

ffplay input.avi -vf 'split[a][b]; [a]pad=iw*2:ih[src] ; [b]deshake[filt] ; [src][filt]overlay=w'

La commande ci-dessus est la même que :

ffplay input.avi -vf 'split[b], pad=iw*2[src], [b]deshake, [src]overlay=w'

· Faire une superposition coulissante apparaissant de gauche à droite en haut de l'écran
depuis le temps 2 :

superposition=x='if(gte(t,2), -w+(t-2)*20, NAN)':y=0

· Composez la sortie en mettant côte à côte deux vidéos d'entrée :

ffmpeg -i left.avi -i right.avi -filter_complex "
nullsrc=taille=200x100 [arrière-plan] ;
[0:v] setpts=PTS-STARTPTS, échelle=100x100 [gauche] ;
[1:v] setpts=PTS-STARTPTS, échelle=100x100 [droite] ;
[arrière-plan][gauche] overlay=shortest=1 [arrière-plan+gauche] ;
[arrière-plan+gauche][droite] overlay=shortest=1:x=100 [gauche+droite]
"

· Masquez 10 à 20 secondes d'une vidéo en appliquant le filtre delogo à une section

ffmpeg -i test.avi -codec:v:0 wmv2 -ar 11025 -b:v 9000k
-vf '[in]split[split_main][split_delogo];[split_delogo]trim=start=360:end=371,delogo=0:0:640:480[delogoed];[split_main][delogoed]overlay=eof_action=pass[out]'
masqué.avi

· Enchaîner plusieurs overlays en cascade :

nullsrc=s=200x200 [bg] ;
testsrc=s=100x100, split=4 [in0][in1][in2][in3];
[in0] lutrgb=r=0, [bg] overlay=0:0 [mid0] ;
[in1] lutrgb=g=0, [mid0] overlay=100:0 [mid1] ;
[in2] lutrgb=b=0, [mid1] overlay=0:100 [mid2] ;
[in3] null, [mid2] superposition=100:100 [out0]

bruit odieux
Appliquez le débruiteur Overcomplete Wavelet.

Le filtre accepte les options suivantes :

profondeur
Réglez la profondeur.

Des valeurs de profondeur plus élevées débruitent davantage les composants à basse fréquence, mais ralentissent
filtration.

Doit être un entier compris entre 8 et 16, la valeur par défaut est 8.

luma_force, ls
Réglez la force de luminance.

Doit être une valeur double dans la plage 0-1000, la valeur par défaut est 1.0.

chroma_force, cs
Réglez la force de chrominance.

Doit être une valeur double dans la plage 0-1000, la valeur par défaut est 1.0.

chemin
Ajoutez des rembourrages à l'image d'entrée et placez l'entrée d'origine à l'emplacement prévu x, y
coordonnées.

Il accepte les paramètres suivants :

largeur, w
la taille, h
Spécifiez une expression pour la taille de l'image de sortie avec les remplissages ajoutés. Si la
la valeur pour largeur or la taille est 0, la taille d'entrée correspondante est utilisée pour la sortie.

La largeur expression peut faire référence à la valeur définie par le la taille expression et vice
versa.

La valeur par défaut de largeur ainsi que la taille est 0.

x
y Spécifiez les décalages pour placer l'image d'entrée dans la zone rembourrée, en respectant
au bord supérieur/gauche de l'image de sortie.

La x expression peut faire référence à la valeur définie par le y expression, et vice-versa.

La valeur par défaut de x ainsi que y est 0.

Couleur
Spécifiez la couleur de la zone rembourrée. Pour la syntaxe de cette option, cochez la case "Couleur"
dans le manuel ffmpeg-utils.

La valeur par défaut de Couleur est noir".

La valeur pour le largeur, la taille, xet y les options sont des expressions contenant les éléments suivants
constantes :

en W
in_h
La largeur et la hauteur de la vidéo d'entrée.

iw
ih Ce sont les mêmes que en W ainsi que in_h.

out_w
out_h
La largeur et la hauteur de sortie (la taille de la zone rembourrée), comme spécifié par le largeur
ainsi que la taille expressions.

ow
oh Ce sont les mêmes que out_w ainsi que out_h.

x
y Les décalages x et y tels que spécifiés par le x ainsi que y expressions, ou NAN si pas encore
spécifié.

a même que iw / ih

sar rapport d'aspect de l'échantillon d'entrée

donner rapport d'aspect d'affichage d'entrée, c'est le même que (iw / ih) * sar

hsub
vssub
Les valeurs de sous-échantillon de chrominance horizontale et verticale. Par exemple pour le format pixel
"yuv422p" hsub est 2 et vssub est 1.

Exemples

· Ajoutez des rembourrages avec la couleur "violet" à la vidéo d'entrée. La taille de la vidéo de sortie est
640x480, et le coin supérieur gauche de la vidéo d'entrée est placé à la colonne 0, rangée 40

pad=640:480:0:40:violet

L'exemple ci-dessus est équivalent à la commande suivante :

pad=largeur=640:hauteur=480:x=0:y=40:couleur=violet

· Complétez l'entrée pour obtenir une sortie avec des dimensions augmentées de 3/2, et mettez l'entrée
vidéo au centre de la zone capitonnée :

pad="3/2*iw:3/2*ih:(ow-iw)/2:(oh-ih)/2"

· Complétez l'entrée pour obtenir une sortie au carré avec une taille égale à la valeur maximale entre les
largeur et hauteur d'entrée, et placez la vidéo d'entrée au centre de la zone rembourrée :

pad="max(iw\,ih):ow:(ow-iw)/2:(oh-ih)/2"

· Complétez l'entrée pour obtenir un rapport w/h final de 16:9 :

pad="ih*16/9:ih:(ow-iw)/2:(oh-ih)/2"

· Dans le cas d'une vidéo anamorphique, afin de régler correctement l'aspect de l'affichage de sortie, il
est nécessaire d'utiliser sar dans l'expression, selon la relation :

(ih * X / ih) * sar = sortie_dar
X = sortie_dar / sar

Ainsi, l'exemple précédent doit être modifié pour :

pad="ih*16/9/sar:ih:(ow-iw)/2:(oh-ih)/2"

· Doublez la taille de sortie et placez la vidéo d'entrée dans le coin inférieur droit de la
zone rembourrée de sortie :

pad="2*iw:2*ih:ow-iw:oh-ih"

palettegen
Générez une palette pour un flux vidéo entier.

Il accepte les options suivantes :

max_couleurs
Définissez le nombre maximum de couleurs à quantifier dans la palette. Remarque : la palette
contiennent encore 256 couleurs; les entrées de palette inutilisées seront noires.

réserve_transparent
Créez une palette de 255 couleurs maximum et réservez la dernière pour la transparence.
La réservation de la couleur de transparence est utile pour l'optimisation GIF. S'il n'est pas défini, le
le maximum de couleurs dans la palette sera de 256. Vous voudrez probablement désactiver cette option
pour une image autonome. Défini par défaut.

stats_mode
Définir le mode statistiques.

Il accepte les valeurs suivantes :

plein
Calculez des histogrammes plein cadre.

diff
Calculez les histogrammes uniquement pour la partie qui diffère de l'image précédente. Cela pourrait
être pertinent pour donner plus d'importance à la partie mobile de votre entrée si le
l'arrière-plan est statique.

La valeur par défaut est plein.

Le filtre exporte également les métadonnées du cadre "lavfi.color_quant_ratio" ("nb_color_in /
nb_color_out") que vous pouvez utiliser pour évaluer le degré de quantification des couleurs du
palette. Ces informations sont également visibles sur info niveau de journalisation.

Exemples

· Générer une palette représentative d'une vidéo donnée en utilisant ffmpeg:

ffmpeg -i input.mkv -vf palettegen palette.png

paletteuse
Utilisez une palette pour sous-échantillonner un flux vidéo d'entrée.

Le filtre prend deux entrées : un flux vidéo et une palette. La palette doit être un 256
image en pixels.

Il accepte les options suivantes :

tergiversent
Sélectionnez le mode de tramage. Les algorithmes disponibles sont :

Bavière
Tramage bayer 8x8 commandé (déterministe)

Heckbert
Le tramage tel que défini par Paul Heckbert en 1982 (diffusion d'erreur simple). Noter:
ce tramage est parfois considéré comme « faux » et est inclus comme référence.

floyd_steinberg
Tramage Floyd et Steinberg (diffusion d'erreurs)

sierra2
Frankie Sierra tramage v2 (diffusion d'erreurs)

sierra2_4a
Frankie Sierra tramage v2 "Lite" (erreur de diffusion)

La valeur par défaut est sierra2_4a.

bayer_scale
Quand Bavière tramage est sélectionné, cette option définit l'échelle du motif (comment
beaucoup le motif hachuré est visible). Une valeur faible signifie un motif plus visible pour
moins de bandes et une valeur plus élevée signifie un motif moins visible au prix de plus de bandes.

L'option doit être une valeur entière dans la plage [0,5]. La valeur par défaut est 2.

mode_diff
Si défini, définissez la zone à traiter

rectangle
Seul le rectangle changeant sera retraité. Ceci est similaire au GIF
mécanisme de compression de recadrage/décalage. Cette option peut être utile pour la vitesse si
seule une partie de l'image change et a des cas d'utilisation tels que la limitation de la portée
de la diffusion d'erreur tergiversent au rectangle qui délimite la scène en mouvement (il
conduit à une sortie plus déterministe si la scène ne change pas beaucoup, et en tant que
résultat moins de bruit de mouvement et une meilleure compression GIF).

La valeur par défaut est aucun.

Exemples

· Utiliser une palette (générée par exemple avec palettegen) pour encoder un GIF en utilisant ffmpeg:

ffmpeg -i input.mkv -i palette.png -lavfi paletteuse output.gif

objectifs
Perspective correcte de la vidéo non enregistrée perpendiculairement à l'écran.

Une description des paramètres acceptés suit.

x0
y0
x1
y1
x2
y2
x3
y3 Définir l'expression des coordonnées en haut à gauche, en haut à droite, en bas à gauche et en bas à droite
coins. Les valeurs par défaut sont "0:0:W:0:0:H:W:H" avec lesquelles la perspective restera
inchangé. Si l'option "sens" est définie sur "source", alors les points spécifiés seront
être envoyé aux coins de la destination. Si l'option "sens" est définie sur
"destination", alors les coins de la source seront envoyés au
coordonnées.

Les expressions peuvent utiliser les variables suivantes :

W
H la largeur et la hauteur de l'image vidéo.

interpolation
Définir l'interpolation pour la correction de la perspective.

Il accepte les valeurs suivantes :

linéaire
cubique

La valeur par défaut est linéaire.

sens
Définir l'interprétation des options de coordonnées.

Il accepte les valeurs suivantes :

0, la source
Point d'envoi dans la source spécifié par les coordonnées données aux coins de la
destination.

1, destination
Envoyez les coins de la source au point de la destination spécifié par le
coordonnées données.

La valeur par défaut est la source.

phase
Retardez la vidéo entrelacée d'un temps de trame afin que l'ordre des trames change.

L'utilisation prévue est de corriger les films PAL qui ont été capturés avec le champ opposé
pour le transfert film-à-vidéo.

Une description des paramètres acceptés suit.

mode
Réglez le mode de phase.

Il accepte les valeurs suivantes :

t Capturez l'ordre des champs en premier, transférez en bas d'abord. Le filtre retardera le
champ du bas.

b Capturez l'ordre des champs en bas d'abord, transférez en haut d'abord. Le filtre retardera le sommet
champ.

p Capturez et transférez avec le même ordre de champ. Ce mode n'existe que pour le
documentation des autres options auxquelles se référer, mais si vous la sélectionnez réellement, le
le filtre ne fera fidèlement rien.

a Capturez l'ordre des champs déterminé automatiquement par les indicateurs de champ, transférez ci-contre.
Le filtre sélectionne parmi t ainsi que b modes trame par trame en utilisant des indicateurs de champ. Si
aucune information de champ n'est disponible, alors cela fonctionne comme u.

u Capture inconnue ou variable, transfert ci-contre. Le filtre sélectionne parmi t ainsi que b sur un
image par image en analysant les images et en sélectionnant l'alternative qui
produit la meilleure correspondance entre les champs.

T Capturez en premier, transfert inconnu ou variable. Le filtre sélectionne parmi t ainsi que p
en utilisant l'analyse d'images.

B Capturez par le bas en premier, transfert inconnu ou variable. Le filtre sélectionne parmi b ainsi que p
en utilisant l'analyse d'images.

A Capture déterminée par des indicateurs de terrain, transfert inconnu ou variable. Filtrer les sélections
parmi t, b ainsi que p en utilisant des indicateurs de terrain et l'analyse d'images. Si aucune information de champ n'est
disponible, alors cela fonctionne comme U. C'est le mode par défaut.

U Capture et transfert inconnus ou variables. Le filtre sélectionne parmi t, b ainsi que p
en utilisant uniquement l'analyse d'images.

pixdesctest
Filtre de test de descripteur de format de pixel, principalement utile pour les tests internes. La vidéo de sortie
doit être égal à la vidéo d'entrée.

Par exemple :

format=monow, pixdesctest

peut être utilisé pour tester la définition du descripteur de format de pixel monoblanc.

pp
Activez la chaîne spécifiée de sous-filtres de post-traitement à l'aide de libpostproc. Cette bibliothèque
devrait être automatiquement sélectionné avec une version GPL ("--enable-gpl"). Les sous-filtres doivent être
séparés par '/' et peuvent être désactivés en ajoutant un '-'. Chaque sous-filtre et quelques options
ont un nom court et un nom long qui peuvent être utilisés de manière interchangeable, c'est-à-dire dr/dering sont les
même.

Les filtres acceptent les options suivantes :

sous-filtres
Définir la chaîne de sous-filtres de post-traitement.

Tous les sous-filtres partagent des options communes pour déterminer leur portée :

a/autoq
Respectez les commandes de qualité pour ce sous-filtre.

c/chromé
Faites également un filtrage de chrominance (par défaut).

y/nochrome
Ne filtrez que la luminance (pas de chrominance).

n/noluma
Ne filtrez que la chrominance (pas de luminance).

Ces options peuvent être ajoutées après le nom du sous-filtre, séparées par un '|'.

Les sous-filtres disponibles sont :

hb/hdeblock[|différence[|planéité]]
Filtre de déblocage horizontal

différence
Facteur de différence où des valeurs plus élevées signifient plus de déblocage (par défaut : 32).

platitude
Seuil de planéité où des valeurs inférieures signifient plus de déblocage (par défaut : 39).

vb/vdeblock[|différence[|planéité]]
Filtre de déblocage vertical

différence
Facteur de différence où des valeurs plus élevées signifient plus de déblocage (par défaut : 32).

platitude
Seuil de planéité où des valeurs inférieures signifient plus de déblocage (par défaut : 39).

ha/hadeblock[|différence[|planéité]]
Filtre de déblocage horizontal précis

différence
Facteur de différence où des valeurs plus élevées signifient plus de déblocage (par défaut : 32).

platitude
Seuil de planéité où des valeurs inférieures signifient plus de déblocage (par défaut : 39).

va/vadeblock[|différence[|planéité]]
Filtre de déblocage vertical précis

différence
Facteur de différence où des valeurs plus élevées signifient plus de déblocage (par défaut : 32).

platitude
Seuil de planéité où des valeurs inférieures signifient plus de déblocage (par défaut : 39).

Les filtres de déblocage horizontal et vertical partagent les valeurs de différence et de planéité afin que
vous ne pouvez pas définir des seuils horizontaux et verticaux différents.

h1/x1hdebloc
Filtre de déblocage horizontal expérimental

v1/x1vdeblock
Filtre de déblocage vertical expérimental

docteur/dering
Filtre de deringing

tn/tmpnoise[|seuil1[|seuil2[|seuil3]]], temporel bruit réducteur
seuil1
plus grand -> filtrage plus fort

seuil2
plus grand -> filtrage plus fort

seuil3
plus grand -> filtrage plus fort

al/autolevels[:f/Fullrange], automatique luminosité / contraste de la plateforme prothétique
f/plage complète
Étirez la luminance à "0-255".

lb/linblenddeint
Filtre de désentrelacement de mélange linéaire qui désentrelace le bloc donné en filtrant tout
lignes avec un filtre "(1 2 1)".

li/linipoldeint
Filtre de désentrelacement à interpolation linéaire qui désentrelace le bloc donné en
interpolant linéairement toutes les deux lignes.

ci/cubicipoldeint
Le filtre de désentrelacement à interpolation cubique désentrelace le bloc donné en cubique
interpolant toutes les deux lignes.

md/mediadeint
Filtre de désentrelacement médian qui désentrelace le bloc donné en appliquant une médiane
filtre toutes les deux lignes.

fd/ffmpegdeint
Filtre de désentrelacement FFmpeg qui désentrelace le bloc donné en filtrant chaque
deuxième ligne avec un filtre "(-1 4 2 4 -1)".

l5/passe-bas5
Filtre de désentrelacement FIR passe-bas appliqué verticalement qui désentrelace le bloc donné
en filtrant toutes les lignes avec un filtre "(-1 2 6 2 -1)".

fq/forceQuant[|quantificateur]
Remplace la table de quantification de l'entrée par le quantificateur constant que vous spécifiez.

quantificateur
Quantificateur à utiliser

de/défaut
Combinaison de filtres pp par défaut ("hb|a,vb|a,dr|a")

fa/rapide
Combinaison de filtres pp rapide ("h1|a,v1|a,dr|a")

ac Combinaison de filtres pp de haute qualité ("ha|a|128|7,va|a,dr|a")

Exemples

· Appliquer un déblocage horizontal et vertical, un déringage et une luminosité/contraste automatique :

pp=hb/vb/dr/al

· Appliquer des filtres par défaut sans correction de luminosité/contraste :

pp=de/-al

· Appliquer les filtres par défaut et le débruiteur temporel :

pp=par défaut/tmpnoise|1|2|3

· Appliquez le déblocage sur la luminance uniquement et activez ou désactivez le déblocage vertical
automatiquement en fonction du temps CPU disponible :

pp=hb|y/vb|a

pp7
Appliquer le filtre de post-traitement 7. C'est une variante du spp filtre, similaire à spp = 6 avec 7
point DCT, où seul l'échantillon central est utilisé après IDCT.

Le filtre accepte les options suivantes :

qp Forcer un paramètre de quantification constant. Il accepte un entier compris entre 0 et 63. Si
pas défini, le filtre utilisera le QP du flux vidéo (si disponible).

mode
Définir le mode de seuillage. Les modes disponibles sont :

dur
Définir un seuillage strict.

qualité, que vous pourrez utilisé
Définissez un seuillage doux (meilleur effet de désactivation, mais probablement plus flou).

moyenne
Définir un seuillage moyen (bons résultats, par défaut).

psnr
Obtenir le PSNR (Peak Signal to Noise Ratio) moyen, maximum et minimum entre deux
vidéos d'entrée.

Ce filtre prend en entrée deux vidéos d'entrée, la première entrée est considérée comme la "principale"
source et est transmis sans modification à la sortie. La deuxième entrée est utilisée comme "référence"
vidéo pour le calcul du PSNR.

Les deux entrées vidéo doivent avoir la même résolution et le même format de pixel pour que ce filtre fonctionne
correctement. Il suppose également que les deux entrées ont le même nombre de trames, qui sont
comparés un par un.

Le PSNR moyen obtenu est imprimé via le système de journalisation.

Le filtre stocke le MSE accumulé (erreur quadratique moyenne) de chaque trame, et à la fin
du traitement, il est moyenné sur toutes les images de manière égale, et la formule suivante est
demandé pour obtenir le PSNR :

PSNR = 10*log10(MAX^2/MSE)

Où MAX est la moyenne des valeurs maximales de chaque composante de l'image.

La description des paramètres acceptés suit.

fichier_stats, f
Si spécifié, le filtre utilisera le fichier nommé pour enregistrer le PSNR de chaque individu
cadre.

Le fichier imprimé si fichier_statistiques est sélectionné, contient une séquence de paires clé/valeur du
formulaire key:Plus-value pour chaque couple d'images comparé.

Une description de chaque paramètre affiché suit :

n numéro séquentiel de la trame d'entrée, à partir de 1

mse_moy
Erreur quadratique moyenne différence moyenne pixel par pixel des images comparées, moyennée
sur tous les composants de l'image.

mse_y, mse_u, mse_v, mse_r, mse_g, mse_g, mse_a
Erreur quadratique moyenne différence moyenne pixel par pixel des images comparées pour le
composant spécifié par le suffixe.

psnr_y, psnr_u, psnr_v, psnr_r, psnr_g, psnr_b, psnr_a
Rapport signal/bruit de crête des trames comparées pour le composant spécifié par le
suffixe.

Par exemple :

movie=ref_movie.mpg, setpts=PTS-STARTPTS [principal] ;
[principal][ref] psnr="stats_file=stats.log" [sortie]

Sur cet exemple le fichier d'entrée en cours de traitement est comparé au fichier de référence
ref_film.mpg. Le PSNR de chaque trame individuelle est stocké dans statistiques.log.

remonter
Filtre d'inversion pulldown (télécinéma inverse), capable de gérer le télécinéma dur mixte,
Contenu progressif 24000/1001 ips et progressif 30000/1001 ips.

Le filtre pullup est conçu pour tirer parti du contexte futur dans la prise de ses décisions.
Ce filtre est sans état dans le sens où il ne se verrouille pas sur un modèle à suivre, mais
il attend plutôt avec impatience les champs suivants afin d'identifier les correspondances et de reconstruire
cadres progressifs.

Pour produire du contenu avec une fréquence d'images uniforme, insérez le filtre fps après pullup, utilisez
"fps=24000/1001" si la fréquence d'images d'entrée est de 29.97fps, "fps=24" pour 30fps et le (rare)
entrée télécinée 25fps.

Le filtre accepte les options suivantes :

jl
jr
jt
jb Ces options définissent la quantité de « poubelles » à ignorer à gauche, à droite, en haut et en bas
de l'image, respectivement. Gauche et droite sont en unités de 8 pixels, tandis que haut et
bas sont en unités de 2 lignes. La valeur par défaut est de 8 pixels de chaque côté.

sb Définissez les pauses strictes. Définir cette option sur 1 réduira les chances de filtre
générer une trame non concordante occasionnelle, mais cela peut également entraîner un nombre excessif
d'images à supprimer pendant les séquences à mouvement élevé. Inversement, le mettre à -1
rendra les champs de correspondance de filtre plus faciles. Cela peut aider au traitement de la vidéo où
il y a un léger flou entre les champs, mais peut aussi provoquer un entrelacement
trames dans la sortie. La valeur par défaut est 0.

mp Définissez le plan métrique à utiliser. Il accepte les valeurs suivantes :

l Utilisez le plan luma.

u Utilisez le plan bleu chroma.

v Utilisez le plan rouge chroma.

Cette option peut être définie pour utiliser le plan de chrominance au lieu du plan de luminance par défaut pour faire
calculs du filtre. Cela peut améliorer la précision sur du matériel source très propre, mais
plus probablement diminuera la précision, surtout s'il y a du bruit de chrominance (arc-en-ciel
effet) ou n'importe quelle vidéo en niveaux de gris. Le but principal de la mise mp à un plan de chrominance est
pour réduire la charge CPU et rendre le pullup utilisable en temps réel sur les machines lentes.

Pour de meilleurs résultats (sans cadres dupliqués dans le fichier de sortie), il est nécessaire de changer
la fréquence d'images de sortie. Par exemple, pour inverser l'entrée NTSC télécinéma :

ffmpeg -i entrée -vf pullup -r 24000/1001 ...

qp
Modifiez les paramètres de quantification vidéo (QP).

Le filtre accepte l'option suivante :

qp Définir l'expression pour le paramètre de quantification.

L'expression est évaluée via l'API eval et peut contenir, entre autres, le
constantes suivantes :

connu
1 si l'indice n'est pas 129, 0 sinon.

qp Indice séquentiel commençant de -129 à 128.

Exemples

· Quelques équations comme :

qp=2+2*péché(PI*qp)

aléatoire
Videz les images vidéo du cache interne des images dans un ordre aléatoire. Aucun cadre n'est
mis au rebut. Inspiré par plus libre filtre nerveux.

cadres
Définir la taille en nombre de trames du cache interne, dans une plage de 2 à 512. La valeur par défaut est 30.

seed
Définir la graine pour le générateur de nombres aléatoires, doit être un entier compris entre 0 et
"UINT32_MAX". S'il n'est pas spécifié, ou s'il est explicitement défini sur moins de 0, le filtre
essayez d'utiliser une bonne graine aléatoire sur la base du meilleur effort.

enlever le grain
Le filtre removegrain est un débruiteur spatial pour la vidéo progressive.

m0 Définir le mode pour le premier avion.

m1 Définir le mode pour le deuxième plan.

m2 Définir le mode pour le troisième plan.

m3 Réglez le mode pour le quatrième plan.

La plage de modes va de 0 à 24. La description de chaque mode est la suivante :

0 Laissez le plan d'entrée inchangé. Défaut.

1 Coupe le pixel avec le minimum et le maximum des 8 pixels voisins.

2 Coupe le pixel avec les deuxièmes minimum et maximum des 8 pixels voisins.

3 Coupe le pixel avec le troisième minimum et maximum des 8 pixels voisins.

4 Coupe le pixel avec le quatrième minimum et maximum des 8 pixels voisins. Cette
équivaut à un filtre médian.

5 Coupure sensible à la ligne donnant le changement minimal.

6 Coupure sensible à la ligne, intermédiaire.

7 Coupure sensible à la ligne, intermédiaire.

8 Coupure sensible à la ligne, intermédiaire.

9 Découpage sensible à la ligne sur une ligne où les pixels voisins sont les plus proches.

10 Remplace le pixel cible par le plus proche voisin.

11 [1 2 1] flou de noyau horizontal et vertical.

12 Identique au mode 11.

13 Mode Bob, interpole le champ supérieur à partir de la ligne où les pixels voisins sont les
le plus proche.

14 Mode Bob, interpole le champ inférieur à partir de la ligne où les pixels voisins sont les
le plus proche.

15 Mode Bob, interpole le champ supérieur. Identique à 13 mais avec une interpolation plus compliquée
formule.

16 Mode Bob, interpole le champ inférieur. Identique au 14 mais avec un plus compliqué
formule d'interpolation.

17 Coupe le pixel avec le minimum et le maximum respectivement le maximum et le minimum
de chaque paire de pixels voisins opposés.

18 Coupure sensible aux lignes utilisant des voisins opposés dont la plus grande distance de la
le pixel actuel est minime.

19 Remplace le pixel par la moyenne de ses 8 voisins.

20 Fait la moyenne des 9 pixels ([1 1 1] flou horizontal et vertical).

21 Coupe les pixels en utilisant les moyennes du voisin opposé.

22 Identique au mode 21 mais plus simple et plus rapide.

23 Petit retrait de bord et de halo, mais réputé inutile.

24 Similaire au 23.

supprimer le logo
Supprimez le logo d'une chaîne de télévision à l'aide d'un fichier image pour déterminer quels pixels constituent le
logo. Il fonctionne en remplissant les pixels qui composent le logo avec les pixels voisins.

Le filtre accepte les options suivantes :

nom de fichier, f
Définissez le fichier bitmap de filtre, qui peut être n'importe quel format d'image pris en charge par libavformat.
La largeur et la hauteur du fichier image doivent correspondre à celles du flux vidéo en cours
traité.

Les pixels de l'image bitmap fournie avec une valeur de zéro ne sont pas considérés comme faisant partie du
logo, les pixels non nuls sont considérés comme faisant partie du logo. Si vous utilisez du blanc (255) pour le logo
et noir (0) pour le reste, vous serez en sécurité. Pour faire le filtre bitmap, il est
recommandé de prendre une capture d'écran d'un cadre noir avec le logo visible, puis
en utilisant un filtre à seuil suivi du filtre d'érosion une ou deux fois.

Si nécessaire, de petites taches peuvent être corrigées manuellement. N'oubliez pas que si les pixels du logo ne sont pas
couvert, la qualité du filtre sera très réduite. Marquer trop de pixels dans le
le logo ne fait pas autant mal, mais il augmentera la quantité de flou nécessaire pour couvrir
sur l'image et détruira plus d'informations que nécessaire, et des pixels supplémentaires
ralentir les choses sur un grand logo.

champs de répétition
Ce filtre utilise le drapeau repeat_field des en-têtes Video ES et des champs de répétitions dures
en fonction de sa valeur.

sens inverse, sont inversés
Inverser un clip.

Avertissement : Ce filtre nécessite de la mémoire pour mettre en mémoire tampon l'intégralité du clip, c'est pourquoi un rognage est suggéré.

Exemples

· Prenez les 5 premières secondes d'un clip et inversez-le.

trim=fin=5,inverse

tourner
Faites pivoter la vidéo d'un angle arbitraire exprimé en radians.

Le filtre accepte les options suivantes :

Une description des paramètres facultatifs suit.

angle, a
Définissez une expression pour l'angle de rotation de la vidéo d'entrée dans le sens des aiguilles d'une montre,
exprimé en nombre de radians. Une valeur négative entraînera un
rotation. Par défaut, il est défini sur "0".

Cette expression est évaluée pour chaque trame.

dehors_w, ow
Définissez l'expression de largeur de sortie, la valeur par défaut est "iw". Cette expression est évaluée
une seule fois lors de la configuration.

out_h, oh
Définissez l'expression de hauteur de sortie, la valeur par défaut est "ih". Cette expression est évaluée
une seule fois lors de la configuration.

bilinéaire
Activez l'interpolation bilinéaire si elle est définie sur 1, une valeur de 0 la désactive. La valeur par défaut est
1.

la couleur de remplissage, c
Définissez la couleur utilisée pour remplir la zone de sortie non couverte par l'image pivotée. Pour le
syntaxe générale de cette option, vérifiez la section "Couleur" dans le manuel ffmpeg-utils.
Si la valeur spéciale "aucun" est sélectionnée, aucun arrière-plan n'est imprimé (utile pour
exemple si l'arrière-plan n'est jamais affiché).

La valeur par défaut est "noir".

Les expressions pour l'angle et la taille de sortie peuvent contenir les constantes suivantes et
les fonctions:

n numéro séquentiel de la trame d'entrée, à partir de 0. C'est toujours NAN avant le
la première image est filtrée.

t temps en secondes de la trame d'entrée, il est mis à 0 lorsque le filtre est configuré. Ce
est toujours NAN avant que la première trame ne soit filtrée.

hsub
vssub
valeurs de sous-échantillon de chrominance horizontale et verticale. Par exemple pour le format pixel
"yuv422p" hsub est 2 et vssub est 1.

en W, iw
in_h, ih
la largeur et la hauteur de la vidéo d'entrée

dehors_w, ow
out_h, oh
la largeur et la hauteur de sortie, c'est-à-dire la taille de la zone rembourrée telle que spécifiée par le
largeur ainsi que la taille expressions

rotw(a)
roth(a)
la largeur/hauteur minimale requise pour contenir complètement la vidéo d'entrée tournée de
a radians.

Ceux-ci ne sont disponibles que lors du calcul du out_w ainsi que out_h expressions.

Exemples

· Tournez l'entrée de PI/6 radians dans le sens des aiguilles d'une montre :

rotation=PI/6

· Tournez l'entrée de PI/6 radians dans le sens inverse des aiguilles d'une montre :

rotation=-PI/6

· Faites pivoter l'entrée de 45 degrés dans le sens des aiguilles d'une montre :

rotation=45*PI/180

· Appliquer une rotation constante de période T, en partant d'un angle PI/3 :

rotation=PI/3+2*PI*t/T

· Faire osciller la rotation vidéo d'entrée avec une période de T secondes et une amplitude
de A radians :

rotation=A*sin(2*PI/T*t)

· Faites pivoter la vidéo, la taille de sortie est choisie de sorte que toute la vidéo d'entrée rotative soit
toujours complètement contenu dans la sortie :

rotate='2*PI*t:ow=hypot(iw,ih):oh=ow'

· Faites pivoter la vidéo, réduisez la taille de sortie afin qu'aucun arrière-plan ne soit jamais affiché :

rotation=2*PI*t:ow='min(iw,ih)/sqrt(2)':oh=ow:c=aucun

Commandes

Le filtre prend en charge les commandes suivantes :

a, angle
Définissez l'expression de l'angle. La commande accepte la même syntaxe du correspondant
option.

Si l'expression spécifiée n'est pas valide, elle est conservée à sa valeur actuelle.

sab
Appliquez le flou adaptatif de forme.

Le filtre accepte les options suivantes :

luma_radius, lr
Définir la force du filtre de flou luma, doit être une valeur comprise entre 0.1 et 4.0, la valeur par défaut est 1.0.
Une valeur plus élevée entraînera une image plus floue et un traitement plus lent.

luma_pre_filter_radius, lpfr
Définir le rayon de pré-filtre luma, doit être une valeur dans la plage 0.1-2.0, la valeur par défaut est
1.0.

luma_force, ls
Définir la différence maximale de luminance entre les pixels à prendre en compte, doit être une valeur dans
la plage 0.1-100.0, la valeur par défaut est 1.0.

chroma_radius, cr
Définir la force du filtre de flou de chrominance, doit être une valeur comprise entre 0.1 et 4.0. Une plus grande valeur
entraînera une image plus floue et un traitement plus lent.

chroma_pre_filter_radius, cpfr
Définir le rayon du pré-filtre de chrominance, doit être une valeur comprise entre 0.1 et 2.0.

chroma_force, cs
Définir la différence maximale de chrominance entre les pixels à prendre en compte, doit être une valeur
dans la gamme 0.1-100.0.

Chaque valeur d'option de chrominance, si elle n'est pas explicitement spécifiée, est définie sur la luminance correspondante
valeur d'option.

escaliers
Mettez à l'échelle (redimensionnez) la vidéo d'entrée à l'aide de la bibliothèque libswscale.

Le filtre d'échelle force le rapport hauteur/largeur de l'affichage de sortie à être le même que celui de l'entrée, en
changer le rapport hauteur/largeur de l'échantillon de sortie.

Si le format de l'image d'entrée est différent du format demandé par le filtre suivant, le
Le filtre d'échelle convertira l'entrée au format demandé.

Options

Le filtre accepte les options suivantes, ou n'importe laquelle des options prises en charge par le
Scaler libswscale.

See le ffmpeg-scaler Manuel pour la liste complète des options de mise à l'échelle.

largeur, w
la taille, h
Définissez l'expression de dimension de la vidéo de sortie. La valeur par défaut est la dimension d'entrée.

Si la valeur est 0, la largeur d'entrée est utilisée pour la sortie.

Si l'une des valeurs est -1, le filtre d'échelle utilisera une valeur qui maintient le
rapport hauteur/largeur de l'image d'entrée, calculé à partir de l'autre dimension spécifiée. Si
les deux sont -1, la taille d'entrée est utilisée

Si l'une des valeurs est -n avec n > 1, le filtre d'échelle utilisera également une valeur qui
maintient le rapport hauteur/largeur de l'image d'entrée, calculé à partir de l'autre spécifié
dimension. Après cela, il s'assurera cependant que la dimension calculée est
divisible par n et ajustez la valeur si nécessaire.

Voir ci-dessous pour la liste des constantes acceptées à utiliser dans l'expression de dimension.

interl
Réglez le mode d'entrelacement. Il accepte les valeurs suivantes :

1 Forcer la mise à l'échelle consciente entrelacée.

0 N'appliquez pas de mise à l'échelle entrelacée.

-1 Sélectionnez la mise à l'échelle consciente entrelacée selon que les images source sont signalées ou non
comme entrelacé ou non.

La valeur par défaut est 0.

drapeaux
Définissez les indicateurs de mise à l'échelle de libswscale. Voir le ffmpeg-scaler Manuel pour la liste complète des
valeurs. S'il n'est pas explicitement spécifié, le filtre applique les indicateurs par défaut.

Taille, s
Définissez la taille de la vidéo. Pour la syntaxe de cette option, cochez la case "Vidéo Taille" in
le ffmpeg-utils Manuel.

in_color_matrix
out_color_matrix
Définir le type d'espace colorimétrique YCbCr en entrée/sortie.

Cela permet de remplacer la valeur détectée automatiquement et de forcer un
valeur spécifique utilisée pour la sortie et l'encodeur.

S'il n'est pas spécifié, le type d'espace colorimétrique dépend du format de pixel.

Valeurs possibles:

auto
Choisissez automatiquement.

bt709
Format conforme à la recommandation de l'Union internationale des télécommunications (UIT)
BT.709.

Fcc Définir un espace colorimétrique conforme à la Federal Communications Commission des États-Unis
(FCC) Code des réglementations fédérales (CFR) Titre 47 (2003) 73.682 (a).

bt601
Définir l'espace colorimétrique conformément à :

· Recommandation BT.601 du secteur des radiocommunications de l'UIT (UIT-R)

· Rec. UIT-R. BT.470-6 (1998) Systèmes B, B1 et G

· Société des ingénieurs du cinéma et de la télévision (SMPTE) ST 170:2004

smpte240m
Définissez l'espace colorimétrique conformément à SMPTE ST 240:1999.

dans la gamme
avoir une grande portée
Définir la plage d'échantillons YCbCr d'entrée/sortie.

Cela permet de remplacer la valeur détectée automatiquement et de forcer un
valeur spécifique utilisée pour la sortie et l'encodeur. Si non spécifié, la plage dépend de
le format de pixels. Valeurs possibles:

auto
Choisissez automatiquement.

jpeg/complet/pc
Réglez la plage complète (0-255 en cas de luminance 8 bits).

mpeg/télé
Réglez la plage "MPEG" (16-235 en cas de luminance 8 bits).

force_original_aspect_ratio
Activez la diminution ou l'augmentation de la largeur ou de la hauteur de la vidéo de sortie si nécessaire pour conserver la
rapport hauteur/largeur d'origine. Valeurs possibles:

désactiver
Mettez la vidéo à l'échelle comme spécifié et désactivez cette fonctionnalité.

diminuer
Les dimensions de la vidéo de sortie seront automatiquement réduites si nécessaire.

augmenter
Les dimensions de la vidéo de sortie seront automatiquement augmentées si nécessaire.

Un exemple utile de cette option est que lorsque vous connaissez le maximum d'un périphérique spécifique
résolution autorisée, vous pouvez l'utiliser pour limiter la sortie vidéo à cela, tandis que
en conservant le rapport hauteur/largeur. Par exemple, l'appareil A permet la lecture 1280x720, et votre
la vidéo est en 1920x800. En utilisant cette option (définissez-la pour diminuer) et en spécifiant 1280x720 à
la ligne de commande fait la sortie 1280x533.

Veuillez noter qu'il s'agit d'une chose différente de la spécification de -1 pour w or htu es toujours
devez spécifier la résolution de sortie pour que cette option fonctionne.

Les valeurs de la w ainsi que h les options sont des expressions contenant les constantes suivantes :

en W
in_h
La largeur et la hauteur d'entrée

iw
ih Ce sont les mêmes que en W ainsi que in_h.

out_w
out_h
La largeur et la hauteur de sortie (mise à l'échelle)

ow
oh Ce sont les mêmes que out_w ainsi que out_h

a Le même que iw / ih

sar rapport d'aspect de l'échantillon d'entrée

donner Le rapport hauteur/largeur d'affichage d'entrée. Calculé à partir de "(iw / ih) * sar".

hsub
vssub
valeurs de sous-échantillon de chrominance d'entrée horizontale et verticale. Par exemple pour le pixel
format "yuv422p" hsub est 2 et vssub est 1.

ohsub
ovsub
valeurs de sous-échantillon de chrominance de sortie horizontale et verticale. Par exemple pour le pixel
format "yuv422p" hsub est 2 et vssub est 1.

Exemples

· Mettre à l'échelle la vidéo d'entrée à une taille de 200x100

échelle=w=200:h=100

Cela équivaut à:

échelle=200:100

ou:

échelle=200x100

· Spécifiez une abréviation de taille pour la taille de sortie :

échelle=qcif

qui peut aussi s'écrire :

échelle=taille=qcif

· Mettre à l'échelle l'entrée à 2x :

échelle=w=2*iw:h=2*ih

· Ce qui précède est le même que :

échelle=2*in_w:2*in_h

· Mettre à l'échelle l'entrée à 2x avec une mise à l'échelle entrelacée forcée :

échelle=2*iw:2*ih:interl=1

· Réduisez l'entrée de moitié :

échelle=w=iw/2:h=ih/2

· Augmentez la largeur et réglez la hauteur à la même taille :

échelle=3/2*iw:ow

· Rechercher l'harmonie grecque :

échelle=iw:1/PHI*iw
échelle=ih*PHI:ih

· Augmentez la hauteur, et réglez la largeur à 3/2 de la hauteur :

échelle=w=3/2*oh:h=3/5*ih

· Augmentez la taille, en faisant de la taille un multiple des valeurs du sous-échantillon de chrominance :

scale="trunc(3/2*iw/hsub)*hsub:trunc(3/2*ih/vsub)*vsub"

· Augmentez la largeur jusqu'à un maximum de 500 pixels, en conservant le même rapport hauteur/largeur que le
contribution:

échelle=w='min(500\, iw*3/2):h=-1'

Commandes

Ce filtre prend en charge les commandes suivantes :

largeur, w
la taille, h
Définissez l'expression de dimension de la vidéo de sortie. La commande accepte la même syntaxe du
option correspondante.

Si l'expression spécifiée n'est pas valide, elle est conservée à sa valeur actuelle.

échelle2réf
Mettez à l'échelle (redimensionnez) la vidéo d'entrée, en fonction d'une vidéo de référence.

Voir le filtre d'échelle pour les options disponibles, scale2ref prend en charge la même chose mais utilise le
vidéo de référence au lieu de l'entrée principale comme base.

Exemples

· Mettre à l'échelle un flux de sous-titres pour qu'il corresponde à la taille de la vidéo principale avant la superposition

'scale2ref[b][a];[a][b]superposition'

champs séparés
Les "separatefields" prennent une entrée vidéo basée sur des images et divisent chaque image en son
champs de composants, produisant un nouveau clip à mi-hauteur avec deux fois la fréquence d'images et deux fois
le nombre de trames.

Ce filtre utilise des informations de dominance de champ dans la trame pour décider laquelle de chaque paire de
champs à placer en premier dans la sortie. S'il se trompe, utilisez champ de définition filtrer avant
filtre "champs séparés".

Setdar, setar
Le filtre "setdar" définit le rapport d'aspect d'affichage pour la vidéo de sortie du filtre.

Cela se fait en modifiant le rapport d'aspect de l'échantillon (alias Pixel) spécifié, en fonction du
équation suivante :

= / *

Gardez à l'esprit que le filtre "setdar" ne modifie pas les dimensions en pixels de la vidéo
Cadre. De plus, le rapport hauteur/largeur d'affichage défini par ce filtre peut être modifié par des filtres ultérieurs
dans la chaîne de filtrage, par exemple en cas de mise à l'échelle ou si un autre filtre « setdar » ou un « setsar » est
appliqué.

Le filtre "setsar" définit le rapport d'aspect de l'échantillon (alias Pixel) pour la vidéo de sortie du filtre.

Notez qu'en conséquence de l'application de ce filtre, l'aspect d'affichage de la sortie
rapport changera selon l'équation ci-dessus.

Gardez à l'esprit que le rapport hauteur/largeur de l'échantillon défini par le filtre « setsar » peut être modifié par
filtres ultérieurs dans la chaîne de filtrage, par exemple si un autre filtre "setsar" ou "setdar" est
appliqué.

Il accepte les paramètres suivants :

r, rapport, donner ("setdar" seulement), sar ("setsar" seulement)
Définissez le rapport hauteur/largeur utilisé par le filtre.

Le paramètre peut être une chaîne de nombres à virgule flottante, une expression ou une chaîne de
formulaire num:jour, Où num ainsi que jour sont le numérateur et le dénominateur du rapport hauteur/largeur.
Si le paramètre n'est pas spécifié, il prend la valeur "0". Au cas où le formulaire
"num:jour" est utilisé, le caractère ":" doit être échappé.

max Définissez la valeur entière maximale à utiliser pour exprimer le numérateur et le dénominateur lorsque
réduire le rapport hauteur/largeur exprimé à un rationnel. La valeur par défaut est 100.

Le paramètre sar est une expression contenant les constantes suivantes :

E, PI, PHI
Ce sont des valeurs approximatives pour les constantes mathématiques e (nombre d'Euler), pi
(grec pi) et phi (le nombre d'or).

w, h
La largeur et la hauteur d'entrée.

a Ce sont les mêmes que w / h.

sar Le rapport hauteur/largeur de l'échantillon d'entrée.

donner Le rapport hauteur/largeur d'affichage d'entrée. C'est la même chose que (w / h) * sar.

hsub, vssub
Valeurs des sous-échantillons de chrominance horizontale et verticale. Par exemple, pour le format pixel
"yuv422p" hsub est 2 et vssub est 1.

Exemples

· Pour modifier le format d'affichage de l'affichage en 16:9, spécifiez l'un des éléments suivants :

setdar=dar=1.77777
setdar=dar=16/9
setdar=dar=1.77777

· Pour changer le rapport hauteur/largeur de l'échantillon à 10:11, spécifiez :

setsar=sar=10/11

· Pour définir un rapport hauteur/largeur d'affichage de 16:9 et spécifier une valeur entière maximale de 1000 dans
la réduction des proportions, utilisez la commande :

setdar=rapport=16/9:max=1000

champ de définition
Champ de force pour l'image vidéo de sortie.

Le filtre "setfield" marque le champ de type entrelacé pour les trames de sortie. Ce ne est pas
modifier le cadre d'entrée, mais ne définit que la propriété correspondante, ce qui affecte la façon dont le
frame est traité par les filtres suivants (par exemple "fieldorder" ou "yadif").

Le filtre accepte les options suivantes :

mode
Les valeurs disponibles sont :

auto
Gardez la même propriété de champ.

bff Marquez le cadre comme étant le champ du bas en premier.

tff Marquez le cadre comme top-field-first.

prog
Marquez le cadre comme progressif.

afficher les informations
Affiche une ligne contenant diverses informations pour chaque image vidéo d'entrée. La vidéo d'entrée est
non modifié.

La ligne affichée contient une séquence de paires clé/valeur de la forme key:Plus-value.

Les valeurs suivantes sont affichées dans la sortie :

n Le numéro (séquentiel) de la trame d'entrée, à partir de 0.

pts L'horodatage de présentation de la trame d'entrée, exprimé en nombre de base de temps
unités. L'unité de base de temps dépend du tampon d'entrée du filtre.

pts_heure
L'horodatage de présentation de la trame d'entrée, exprimé en nombre de secondes.

poster La position de la trame dans le flux d'entrée, ou -1 si cette information est
indisponible et/ou dénuée de sens (par exemple en cas de vidéo de synthèse).

fmt Le nom du format de pixel.

sar Le rapport hauteur/largeur de l'échantillon de l'image d'entrée, exprimé sous la forme num/jour.

s La taille du cadre d'entrée. Pour la syntaxe de cette option, cochez la case "Vidéo Taille"
in le ffmpeg-utils Manuel.

i Le type de mode entrelacé ("P" pour "progressif", "T" pour champ supérieur en premier, "B" pour
champ du bas en premier).

C est la clé
C'est 1 si l'image est une image clé, 0 sinon.

type
Le type d'image du cadre d'entrée ("I" pour un cadre I, "P" pour un cadre P, "B" pour un
B-frame, ou "?" pour un type inconnu). Se référer également à la documentation du
Enum "AVPictureType" et de la fonction "av_get_picture_type_char" définie dans
libavutil/avutil.h.

somme de contrôle
La somme de contrôle Adler-32 (imprimée en hexadécimal) de tous les plans de la trame d'entrée.

somme_de_contrôle
La somme de contrôle Adler-32 (imprimée en hexadécimal) de chaque plan de la trame d'entrée,
exprimé sous la forme "[c0 c1 c2 c3]".

palette d'exposition
Affiche la palette de 256 couleurs de chaque image. Ce filtre n'est pertinent que pour pal8 pixel
formater les cadres.

Il accepte l'option suivante :

s Définissez la taille de la boîte utilisée pour représenter une entrée de couleur de palette. La valeur par défaut est 30 (pour
une boîte de pixels "30x30").

avions shuffle
Réorganiser et/ou dupliquer les plans vidéo.

Il accepte les paramètres suivants :

map0
L'indice du plan d'entrée à utiliser comme premier plan de sortie.

map1
L'indice du plan d'entrée à utiliser comme deuxième plan de sortie.

map2
L'indice du plan d'entrée à utiliser comme troisième plan de sortie.

map3
L'indice du plan d'entrée à utiliser comme quatrième plan de sortie.

Le premier plan a l'index 0. La valeur par défaut est de garder l'entrée inchangée.

Échangez les deuxième et troisième plans de l'entrée :

ffmpeg -i INPUT -vf shuffleplanes=0:2:1:3 SORTIE

statistiques de signal
Évaluer diverses mesures visuelles qui aident à déterminer les problèmes associés au
numérisation de supports vidéo analogiques.

Par défaut, le filtre enregistre ces valeurs de métadonnées :

YMIN
Affiche la valeur Y minimale contenue dans le cadre d'entrée. Exprimé en gamme de
[0-255].

JAUNE
Affichez la valeur Y au centile de 10 % dans le cadre d'entrée. Exprimé en gamme
de [0-255].

YAVG
Affichez la valeur Y moyenne dans le cadre d'entrée. Exprimé dans la plage de [0-255].

YHAUT
Affichez la valeur Y au centile de 90 % dans le cadre d'entrée. Exprimé en gamme
de [0-255].

YMAX
Affiche la valeur Y maximale contenue dans le cadre d'entrée. Exprimé en gamme de
[0-255].

UMIN
Affiche la valeur U minimale contenue dans le cadre d'entrée. Exprimé en gamme de
[0-255].

UBAS
Affichez la valeur U au centile de 10 % dans le cadre d'entrée. Exprimé en gamme
de [0-255].

UAVG
Affiche la valeur U moyenne dans le cadre d'entrée. Exprimé dans la plage de [0-255].

ÉLEVÉ
Affichez la valeur U au centile de 90 % dans le cadre d'entrée. Exprimé en gamme
de [0-255].

UMAX
Affiche la valeur U maximale contenue dans le cadre d'entrée. Exprimé en gamme de
[0-255].

VMIN
Affiche la valeur V minimale contenue dans le cadre d'entrée. Exprimé en gamme de
[0-255].

VBAS
Affichez la valeur V au centile de 10 % dans le cadre d'entrée. Exprimé en gamme
de [0-255].

VAVG
Affichez la valeur V moyenne dans le cadre d'entrée. Exprimé dans la plage de [0-255].

VÉLEVÉ
Affichez la valeur V au centile de 90 % dans le cadre d'entrée. Exprimé en gamme
de [0-255].

Vmax
Affiche la valeur V maximale contenue dans la trame d'entrée. Exprimé en gamme de
[0-255].

SAMIN
Affiche la valeur de saturation minimale contenue dans le cadre d'entrée. Exprimée en
plage de [0-~181.02].

SATLOW
Affichez la valeur de saturation au centile de 10 % dans le cadre d'entrée. Exprimé
dans la plage de [0-~181.02].

SATAVG
Affiche la valeur de saturation moyenne dans le cadre d'entrée. Exprimé en gamme de
[0-~181.02].

SATISFAIT
Affichez la valeur de saturation au centile de 90 % dans le cadre d'entrée. Exprimé
dans la plage de [0-~181.02].

SATMAX
Affiche la valeur de saturation maximale contenue dans la trame d'entrée. Exprimée en
plage de [0-~181.02].

HUMÉ
Affiche la valeur médiane de la teinte dans le cadre d'entrée. Exprimé en gamme de
[0-360].

HUEAVG
Affiche la valeur moyenne de la teinte dans le cadre d'entrée. Exprimé en gamme de
[0-360].

YDIF
Afficher la moyenne de la différence de valeur d'échantillon entre toutes les valeurs du plan Y dans
la trame actuelle et les valeurs correspondantes de la trame d'entrée précédente. Exprimée en
plage de [0-255].

UDIF
Afficher la moyenne de la différence de valeur d'échantillon entre toutes les valeurs du plan U dans
la trame actuelle et les valeurs correspondantes de la trame d'entrée précédente. Exprimée en
plage de [0-255].

VDIF
Afficher la moyenne de la différence de valeur d'échantillon entre toutes les valeurs du plan V dans
la trame actuelle et les valeurs correspondantes de la trame d'entrée précédente. Exprimée en
plage de [0-255].

Le filtre accepte les options suivantes :

état
ande état spécifier une forme supplémentaire d'analyse d'image. ande sortie vidéo avec le
type de pixel spécifié mis en surbrillance.

Les deux options acceptent les valeurs suivantes :

vanter
Identifier temporel valeurs aberrantes pixels. UNE temporel valeur aberrante est un pixel contrairement au
pixels voisins du même champ. Des exemples de valeurs aberrantes temporelles incluent le
résultats d'abandons vidéo, d'obstructions de la tête ou de problèmes de suivi de bande.

vrep
Identifier vertical en ligne répétition. La répétition de ligne verticale comprend des lignes similaires
de pixels dans un cadre. Dans la vidéo numérique née, la répétition des lignes verticales est
commun, mais ce modèle est rare dans la vidéo numérisée à partir d'une source analogique.
Lorsqu'il se produit dans une vidéo résultant de la numérisation d'une source analogique, il
peut indiquer la dissimulation d'un compensateur de décrochage.

apporter
Identifiez les pixels qui se trouvent en dehors de la plage de diffusion légale.

couleur, c
Définissez la couleur de surbrillance pour le ande option. La couleur par défaut est le jaune.

Exemples

· Données de sortie de diverses métriques vidéo :

ffprobe -f lavfi movie=example.mov,signalstats="stat=tout+vrep+brng" -show_frames

· Sortir des données spécifiques sur les valeurs minimales et maximales du plan Y par image :

ffprobe -f lavfi movie=example.mov,signalstats -show_entries frame_tags=lavfi.signalstats.YMAX,lavfi.signalstats.YMIN

· Lecture vidéo tout en mettant en surbrillance les pixels qui sont en dehors de la plage de diffusion en rouge.

ffplay example.mov -vf signalstats="out=brng:color=red"

· Vidéo de lecture avec les métadonnées de signalstats dessinées sur le cadre.

ffplay example.mov -vf signalstats=stat=brng+vrep+tout,drawtext=fontfile=FreeSerif.ttf:textfile=signalstat_drawtext.txt

Le contenu de signalstat_drawtext.txt utilisé dans la commande est :

temps %{pts:hms}
Oui (%{metadata:lavfi.signalstats.YMIN}-%{metadata:lavfi.signalstats.YMAX})
U (%{metadata:lavfi.signalstats.UMIN}-%{metadata:lavfi.signalstats.UMAX})
V (%{metadata:lavfi.signalstats.VMIN}-%{metadata:lavfi.signalstats.VMAX})
saturation maximale : %{metadata:lavfi.signalstats.SATMAX}

flou artistique
Flou la vidéo d'entrée sans affecter les contours.

Il accepte les options suivantes :

luma_radius, lr
Réglez le rayon de luminance. La valeur de l'option doit être un nombre flottant dans la plage [0.1,5.0]
qui spécifie la variance du filtre gaussien utilisé pour flouter l'image (plus lent si
plus grand). La valeur par défaut est 1.0.

luma_force, ls
Réglez la force de luminance. La valeur de l'option doit être un nombre flottant dans la plage [-1.0,1.0]
qui configure le flou. Une valeur incluse dans [0.0,1.0] brouillera l'image
alors qu'une valeur incluse dans [-1.0,0.0] affinera l'image. La valeur par défaut est 1.0.

luma_threshold, lt
Définissez le seuil de luminance utilisé comme coefficient pour déterminer si un pixel doit être
flou ou pas. La valeur de l'option doit être un entier compris dans la plage [-30,30]. Une valeur de
0 filtrera toute l'image, une valeur comprise dans [0,30] filtrera les aplats et un
la valeur incluse dans [-30,0] filtrera les bords. La valeur par défaut est 0.

chroma_radius, cr
Définissez le rayon de chrominance. La valeur de l'option doit être un nombre flottant dans la plage [0.1,5.0]
qui spécifie la variance du filtre gaussien utilisé pour flouter l'image (plus lent si
plus grand). La valeur par défaut est 1.0.

chroma_force, cs
Réglez la force de chrominance. La valeur de l'option doit être un nombre flottant dans la plage
[-1.0,1.0] qui configure le flou. Une valeur incluse dans [0.0,1.0] brouillera le
l'image alors qu'une valeur incluse dans [-1.0,0.0] affinera l'image. La valeur par défaut est
1.0.

chroma_threshold, ct
Définissez le seuil de chrominance utilisé comme coefficient pour déterminer si un pixel doit être
flou ou pas. La valeur de l'option doit être un entier compris dans la plage [-30,30]. Une valeur de
0 filtrera toute l'image, une valeur comprise dans [0,30] filtrera les aplats et un
la valeur incluse dans [-30,0] filtrera les bords. La valeur par défaut est 0.

Si une option de chrominance n'est pas explicitement définie, la valeur de luminance correspondante est définie.

sim
Obtenez le SSIM (Structural SIMilarity Metric) entre deux vidéos d'entrée.

Ce filtre prend en entrée deux vidéos d'entrée, la première entrée est considérée comme la "principale"
source et est transmis sans modification à la sortie. La deuxième entrée est utilisée comme "référence"
vidéo pour le calcul du SSIM.

Les deux entrées vidéo doivent avoir la même résolution et le même format de pixel pour que ce filtre fonctionne
correctement. Il suppose également que les deux entrées ont le même nombre de trames, qui sont
comparés un par un.

Le filtre stocke le SSIM calculé de chaque trame.

La description des paramètres acceptés suit.

fichier_stats, f
Si spécifié, le filtre utilisera le fichier nommé pour enregistrer le SSIM de chaque individu
cadre.

Le fichier imprimé si fichier_statistiques est sélectionné, contient une séquence de paires clé/valeur du
formulaire key:Plus-value pour chaque couple d'images comparé.

Une description de chaque paramètre affiché suit :

n numéro séquentiel de la trame d'entrée, à partir de 1

Y, U, V, R, G, B
SSIM des trames comparées pour le composant spécifié par le suffixe.

Tous SSIM des trames comparées pour toute la trame.

dB Identique à ci-dessus mais en représentation dB.

Par exemple :

movie=ref_movie.mpg, setpts=PTS-STARTPTS [principal] ;
[principal][ref] ssim="stats_file=stats.log" [sortie]

Sur cet exemple le fichier d'entrée en cours de traitement est comparé au fichier de référence
ref_film.mpg. Le SSIM de chaque trame individuelle est stocké dans statistiques.log.

Un autre exemple avec psnr et ssim en même temps :

ffmpeg -i main.mpg -i ref.mpg -lavfi "ssim;[0:v][1:v]psnr" -f null -

stéréo3d
Convertissez entre différents formats d'images stéréoscopiques.

Les filtres acceptent les options suivantes :

in Définir le format d'image stéréoscopique d'entrée.

Les valeurs disponibles pour les formats d'image d'entrée sont :

sbsl
parallèles côte à côte (œil gauche à gauche, œil droit à droite)

sbsr
œil croisé côte à côte (œil droit à gauche, œil gauche à droite)

sbs2l
côte à côte parallèle avec une résolution demi-largeur (œil gauche à gauche, œil droit à droite)

sbs2r
œil croisé côte à côte avec une résolution de demi-largeur (œil droit à gauche, œil gauche à droite)

abl dessus-dessous (œil gauche en haut, œil droit en bas)

Avril dessus-dessous (œil droit en haut, œil gauche en bas)

ab2l
ci-dessus-dessous avec une résolution à mi-hauteur (œil gauche au-dessus, œil droit en dessous)

ab2r
dessus-dessous avec une résolution à mi-hauteur (œil droit au-dessus, œil gauche en dessous)

al cadres alternés (œil gauche en premier, œil droit en second)

ar montures alternées (œil droit en premier, œil gauche en second)

La valeur par défaut est sbsl.

ande Définir le format d'image stéréoscopique de la sortie.

Les valeurs disponibles pour les formats d'image de sortie sont tous les formats d'entrée ainsi que :

arbg
anaglyphe rouge/bleu gris (filtre rouge sur l'œil gauche, filtre bleu sur l'œil droit)

Argg
anaglyphe rouge/vert gris (filtre rouge sur l'œil gauche, filtre vert sur l'œil droit)

arcg
anaglyphe rouge/gris cyan (filtre rouge sur l'œil gauche, filtre cyan sur l'œil droit)

arche
anaglyphe rouge/cyan demi-coloré (filtre rouge sur l'œil gauche, filtre cyan sur l'œil droit)

arccc
couleur anaglyphe rouge/cyan (filtre rouge sur l'œil gauche, filtre cyan sur l'œil droit)

arcd
couleur anaglyphe rouge/cyan optimisée avec la projection des moindres carrés de dubois (rouge
filtre sur l'œil gauche, filtre cyan sur l'œil droit)

amg
vert anaglyphe/gris magenta (filtre vert sur l'œil gauche, filtre magenta sur la droite
œil)

aghm
anaglyphe vert/magenta à moitié coloré (filtre vert sur l'œil gauche, filtre magenta sur
l'œil droit)

agmc
anaglyphe vert/magenta (filtre vert sur l'œil gauche, filtre magenta sur la droite
œil)

agmd
couleur anaglyphe vert/magenta optimisée avec la projection des moindres carrés de dubois
(filtre vert sur l'œil gauche, filtre magenta sur l'œil droit)

aybg
anaglyphe jaune/bleu gris (filtre jaune sur l'œil gauche, filtre bleu sur l'œil droit)

aybh
anaglyphe jaune/bleu à moitié coloré (filtre jaune sur l'œil gauche, filtre bleu sur la droite
œil)

aybc
anaglyphe jaune/bleu (filtre jaune sur l'œil gauche, filtre bleu sur l'œil droit)

aybd
couleur anaglyphe jaune/bleu optimisée avec la projection des moindres carrés de dubois
(filtre jaune sur l'œil gauche, filtre bleu sur l'œil droit)

irl rangées entrelacées (l'œil gauche a la rangée du haut, l'œil droit commence sur la rangée suivante)

irr rangées entrelacées (l'œil droit a la rangée du haut, l'œil gauche commence sur la rangée suivante)

ml sortie mono (œil gauche uniquement)

mr sortie mono (œil droit uniquement)

La valeur par défaut est arcd.

Exemples

· Convertir la vidéo d'entrée côte à côte parallèle en dubois jaune/bleu anaglyphe :

stéréo3d=sbsl:aybd

· Convertir la vidéo d'entrée d'en haut en bas (œil gauche en haut, œil droit en bas) en côte à côte
loucher.

stéréo3d=abl:sbsr

spp
Appliquer un simple filtre de post-traitement qui compresse et décompresse l'image à plusieurs
(ou - dans le cas de qualité niveau 6 - tous) se déplace et calcule la moyenne des résultats.

Le filtre accepte les options suivantes :

qualité
Définir la qualité. Cette option définit le nombre de niveaux pour la moyenne. Il accepte un
entier compris entre 0 et 6. S'il est défini sur 0, le filtre n'aura aucun effet. Une valeur de 6
signifie la qualité supérieure. Pour chaque incrément de cette valeur, la vitesse diminue d'un facteur
d'environ 2. La valeur par défaut est 3.

qp Forcer un paramètre de quantification constant. S'il n'est pas défini, le filtre utilisera le QP de
le flux vidéo (si disponible).

mode
Définir le mode de seuillage. Les modes disponibles sont :

dur
Définir un seuillage strict (par défaut).

qualité, que vous pourrez utilisé
Définissez un seuillage doux (meilleur effet de désactivation, mais probablement plus flou).

use_bframe_qp
Activez l'utilisation du QP à partir des B-Frames s'il est défini sur 1. L'utilisation de cette option peut entraîner
scintillement car les B-Frames ont souvent un QP plus important. La valeur par défaut est 0 (non activé).

les sous-titres
Dessinez des sous-titres au-dessus de la vidéo d'entrée à l'aide de la bibliothèque libass.

Pour activer la compilation de ce filtre, vous devez configurer FFmpeg avec "--enable-libass".
Ce filtre nécessite également une construction avec libavcodec et libavformat pour convertir le passé
fichier de sous-titres au format de sous-titres ASS (Advanced Substation Alpha).

Le filtre accepte les options suivantes :

nom de fichier, f
Définissez le nom de fichier du fichier de sous-titres à lire. Il faut le préciser.

format original
Spécifiez la taille de la vidéo originale, la vidéo pour laquelle le fichier ASS a été composé.
Pour la syntaxe de cette option, cochez la case "Vidéo Taille" in le ffmpeg-utils
Manuel. En raison d'une mauvaise conception dans l'arithmétique du rapport d'aspect ASS, cela est nécessaire pour
redimensionnez correctement les polices si le rapport hauteur/largeur a été modifié.

répertoire des polices
Définissez un chemin de répertoire contenant les polices pouvant être utilisées par le filtre. Ces polices
sera utilisé en plus de tout ce que le fournisseur de polices utilise.

Charenc
Définir l'encodage des caractères d'entrée des sous-titres. Filtre "sous-titres" uniquement. Utile seulement sinon
UTF-8.

indice_flux, si
Définir l'index de flux de sous-titres. Filtre "sous-titres" uniquement.

force_style
Remplacez les paramètres par défaut du style ou des informations de script des sous-titres. Il accepte une chaîne
contenant des couples de format de style ASS "KEY=VALUE" séparés par ",".

Si la première clé n'est pas spécifiée, il est supposé que la première valeur spécifie le
nom de fichier.

Par exemple, pour rendre le fichier sous.srt en plus de la vidéo d'entrée, utilisez la commande :

sous-titres=sub.srt

ce qui équivaut à:

sous-titres=nom de fichier=sous.srt

Pour rendre le flux de sous-titres par défaut à partir d'un fichier vidéo.mkv, Utiliser:

sous-titres=vidéo.mkv

Pour rendre le deuxième flux de sous-titres à partir de ce fichier, utilisez :

sous-titres=video.mkv:si=1

Pour diffuser les sous-titres à partir de sous.srt apparaissent en vert transparent "DejaVu Serif", utilisez :

subtitles=sub.srt:force_style='FontName=DejaVu Serif,PrimaryColour=&HAA00FF00'

super2xsai
Redimensionnez l'entrée par 2x et lissez à l'aide du pixel art Super2xSaI (Scale and Interpolate)
algorithme de mise à l'échelle.

Utile pour agrandir les images pixel art sans réduire la netteté.

swapuv
Échangez l'avion U & V.

télécinéma
Appliquer le processus de télécinéma à la vidéo.

Ce filtre accepte les options suivantes :

premier_champ
sommet, t
champ supérieur en premier

bas, b
bottom field first La valeur par défaut est "top".

modèle
Une chaîne de chiffres représentant le modèle de pulldown que vous souhaitez appliquer. Le défaut
la valeur est 23.

Quelques modèles typiques :

Sortie NTSC (30i) :
27.5p: 32222
24p : 23 (classique)
24p : 2332 (de préférence)
20p: 33
18p: 334
16p: 3444

Sortie PAL (25i) :
27.5p: 12222
24p : 222222222223 ("Euro pulldown")
16.67p: 33
16p: 33333334

thumbnail
Sélectionnez l'image la plus représentative dans une séquence donnée d'images consécutives.

Le filtre accepte les options suivantes :

n Définissez la taille du lot de trames à analyser ; dans un ensemble de n cadres, le filtre en choisira un
d'entre eux, puis gérer le prochain lot de n cadres jusqu'à la fin. La valeur par défaut est 100.

Étant donné que le filtre garde une trace de toute la séquence d'images, une plus grande n valeur se traduira par
une utilisation plus élevée de la mémoire, donc une valeur élevée n'est pas recommandée.

Exemples

· Extraire une image toutes les 50 images :

miniature=50

· Exemple complet de création de vignette avec ffmpeg:

ffmpeg -i in.avi -vf miniature, échelle = 300: 200 -frames: v 1 out.png

tuile
Mosaïque de plusieurs cadres successifs ensemble.

Le filtre accepte les options suivantes :

disposition
Définissez la taille de la grille (c'est-à-dire le nombre de lignes et de colonnes). Pour la syntaxe de ce
option, cochez la "Vidéo Taille" in le ffmpeg-utils Manuel.

nb_frames
Définissez le nombre maximum d'images à rendre dans la zone donnée. Il doit être inférieur ou
égal à wxh. La valeur par défaut est 0, ce qui signifie que toute la zone sera utilisée.

marge
Définissez la marge de la bordure extérieure en pixels.

rembourrage
Définissez l'épaisseur de la bordure intérieure (c'est-à-dire le nombre de pixels entre les images). Pour plus
options de remplissage avancées (comme avoir des valeurs différentes pour les bords), reportez-vous à la
filtre vidéo pad.

Couleur
Spécifiez la couleur de la zone inutilisée. Pour la syntaxe de cette option, cochez la case "Couleur"
dans le manuel ffmpeg-utils. La valeur par défaut de Couleur est noir".

Exemples

· Produire des tuiles PNG 8x8 de toutes les images clés (-skip_frame non clé) dans un film :

ffmpeg -skip_frame nokey -i file.avi -vf 'scale=128:72,tile=8x8' -an -vsync 0 images clés%03d.png

La -vsync 0 est nécessaire pour empêcher ffmpeg de la duplication de chaque trame de sortie à
tenir compte de la fréquence d'images détectée à l'origine.

· Affichez 5 images dans une zone de cadres "3x2", avec 7 pixels entre eux, et 2
pixels de la marge initiale, en utilisant des options mixtes plates et nommées :

tile=3x2:nb_frames=5:padding=7:margin=2

entrelacé
Effectuez divers types d'entrelacement de champ temporel.

Les trames sont comptées à partir de 1, de sorte que la première trame d'entrée est considérée comme impaire.

Le filtre accepte les options suivantes :

mode
Spécifiez le mode de l'entrelacement. Cette option peut également être spécifiée comme valeur
seul. Voir ci-dessous pour une liste de valeurs pour cette option.

Les valeurs disponibles sont :

fusionner, 0
Déplacez les images impaires dans le champ supérieur, même dans le champ inférieur, générant un
image double hauteur à la moitié de la fréquence d'images.

------> heure
Contribution:
Cadre 1 Cadre 2 Cadre 3 Cadre 4

11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444

Sortie :
+11111 (33333)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX

drop_odd, 1
Sortir uniquement les trames paires, les trames impaires sont supprimées, générant une trame inchangée
hauteur à la moitié de la fréquence d'images.

------> heure
Contribution:
Cadre 1 Cadre 2 Cadre 3 Cadre 4

11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444

Sortie :
+22222 (44444)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX

drop_even, 2
Ne sortez que les trames impaires, les trames paires sont supprimées, générant une trame inchangée
hauteur à la moitié de la fréquence d'images.

------> heure
Contribution:
Cadre 1 Cadre 2 Cadre 3 Cadre 4

11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444

Sortie :
+11111 (33333)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX

tampon, 3
Développez chaque cadre sur toute la hauteur, mais complétez les lignes alternées avec du noir, générant un
trame avec une hauteur double à la même fréquence d'images d'entrée.

------> heure
Contribution:
Cadre 1 Cadre 2 Cadre 3 Cadre 4

11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444

Sortie :
11111 ..... 33333 .....
..... 22222 ..... 44444
11111 ..... 33333 .....
..... 22222 ..... 44444
11111 ..... 33333 .....
..... 22222 ..... 44444
11111 ..... 33333 .....
..... 22222 ..... 44444

entrelacé_top, 4
Entrelacer le champ supérieur des trames impaires avec le champ inférieur des trames paires,
générer une image avec une hauteur inchangée à la moitié de la fréquence d'images.

------> heure
Contribution:
Cadre 1 Cadre 2 Cadre 3 Cadre 4

11111<- 22222 33333<- 44444
11111 22222<- 33333 44444<-
11111<- 22222 33333<- 44444
11111 22222<- 33333 44444<-

Sortie :
+11111 (33333)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX

entrelacé_bottom, 5
Entrelacer le champ inférieur des trames impaires avec le champ supérieur des trames paires,
générer une image avec une hauteur inchangée à la moitié de la fréquence d'images.

------> heure
Contribution:
Cadre 1 Cadre 2 Cadre 3 Cadre 4

11111 22222<- 33333 44444<-
11111<- 22222 33333<- 44444
11111 22222<- 33333 44444<-
11111<- 22222 33333<- 44444

Sortie :
+22222 (44444)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX
+22222 (44444)XNUMX XNUMX
+11111 (33333)XNUMX XNUMX

entrelacé2, 6
Double fréquence d'images avec une hauteur inchangée. Des cadres sont insérés contenant chacun le
deuxième champ temporel de la trame d'entrée précédente et le premier champ temporel
à partir de la trame d'entrée suivante. Ce mode repose sur le drapeau top_field_first. Utile
pour les affichages vidéo entrelacés sans synchronisation de champ.

------> heure
Contribution:
Cadre 1 Cadre 2 Cadre 3 Cadre 4

11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444
11111 22222 33333 44444

Sortie :
11111 22222 22222 33333 33333 44444 44444
11111 11111 22222 22222 33333 33333 44444
11111 22222 22222 33333 33333 44444 44444
11111 11111 22222 22222 33333 33333 44444

Les valeurs numériques sont obsolètes mais sont acceptées pour des raisons de compatibilité descendante.

Le mode par défaut est "fusionner".

drapeaux
Spécifiez les indicateurs influençant le processus de filtrage.

Valeur disponible pour drapeaux est:

filtre passe bas, vlfp
Activez le filtrage passe-bas vertical dans le filtre. Le filtrage passe-bas vertical est
requis lors de la création d'une destination entrelacée à partir d'une source progressive qui
contient des détails verticaux à haute fréquence. Le filtrage réduira le 'twitter' entrelacé
et motif moiré.

Le filtrage passe-bas vertical ne peut être activé que pour mode interleave_top ainsi que
entrelacé_bottom.

transposer
Transposez les lignes avec les colonnes dans la vidéo d'entrée et retournez-la éventuellement.

Il accepte les paramètres suivants :

dir Spécifiez le sens de transposition.

Peut prendre les valeurs suivantes :

0, 4, cclock_flip
Faites pivoter de 90 degrés dans le sens inverse des aiguilles d'une montre et retournez verticalement (par défaut), c'est-à-dire :

LR Ll
. . -> . .
lr Rr

1, 5, horloge
Faites pivoter de 90 degrés dans le sens des aiguilles d'une montre, c'est-à-dire :

LR lL
. . -> . .
lr rR

2, 6, horloge
Tournez de 90 degrés dans le sens inverse des aiguilles d'une montre, c'est-à-dire :

LR Rr
. . -> . .
lr ll

3, 7, flip_horloge
Faites pivoter de 90 degrés dans le sens des aiguilles d'une montre et retournez verticalement, c'est-à-dire :

LR rR
. . -> . .
lr lL

Pour les valeurs comprises entre 4 et 7, la transposition n'est effectuée que si la géométrie de la vidéo d'entrée est
portrait et non paysage. Ces valeurs sont dépréciées, l'option "passthrough"
devrait être utilisé à la place.

Les valeurs numériques sont déconseillées et doivent être abandonnées au profit de constantes symboliques.

traverser
N'appliquez pas la transposition si la géométrie d'entrée correspond à celle spécifiée par le
valeur spécifiée. Il accepte les valeurs suivantes :

aucun
Appliquez toujours la transposition.

portrait
Conserver la géométrie du portrait (quand la taille >= largeur).

paysage d'été
Préserver la géométrie du paysage (quand largeur >= la taille).

La valeur par défaut est "aucun".

Par exemple pour faire pivoter de 90 degrés dans le sens des aiguilles d'une montre et conserver la mise en page portrait :

transpose=dir=1:passthrough=portrait

La commande ci-dessus peut également être spécifiée comme :

transposition=1:portrait

réduire
Coupez l'entrée de sorte que la sortie contienne une sous-partie continue de l'entrée.

Il accepte les paramètres suivants :

Commencer
Précisez l'heure de début de la section conservée, c'est-à-dire la trame avec l'horodatage
Commencer sera la première image de la sortie.

fin Spécifiez l'heure de la première image qui sera supprimée, c'est-à-dire l'image immédiatement
précédant celui avec l'horodatage fin sera la dernière image de la sortie.

start_pts
C'est la même chose que Commencer, sauf que cette option définit l'horodatage de début dans la base de temps
unités au lieu de secondes.

fin_pts
C'est la même chose que fin, sauf que cette option définit l'horodatage de fin en unités de base de temps
au lieu de secondes.

durée
La durée maximale de la sortie en secondes.

start_frame
Le numéro de la première trame qui doit être transmise à la sortie.

cadre_fin
Le numéro de la première image qui doit être supprimée.

Commencer, finet durée sont exprimés sous forme de spécifications de durée; voir le Temps
durée in le ffmpeg-utils(1) Manuel pour la syntaxe acceptée.

Notez que les deux premiers ensembles d'options de début/fin et le durée option regarde le
l'horodatage de l'image, tandis que les variantes _frame comptent simplement les images qui passent par le
filtre. Notez également que ce filtre ne modifie pas les horodatages. Si vous souhaitez le
que les horodatages de sortie commencent à zéro, insérez un filtre setpts après le filtre trim.

Si plusieurs options de début ou de fin sont définies, ce filtre essaie d'être gourmand et de conserver toutes les
cadres qui correspondent à au moins une des contraintes spécifiées. Pour ne garder que la partie qui
correspond à toutes les contraintes à la fois, chaîne plusieurs filtres de garniture.

Les valeurs par défaut sont telles que toutes les entrées sont conservées. Il est donc possible de définir par exemple uniquement le
valeurs de fin pour tout conserver avant l'heure spécifiée.

Exemples :

· Supprimez tout sauf la deuxième minute de saisie :

ffmpeg -i INPUT -vf trim=60:120

· Ne gardez que la première seconde :

ffmpeg -i INPUT -vf trim=durée=1

flou
Accentuer ou brouiller la vidéo d'entrée.

Il accepte les paramètres suivants :

luma_msize_x, lx
Définissez la taille horizontale de la matrice de luminance. Il doit s'agir d'un entier impair compris entre 3 et 63. Le
la valeur par défaut est 5.

luma_msize_y, ly
Définissez la taille verticale de la matrice de luminance. Il doit s'agir d'un entier impair compris entre 3 et 63. Le
la valeur par défaut est 5.

luma_montant, la
Réglez la force de l'effet luma. Ce doit être un nombre à virgule flottante, des valeurs raisonnables
se situe entre -1.5 et 1.5.

Les valeurs négatives brouilleront la vidéo d'entrée, tandis que les valeurs positives l'accentueront, un
la valeur zéro désactivera l'effet.

La valeur par défaut est 1.0.

chroma_msize_x, cx
Définissez la taille horizontale de la matrice de chrominance. Il doit s'agir d'un entier impair compris entre 3 et 63. Le
la valeur par défaut est 5.

chroma_msize_y, cy
Définissez la taille verticale de la matrice de chrominance. Il doit s'agir d'un entier impair compris entre 3 et 63. Le
la valeur par défaut est 5.

chroma_amount, ca
Réglez la force de l'effet de chrominance. Ce doit être un nombre à virgule flottante, des valeurs raisonnables
se situe entre -1.5 et 1.5.

Les valeurs négatives brouilleront la vidéo d'entrée, tandis que les valeurs positives l'accentueront, un
la valeur zéro désactivera l'effet.

La valeur par défaut est 0.0.

OpenCL
Si défini sur 1, spécifiez en utilisant les capacités OpenCL, uniquement disponible si FFmpeg était
configuré avec "--enable-opencl". La valeur par défaut est 0.

Tous les paramètres sont facultatifs et correspondent par défaut à l'équivalent de la chaîne "5:5:1.0:5:5:0.0".

Exemples

· Appliquez un fort effet d'accentuation de luma :

unsharp=luma_msize_x=7:luma_msize_y=7:luma_amount=2.5

· Appliquez un fort flou des paramètres de luminance et de chrominance :

unsharp=7:7:-2:7:7:-2

uspp
Appliquer un filtre de post-traitement ultra lent/simple qui compresse et décompresse l'image
à plusieurs (ou - dans le cas de qualité niveau 8 - tous) se déplace et calcule la moyenne des résultats.

La façon dont cela diffère du comportement de spp est que uspp encode et décode en fait chacun
cas avec libavcodec Snow, alors que spp utilise un DCT intra seulement 8x8 simplifié similaire à
MJPEG.

Le filtre accepte les options suivantes :

qualité
Définir la qualité. Cette option définit le nombre de niveaux pour la moyenne. Il accepte un
entier compris entre 0 et 8. S'il est défini sur 0, le filtre n'aura aucun effet. Une valeur de 8
signifie la qualité supérieure. Pour chaque incrément de cette valeur, la vitesse diminue d'un facteur
d'environ 2. La valeur par défaut est 3.

qp Forcer un paramètre de quantification constant. S'il n'est pas défini, le filtre utilisera le QP de
le flux vidéo (si disponible).

vectorscope
Affichez 2 valeurs de composantes de couleur dans le graphique bidimensionnel (appelé
vecteurscope).

Ce filtre accepte les options suivantes :

Mode, m
Définir le mode vecteurscope.

Il accepte les valeurs suivantes :

gris
Les valeurs de gris sont affichées sur le graphique, une luminosité plus élevée signifie que plus de pixels ont la même
valeur de la couleur du composant sur l'emplacement dans le graphique. C'est le mode par défaut.

Couleur
Les valeurs de gris sont affichées sur le graphique. Les valeurs des pixels environnants qui ne sont pas
présents dans l'image vidéo sont dessinés en dégradé de 2 composantes de couleur qui sont définies
par l'option "x" et "y".

couleur 2
Les valeurs réelles des composantes de couleur présentes dans l'image vidéo sont affichées sur le graphique.

couleur 3
Similaire à color2 mais fréquence plus élevée des mêmes valeurs "x" et "y" sur le graphique
augmente la valeur d'un autre composant de couleur, qui est la luminance par défaut
de "x" et "y".

couleur 4
Les couleurs réelles présentes dans l'image vidéo sont affichées sur le graphique. Si deux différents
les couleurs correspondent à la même position sur le graphique, puis la couleur avec une valeur plus élevée du composant n'est pas
présent dans le graphique est sélectionné.

x Définissez la composante de couleur qui sera représentée sur l'axe X. La valeur par défaut est 1.

y Définissez la composante de couleur qui sera représentée sur l'axe Y. La valeur par défaut est 2.

intensité, i
Réglez l'intensité, utilisée par les modes : gris, couleur et couleur3 pour augmenter la luminosité de
composante de couleur qui représente la fréquence de l'emplacement (X, Y) dans le graphique.

enveloppe, e
aucun
Pas d'enveloppe, c'est par défaut.

instantané
Enveloppe instantanée, même le pixel unique le plus sombre sera clairement mis en évidence.

pic
Conservez les valeurs maximales et minimales présentées dans le graphique au fil du temps. De cette façon, vous pouvez
toujours repérer des valeurs hors limites sans constamment regarder le vecteurscope.

pic+instantané
Enveloppe de crête et instantanée combinées.

vidstabdétect
Analysez la stabilisation/l'assouplissement vidéo. Effectuer la passe 1 sur 2, voir vidstabtransformer pour passer
2.

Ce filtre génère un fichier avec des informations relatives à la traduction et à la transformation de rotation
sur les trames suivantes, qui est ensuite utilisé par le vidstabtransformer filtre.

Pour activer la compilation de ce filtre, vous devez configurer FFmpeg avec
"--enable-libvidstab".

Ce filtre accepte les options suivantes :

résultat
Définissez le chemin d'accès au fichier utilisé pour écrire les informations de transformation. La valeur par défaut est
transforme.trf.

tremblement
Définissez le degré de tremblement de la vidéo et la vitesse de la caméra. Il accepte un entier dans le
plage 1-10, une valeur de 1 signifie un faible tremblement, une valeur de 10 signifie un fort tremblement.
La valeur par défaut est 5.

précision
Réglez la précision du processus de détection. Il doit s'agir d'une valeur comprise entre 1 et 15. UNE
une valeur de 1 signifie une faible précision, une valeur de 15 signifie une précision élevée. La valeur par défaut est 15.

taille de pas
Définir le pas du processus de recherche. La région autour du minimum est balayée avec 1 pixel
résolution. La valeur par défaut est 6.

contraste minimum
Réglez le contraste minimum. En dessous de cette valeur, un champ de mesure local est ignoré. Doit être
une valeur à virgule flottante dans la plage 0-1. La valeur par défaut est 0.3.

trépied
Définir le numéro de cadre de référence pour le mode trépied.

Si activé, le mouvement des images est comparé à une image de référence dans le filtre
flux, identifié par le numéro spécifié. L'idée est de compenser tous les mouvements de
une scène plus ou moins statique et garder la vue de la caméra absolument immobile.

S'il est défini sur 0, il est désactivé. Les trames sont comptées à partir de 1.

montrer
Afficher les champs et les transformations dans les images résultantes. Il accepte un entier dans la plage
0-2. La valeur par défaut est 0, ce qui désactive toute visualisation.

Exemples

· Utiliser les valeurs par défaut :

vidstabdétect

· Analyser le film fortement tremblant et mettre les résultats dans le fichier mestransformations.trf:

vidstabdetect=shakiness=10:accuracy=15:result="mytransforms.trf"

· Visualisez le résultat des transformations internes dans la vidéo résultante :

vidstabdetect=afficher=1

· Analyser une vidéo avec un tremblement moyen en utilisant ffmpeg:

ffmpeg -i input -vf vidstabdetect=shakiness=5:show=1 dummy.avi

vidstabtransformer
Stabilisation/décalage vidéo : passer 2 sur 2, voir vidstabdétect pour la passe 1.

Lisez un fichier avec des informations de transformation pour chaque image et appliquez-les/compensez-les. Ensemble
les vidstabdétect filtre cela peut être utilisé pour desshake vidéos. Voir également
<http://public.hronopik.de/vid.stab>. Il est important d'utiliser également le flou filtre, voir
ci-dessous.

Pour activer la compilation de ce filtre, vous devez configurer FFmpeg avec
"--enable-libvidstab".

Options

contribution
Définissez le chemin d'accès au fichier utilisé pour lire les transformations. La valeur par défaut est transforme.trf.

lissage
Définir le nombre d'images (valeur*2 + 1) utilisées pour le filtrage passe-bas de la caméra
mouvements. La valeur par défaut est 10.

Par exemple, un nombre de 10 signifie que 21 trames sont utilisées (10 dans le passé et 10 dans le
future) pour lisser le mouvement dans la vidéo. Une valeur plus élevée conduit à une vidéo plus fluide,
mais limite l'accélération de la caméra (mouvements pan/tilt). 0 est un cas particulier
où une caméra statique est simulée.

optalgo
Définissez l'algorithme d'optimisation du chemin de la caméra.

Les valeurs acceptées sont :

Gauss
filtre passe-bas à noyau gaussien sur le mouvement de la caméra (par défaut)

avg faire la moyenne des transformations

décalage max
Définissez le nombre maximal de pixels pour traduire les images. La valeur par défaut est -1, ce qui signifie non
limite.

angle max
Définissez l'angle maximal en radians (degré*PI/180) pour faire pivoter les images. La valeur par défaut est -1,
signifiant aucune limite.

récolte
Spécifiez comment traiter les bordures qui peuvent être visibles en raison de la compensation de mouvement.

Les valeurs disponibles sont :

garder
conserver les informations de l'image de l'image précédente (par défaut)

noir
remplir la bordure noire

inverser
Inverser les transformations si défini sur 1. La valeur par défaut est 0.

relatif
Considérez les transformations comme relatives à l'image précédente si elle est définie sur 1, absolue si définie sur 0.
La valeur par défaut est 0.

zoom
Définissez le pourcentage de zoom. Une valeur positive entraînera un effet de zoom avant, une valeur négative
valeur dans un effet de zoom arrière. La valeur par défaut est 0 (pas de zoom).

opterzoom
Définissez un zoom optimal pour éviter les bordures.

Les valeurs acceptées sont :

0 handicapé

1 la valeur de zoom statique optimale est déterminée (seuls des mouvements très forts conduiront à
bordures visibles) (par défaut)

2 la valeur de zoom adaptatif optimale est déterminée (aucune bordure ne sera visible), voir
vitesse de zoom

A noter que la valeur donnée au zoom s'ajoute à celle calculée ici.

vitesse de zoom
Réglez le pourcentage pour zoomer au maximum sur chaque image (activé lorsque opterzoom est réglé sur 2). La plage est
de 0 à 5, la valeur par défaut est 0.25.

Interpol
Spécifiez le type d'interpolation.

Les valeurs disponibles sont :

aucune pas d'interpolation

linéaire
linéaire uniquement horizontal

bilinéaire
linéaire dans les deux sens (par défaut)

bicubique
cubique dans les deux sens (lent)

trépied
Activez le mode trépied virtuel s'il est défini sur 1, ce qui équivaut à
"relatif=0:lissage=0". La valeur par défaut est 0.

Utilisez également l'option "trépied" de vidstabdétect.

déboguer
Augmentez la verbosité du journal si elle est définie sur 1. Les mouvements globaux détectés sont également écrits dans
le fichier temporaire global_motions.trf. La valeur par défaut est 0.

Exemples

· Utilisation ffmpeg pour une stabilisation type avec des valeurs par défaut :

ffmpeg -i inp.mpeg -vf vidstabtransform,unsharp=5:5:0.8:3:3:0.4 inp_tabilised.mpeg

Notez l'utilisation du flou filtre qui est toujours recommandé.

· Zoomez un peu plus et chargez les données de transformation à partir d'un fichier donné :

vidstabtransform=zoom=5:input="mytransforms.trf"

· Lissez encore plus la vidéo :

vidstabtransform=lissage=30

retournement
Retournez la vidéo d'entrée verticalement.

Par exemple, pour retourner verticalement une vidéo avec ffmpeg:

ffmpeg -i in.avi -vf "vflip" out.avi

vignette
Créez ou inversez un effet de vignettage naturel.

Le filtre accepte les options suivantes :

angle, a
Définissez l'expression de l'angle de l'objectif en nombre de radians.

La valeur est écrêtée dans la plage "[0,PI/2]".

Valeur par défaut : « PI/5 »

x0
y0 Définir les expressions de coordonnées centrales. Respectivement "w/2" et "h/2" par défaut.

mode
Réglez le mode avant/arrière.

Les modes disponibles sont :

:
Plus la distance par rapport au point central est grande, plus l'image devient sombre.

vers l'arrière
Plus la distance par rapport au point central est grande, plus l'image devient lumineuse.
Cela peut être utilisé pour inverser un effet de vignette, bien qu'il n'y ait pas de
détection pour extraire la lentille angle et d'autres paramètres (encore). Il peut également être utilisé
pour créer un effet brûlant.

La valeur par défaut est :.

eval
Définir le mode d'évaluation pour les expressions (angle, x0, y0).

Il accepte les valeurs suivantes :

init
N'évaluez les expressions qu'une seule fois lors de l'initialisation du filtre.

cadre
Évaluez les expressions pour chaque trame entrante. C'est beaucoup plus lent que le init
car il nécessite de recalculer tous les scalers, mais il permet
expressions dynamiques.

La valeur par défaut est init.

tergiversent
Réglez le tramage pour réduire les effets de bandes circulaires. La valeur par défaut est 1 (activé).

d'aspect
Définir l'aspect vignette. Ce paramètre permet d'ajuster la forme de la vignette.
Régler cette valeur sur le SAR de l'entrée fera un vignettage rectangulaire
suivant les dimensions de la vidéo.

La valeur par défaut est "1/1".

Expressions

La Alpha, x0 ainsi que y0 les expressions peuvent contenir les paramètres suivants.

w
h largeur et hauteur d'entrée

n le nombre de trame d'entrée, à partir de 0

pts le temps PTS (Presentation TimeStamp) de l'image vidéo filtrée, exprimé en TB
unités, NAN si non défini

r fréquence d'images de la vidéo d'entrée, NAN si la fréquence d'images d'entrée est inconnue

t le PTS (Presentation TimeStamp) de la trame vidéo filtrée, exprimé en secondes,
NAN si non défini

tb base de temps de la vidéo d'entrée

Exemples

· Appliquer un simple effet de vignettage fort :

vignette=PI/4

· Faire un vignettage scintillant :

vignette='PI/4+aléatoire(1)*PI/50':eval=cadre

vstack
Empilez les vidéos d'entrée verticalement.

Tous les flux doivent être du même format de pixels et de la même largeur.

Notez que ce filtre est plus rapide que d'utiliser revêtement ainsi que chemin filtre pour créer la même sortie.

Le filtre accepte l'option suivante :

nb_entrées
Définir le nombre de flux d'entrée. La valeur par défaut est 2.

w3fdif
Désentrelacez la vidéo d'entrée ("w3fdif" signifie "Weston 3 Field Deinterlacing Filter").

Basé sur le processus décrit par Martin Weston pour BBC R&D, et mis en œuvre sur la base du
algorithme de désentrelacement écrit par Jim Easterbrook pour BBC R&D, le champ Weston 3
Le filtre de désentrelacement utilise des coefficients de filtre calculés par BBC R&D.

Il existe deux ensembles de coefficients de filtrage, appelés "simples" et "complexes". Quel ensemble de
les coefficients de filtrage utilisés peuvent être définis en passant un paramètre facultatif :

une fonction filtre
Définissez les coefficients du filtre d'entrelacement. Accepte l'une des valeurs suivantes :

simple
Ensemble de coefficients de filtrage simple.

complexe
Ensemble de coefficients de filtrage plus complexe.

La valeur par défaut est complexe.

déint
Spécifiez les images à désentrelacer. Acceptez l'une des valeurs suivantes :

TOUTE Désentrelacez toutes les trames,

entrelacée
Ne désentrelacez que les trames marquées comme entrelacées.

La valeur par défaut est TOUTE.

forme d'onde
Moniteur de forme d'onde vidéo.

Le moniteur de forme d'onde trace l'intensité de la composante de couleur. Par défaut luminance uniquement. Chaque
colonne de la forme d'onde correspond à une colonne de pixels dans la vidéo source.

Il accepte les options suivantes :

Mode, m
Peut être soit "ligne", soit "colonne". La valeur par défaut est « colonne ». En mode ligne, le graphique sur le
le côté gauche représente la valeur du composant de couleur 0 et le côté droit représente la valeur =
255. En mode colonne, le côté supérieur représente la valeur du composant de couleur = 0 et le côté inférieur
représente la valeur = 255.

intensité, i
Réglez l'intensité. Des valeurs plus petites sont utiles pour savoir combien de valeurs du même
la luminance est répartie sur les lignes/colonnes d'entrée. La valeur par défaut est 0.04. Permis
la plage est [0, 1].

miroir, r
Définir le mode de mise en miroir. 0 signifie non mis en miroir, 1 signifie mis en miroir. En mode miroir, plus haut
les valeurs seront représentées à gauche pour le mode "ligne" et en haut pour "colonne"
mode. La valeur par défaut est 1 (en miroir).

affichage, d
Définir le mode d'affichage. Il accepte les valeurs suivantes :

revêtement
Présente des informations identiques à celles du « défilé », sauf que les graphiques
représentant des composants de couleur sont superposés directement les uns sur les autres.

Ce mode d'affichage permet de repérer plus facilement les différences ou les similitudes relatives dans
zones de chevauchement des composantes de couleur qui sont censées être identiques, telles que
comme des blancs, des gris ou des noirs neutres.

parade
Afficher un graphique séparé pour les composants de couleur côte à côte en mode "ligne" ou un
en dessous de l'autre en mode "colonne".

L'utilisation de ce mode d'affichage permet de repérer facilement les dominantes de couleur dans les hautes lumières et
les ombres d'une image, en comparant les contours des graphiques du haut et du bas de
chaque forme d'onde. Étant donné que les blancs, les gris et les noirs sont caractérisés par des valeurs exactement égales
quantités de rouge, vert et bleu, les zones neutres de l'image doivent afficher trois
formes d'onde de largeur/hauteur à peu près égales. Sinon, la correction est facile à effectuer
en effectuant des réglages de niveau sur les trois formes d'onde.

La valeur par défaut est "parade".

Composants, c
Définissez les composants de couleur à afficher. La valeur par défaut est 1, ce qui signifie uniquement la luminance ou le rouge
composante de couleur si l'entrée est dans l'espace colorimétrique RVB. Si est défini par exemple sur 7, il sera
afficher les 3 (si) composants de couleur disponibles.

enveloppe, e
aucun
Pas d'enveloppe, c'est par défaut.

instantané
L'enveloppe instantanée, les valeurs minimales et maximales présentées dans le graphique seront facilement
visible même avec une petite valeur de "pas".

pic
Conservez les valeurs minimales et maximales présentées dans le graphique au fil du temps. De cette façon, vous pouvez
toujours repérer les valeurs hors limites sans constamment regarder les formes d'onde.

pic+instantané
Enveloppe de crête et instantanée combinées.

filtre, f
passe-bas
Pas de filtrage, c'est par défaut.

plat
Luma et chroma combinés ensemble.

un appartement
Similaire à ci-dessus, mais montre une différence entre le chroma bleu et rouge.

chroma
Affiche uniquement la chrominance.

achromie
Similaire à ci-dessus, mais montre une différence entre le chroma bleu et rouge.

Couleur
Affiche la valeur de couleur réelle sur la forme d'onde.

xb
Appliquez le filtre de grossissement xBR de haute qualité conçu pour le pixel art. Ce
suit un ensemble de règles de détection des contours, voir
<http://www.libretro.com/forums/viewtopic.php?f=6&t=134>.

Il accepte l'option suivante :

n Définissez la dimension de mise à l'échelle : 2 pour "2xBR", 3 pour "3xBR" et 4 pour "4xBR". La valeur par défaut est 3.

Yadif
Désentrelacez la vidéo d'entrée ("yadif" signifie "encore un autre filtre de désentrelacement").

Il accepte les paramètres suivants :

mode
Le mode d'entrelacement à adopter. Il accepte l'une des valeurs suivantes :

0, envoyer_frame
Sortez une image pour chaque image.

1, champ_envoi
Sortez une trame pour chaque champ.

2, send_frame_nospatial
Comme "send_frame", mais il ignore la vérification de l'entrelacement spatial.

3, send_field_nospatial
Comme "send_field", mais il ignore la vérification de l'entrelacement spatial.

La valeur par défaut est "send_frame".

parité
La parité de champ d'image supposée pour la vidéo entrelacée d'entrée. Il accepte l'un des
valeurs suivantes:

0, tff
Supposons que le champ du haut soit le premier.

1, bff
Supposons que le champ du bas soit le premier.

-1, auto
Activer la détection automatique de la parité des champs.

La valeur par défaut est "auto". Si l'entrelacement est inconnu ou si le décodeur ne
exporter ces informations, le champ supérieur sera utilisé en premier.

déint
Spécifiez les images à désentrelacer. Acceptez l'une des valeurs suivantes :

0, TOUTE
Désentrelacez toutes les images.

1, entrelacée
Ne désentrelacez que les trames marquées comme entrelacées.

La valeur par défaut est "tout".

zoom panoramique
Appliquer l'effet Zoom & Pan.

Ce filtre accepte les options suivantes :

Zoom, z
Définissez l'expression du zoom. La valeur par défaut est 1.

x
y Définissez l'expression x et y. La valeur par défaut est 0.

d Définissez l'expression de durée en nombre d'images. Cela définit pour combien de nombre de
l'effet d'images durera pour une seule image d'entrée.

s Définissez la taille de l'image de sortie, la valeur par défaut est « hd720 ».

Chaque expression peut contenir les constantes suivantes :

en W, iw
Largeur d'entrée.

in_h, ih
Hauteur d'entrée.

dehors_w, ow
Largeur de sortie.

out_h, oh
Hauteur de sortie.

in Nombre d'images d'entrée.

on Nombre d'images de sortie.

x
y Dernière position « x » et « y » calculée à partir de l'expression « x » et « y » pour l'entrée actuelle
cadre.

px
py 'x' et 'y' de la dernière trame de sortie de la trame d'entrée précédente ou 0 quand il n'y en avait pas encore
telle trame (première trame d'entrée).

zoom
Dernier zoom calculé à partir de l'expression « z » pour l'image d'entrée actuelle.

zoom
Dernier zoom calculé de la dernière image de sortie de l'image d'entrée précédente.

durée
Nombre de trames de sortie pour la trame d'entrée actuelle. Calculé à partir de l'expression 'd' pour
chaque trame d'entrée.

durée
nombre de trames de sortie créées pour la trame d'entrée précédente

a Nombre rationnel : largeur d'entrée / hauteur d'entrée

sar exemple de rapport hauteur/largeur

donner rapport hauteur/largeur d'affichage

Exemples

· Zoom avant jusqu'à 1.5 et panoramique en même temps à un endroit près du centre de l'image :

zoompan=z='min(zoom+0.0015,1.5)':d=700:x='if(gte(zoom,1.5),x,x+1/a)':y='if(gte(zoom,1.5),y,y+1)':s=640x360

· Zoom avant jusqu'à 1.5 et panoramique toujours au centre de l'image :

zoompan=z='min(zoom+0.0015,1.5)':d=700:x='iw/2-(iw/zoom/2)':y='ih/2-(ih/zoom/2)'

VIDÉO SOURCES


Vous trouverez ci-dessous une description des sources vidéo actuellement disponibles.

tampon
Tamponnez les images vidéo et mettez-les à disposition de la chaîne de filtrage.

Cette source est principalement destinée à un usage programmatique, notamment au travers de l'interface
défini dans libavfilter/vsrc_buffer.h.

Il accepte les paramètres suivants :

taille_vidéo
Spécifiez la taille (largeur et hauteur) des images vidéo mises en mémoire tampon. Pour la syntaxe de
cette option, cochez la "Vidéo Taille" in le ffmpeg-utils Manuel.

largeur
La largeur de la vidéo d'entrée.

la taille
La hauteur de la vidéo d'entrée.

pix_fmt
Une chaîne représentant le format de pixel des images vidéo mises en mémoire tampon. C'est peut-être un
nombre correspondant à un format de pixel, ou un nom de format de pixel.

base_temps
Spécifiez la base de temps prise en compte par les horodatages des trames mises en mémoire tampon.

frame_rate
Spécifiez la fréquence d'images attendue pour le flux vidéo.

aspect_pixel, sar
Le rapport hauteur/largeur de l'échantillon (pixel) de la vidéo d'entrée.

sws_param
Spécifiez les paramètres facultatifs à utiliser pour le filtre d'échelle qui est automatiquement
inséré lorsqu'un changement d'entrée est détecté dans la taille ou le format d'entrée.

Par exemple :

buffer=width=320:height=240:pix_fmt=yuv410p:time_base=1/24:sar=1

demandera à la source d'accepter les images vidéo de taille 320x240 et au format
"yuv410p", en supposant 1/24 comme base de temps d'horodatage et pixels carrés (aspect de l'échantillon 1:1
rapport). Étant donné que le format de pixel portant le nom "yuv410p" correspond au numéro 6 (vérifiez le
enum AVPixelFormat définition dans libavutil/pixfmt.h), cet exemple correspond à :

buffer=size=320x240:pixfmt=6:time_base=1/24:pixel_aspect=1/1

Alternativement, les options peuvent être spécifiées sous forme de chaîne plate, mais cette syntaxe est
obsolète :

largeur:la taille:pix_fmt:base_temps.num:time_base.den:pixel_aspect.num:pixel_aspect.den[:sws_param]

celluleauto
Créer un motif généré par un automate cellulaire élémentaire.

L'état initial de l'automate cellulaire peut être défini à travers le nom de fichieret
modèle option. Si de telles options ne sont pas spécifiées, un état initial est créé de manière aléatoire.

A chaque nouvelle image, une nouvelle ligne dans la vidéo est remplie avec le résultat du cellulaire
automate nouvelle génération. Le comportement lorsque tout le cadre est rempli est défini par le
volute option.

Cette source accepte les options suivantes :

nom de fichier, f
Lire l'état initial de l'automate cellulaire, c'est-à-dire la ligne de départ, à partir du
déposer. Dans le fichier, chaque caractère non blanc est considéré comme une cellule vivante, un
newline terminera la ligne et les autres caractères du fichier seront ignorés.

modèle, p
Lire l'état initial de l'automate cellulaire, c'est-à-dire la ligne de départ, à partir du
chaîne.

Chaque caractère non blanc dans la chaîne est considéré comme une cellule vivante, une nouvelle ligne
terminera la ligne et les autres caractères de la chaîne seront ignorés.

taux, r
Définissez le taux vidéo, c'est-à-dire le nombre d'images générées par seconde. La valeur par défaut est 25.

rapport_de_remplissage_aléatoire, rapport
Définissez le taux de remplissage aléatoire pour la ligne initiale de l'automate cellulaire. C'est un flottant
valeur du numéro de point allant de 0 à 1, la valeur par défaut est 1/PHI.

Cette option est ignorée lorsqu'un fichier ou un modèle est spécifié.

graine_aléatoire, seed
Définir la graine pour remplir aléatoirement la ligne initiale, doit être un entier compris entre
0 et UINT32_MAX. S'il n'est pas spécifié, ou s'il est explicitement défini sur -1, le filtre essaiera de
utiliser une bonne graine aléatoire sur la base du meilleur effort.

exclure
Définir la règle de l'automate cellulaire, c'est un nombre allant de 0 à 255. Valeur par défaut
est 110.

Taille, s
Définissez la taille de la vidéo de sortie. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel.

If nom de fichier or modèle est spécifié, la taille est définie par défaut sur la largeur du
ligne d'état initial spécifiée, et la hauteur est définie sur largeur * ISP.

If taille est défini, il doit contenir la largeur de la chaîne de modèle spécifiée et le
le motif spécifié sera centré dans la rangée la plus grande.

Si un nom de fichier ou une chaîne de modèle n'est pas spécifié, la valeur de taille par défaut est
"320x518" (utilisé pour un état initial généré aléatoirement).

volute
S'il est défini sur 1, faites défiler la sortie vers le haut lorsque toutes les lignes de la sortie ont été
déjà rempli. Si défini sur 0, la nouvelle ligne générée sera écrite sur la ligne du haut
juste après que la ligne du bas soit remplie. La valeur par défaut est 1.

start_full, plein
S'il est défini sur 1, remplissez complètement la sortie avec les lignes générées avant de sortir le
premier cadre. Il s'agit du comportement par défaut, pour la désactivation, définissez la valeur sur 0.

point
S'il est défini sur 1, cousez ensemble les bords des rangées gauche et droite. C'est la valeur par défaut
comportement, pour désactiver, définissez la valeur sur 0.

Exemples

· Lire l'état initial de modèle, et spécifiez une sortie de taille 200x400.

cellauto=f=motif:s=200x400

· Générez une ligne initiale aléatoire d'une largeur de 200 cellules, avec un taux de remplissage de 2/3 :

celluleauto=rapport=2/3:s=200x200

· Créer un motif généré par la règle 18 en commençant par une seule cellule vivante centrée sur un
ligne initiale de largeur 100 :

cellauto=p=@s=100x400:full=0:rule=18

· Spécifiez un modèle initial plus élaboré :

cellauto=p='@@ @ @@':s=100x400:full=0:rule=18

Mandelbrot
Générez une fractale d'ensemble de Mandelbrot, et zoomez progressivement vers le point spécifié avec
début_x ainsi que start_y.

Cette source accepte les options suivantes :

fin_pts
Définissez la valeur des points terminaux. La valeur par défaut est 400.

fin_échelle
Réglez la valeur de l'échelle terminale. Doit être une valeur à virgule flottante. La valeur par défaut est 0.3.

intérieur
Définir le mode de coloration interne, c'est-à-dire l'algorithme utilisé pour dessiner la fractale de Mandelbrot
région intérieure.

Il doit prendre l'une des valeurs suivantes :

noir
Réglez le mode noir.

convergence
Afficher le temps jusqu'à la convergence.

Mincol
Définissez la couleur en fonction du point le plus proche de l'origine des itérations.

période
Définir le mode période.

La valeur par défaut est Mincol.

sauvetage
Définissez la valeur du renflouement. La valeur par défaut est 10.0.

maximum
Définissez le maximum d'itérations effectuées par l'algorithme de rendu. La valeur par défaut est
7189.

extérieur
Définir le mode de coloration externe. Il doit prendre l'une des valeurs suivantes :

nombre_d'itérations
Définir le mode de décompte d'itération.

normalized_iteration_count
définir le mode de comptage d'itérations normalisé.

La valeur par défaut est normalized_iteration_count.

taux, r
Définir la fréquence d'images, exprimée en nombre d'images par seconde. La valeur par défaut est "25".

Taille, s
Définir la taille du cadre. Pour la syntaxe de cette option, consultez la section "Taille de la vidéo" dans la
manuel ffmpeg-utils. La valeur par défaut est "640x480".

start_scale
Définissez la valeur d'échelle initiale. La valeur par défaut est 3.0.

début_x
Définissez la position x initiale. Doit être une valeur à virgule flottante comprise entre -100 et 100.
La valeur par défaut est -0.743643887037158704752191506114774.

start_y
Définissez la position y initiale. Doit être une valeur à virgule flottante comprise entre -100 et 100.
La valeur par défaut est -0.131825904205311970493132056385139.

mptestsrc
Générez divers modèles de test, tels que générés par le filtre de test MPlayer.

La taille de la vidéo générée est fixe et est de 256x256. Cette source est utile dans
notamment pour tester les fonctionnalités d'encodage.

Cette source accepte les options suivantes :

taux, r
Spécifiez la fréquence d'images de la vidéo source, en tant que nombre d'images générées par
seconde. Il doit s'agir d'une chaîne au format frame_rate_num/frame_rate_den, un nombre entier
nombre, un nombre à virgule flottante ou une abréviation de fréquence d'images vidéo valide. Le défaut
la valeur est "25".

durée, d
Définissez la durée de la vidéo source. Voir le Temps durée in le
ffmpeg-utils(1) Manuel pour la syntaxe acceptée.

Si non spécifié, ou si la durée exprimée est négative, la vidéo est censée être
généré pour toujours.

test t
Définissez le numéro ou le nom du test à effectuer. Les tests pris en charge sont :

dc_luma
dc_chroma
fréquence_luma
fréquence_chroma
amp_luma
amp_chroma
cbp
mv
ring1
ring2
TOUTE

La valeur par défaut est "all", ce qui fera défiler la liste de tous les tests.

Quelques exemples:

mptestsrc=t=dc_luma

générera un motif de test "dc_luma".

frei0r_src
Fournir une source plus libre.

Pour activer la compilation de ce filtre, vous devez installer l'en-tête frei0r et configurer
FFmpeg avec "--enable-frei0r".

Cette source accepte les paramètres suivants :

taille
La taille de la vidéo à générer. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel.

framerate
La fréquence d'images de la vidéo générée. Il peut s'agir d'une chaîne de la forme num/jour ou
abréviation de fréquence d'images.

nom_filtre
Le nom de la source libre à charger. Pour plus d'informations sur frei0r et comment
pour régler les paramètres, lisez le plus libre dans la documentation des filtres vidéo.

filtre_params
Une liste de paramètres séparés par '|' à transmettre à la source frei0r.

Par exemple, pour générer une source frei0r partik0l avec une taille de 200x200 et une fréquence d'images de 10
qui est superposé à l'entrée principale du filtre de superposition :

frei0r_src=size=200x200:framerate=10:filter_name=partik0l:filter_params=1234 [overlay] ; [in][overlay] superposition

life
Générer un modèle de vie.

Cette source est basée sur une généralisation du jeu de la vie de John Conway.

L'entrée sourcée représente une grille de vie, chaque pixel représente une cellule qui peut être dans une
de deux états possibles, vivant ou mort. Chaque cellule interagit avec ses huit voisines,
qui sont les cellules qui sont horizontalement, verticalement ou diagonalement adjacentes.

A chaque interaction la grille évolue selon la règle adoptée, qui précise les
nombre de cellules voisines vivantes qui permettront à une cellule de rester vivante ou de naître. le exclure option
permet de préciser la règle à adopter.

Cette source accepte les options suivantes :

nom de fichier, f
Définissez le fichier à partir duquel lire l'état initial de la grille. Dans le fichier, chaque non-
le caractère d'espacement est considéré comme une cellule vivante, et la nouvelle ligne est utilisée pour délimiter le
fin de chaque rangée.

Si cette option n'est pas spécifiée, la grille initiale est générée aléatoirement.

taux, r
Définissez le taux vidéo, c'est-à-dire le nombre d'images générées par seconde. La valeur par défaut est 25.

rapport_de_remplissage_aléatoire, rapport
Définissez le taux de remplissage aléatoire pour la grille aléatoire initiale. C'est un nombre à virgule flottante
valeur comprise entre 0 et 1, la valeur par défaut est 1/PHI. Il est ignoré lorsqu'un fichier est spécifié.

graine_aléatoire, seed
Définir la graine pour remplir la grille aléatoire initiale, doit être un entier compris entre
0 et UINT32_MAX. S'il n'est pas spécifié, ou s'il est explicitement défini sur -1, le filtre essaiera de
utiliser une bonne graine aléatoire sur la base du meilleur effort.

exclure
Fixez la règle de vie.

Une règle peut être spécifiée avec un code du type "SNS/BNB", où NS ainsi que NB
séquences de nombres compris entre 0 et 8, NS spécifie le nombre de cellules voisines vivantes
qui font qu'une cellule vivante reste en vie, et NB le nombre de cellules voisines vivantes qui
faire une cellule morte pour devenir vivante (c'est-à-dire pour "né"). "s" et "b" peuvent être utilisés à la place
de "S" et "B", respectivement.

Alternativement, une règle peut être spécifiée par un entier de 18 bits. Les 9 bits de poids fort sont
utilisé pour coder l'état de la cellule suivante s'il est vivant pour chaque nombre de voisin vivant
cellules, les bits de poids faible spécifient la règle pour « naître » de nouvelles cellules. Bits d'ordre supérieur
coder pour un nombre plus élevé de cellules voisines. Par exemple le nombre 6153 =
"(12<<9)+9" spécifie une règle de séjour en vie de 12 et une règle de naissance de 9, ce qui correspond
à "S23/B03".

La valeur par défaut est "S23/B3", qui est la règle originale du jeu de la vie de Conway, et
garder une cellule en vie si elle a 2 ou 3 cellules voisines vivantes, et naîtra une nouvelle cellule si
il y a trois cellules vivantes autour d'une cellule morte.

Taille, s
Définissez la taille de la vidéo de sortie. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel.

If nom de fichier est spécifié, la taille est définie par défaut sur la même taille que l'entrée
déposer. Si taille est défini, il doit contenir la taille spécifiée dans le fichier d'entrée, et le
la grille initiale définie dans ce fichier est centrée dans la plus grande zone résultante.

Si aucun nom de fichier n'est spécifié, la valeur par défaut de la taille est « 320x240 » (utilisée pour un
grille initiale générée aléatoirement).

point
S'il est défini sur 1, cousez les bords gauche et droit de la grille ensemble, et le haut et le bas
bords aussi. La valeur par défaut est 1.

moule
Réglez la vitesse du moule de la cellule. Si défini, une cellule morte ira de couleur_mort à couleur_moule avec une
étape de moule. moule peut avoir une valeur de 0 à 255.

couleur_vie
Définissez la couleur des cellules vivantes (ou nouveau-nées).

couleur_mort
Définissez la couleur des cellules mortes. Si moule est défini, c'est la première couleur utilisée pour représenter
une cellule morte.

couleur_moule
Réglez la couleur de la moisissure, pour les cellules définitivement mortes et moisies.

Pour la syntaxe de ces 3 options de couleur, consultez la section "Couleur" dans le ffmpeg-utils
manuel.

Exemples

· Lire une grille de modèle, et centrez-le sur une grille de taille 300x300 pixels :

vie=f=motif:s=300x300

· Générer une grille aléatoire de taille 200x200, avec un taux de remplissage de 2/3 :

vie=rapport=2/3:s=200x200

· Spécifiez une règle personnalisée pour faire évoluer une grille générée aléatoirement :

vie=règle=S14/B34

· Exemple complet avec effet de mort lente (moule) utilisant ffplay:

ffplay -f lavfi life=s=300x200:mold=10:r=60:ratio=0.1:death_color=#C83232:life_color=#00ff00,scale=1200:800:flags=16

tout RVB, allouv, couleur, haldclutsrc, nullsrc, rgbtestsrc, barres smpte, smptehdbars, testsrc
La source "allrgb" renvoie des images de taille 4096x4096 de toutes les couleurs RVB.

La source "allyuv" renvoie des images de taille 4096x4096 de toutes les couleurs yuv.

La source "couleur" fournit une entrée uniformément colorée.

La source "haldclutsrc" fournit une identité Hald CLUT. Voir également hadclut filtre.

La source "nullsrc" renvoie des images vidéo non traitées. Il est surtout utile d'être employé
dans les outils d'analyse / de débogage, ou comme source de filtres qui ignorent les données d'entrée.

La source "rgbtestsrc" génère un motif de test RVB utile pour détecter RVB vs BGR
problèmes. Vous devriez voir une bande rouge, verte et bleue de haut en bas.

La source "smptebars" génère un motif de barres de couleur, basé sur l'ingénierie SMPTE
Ligne directrice EG 1-1990.

La source "smptehdbars" génère un motif de barres de couleur, basé sur le SMPTE RP 219-2002.

La source "testsrc" génère un motif vidéo de test, montrant un motif de couleur, un défilement
gradient et un horodatage. Ceci est principalement destiné à des fins de test.

Les sources acceptent les paramètres suivants :

couleur, c
Précisez la couleur de la source, disponible uniquement dans la source "couleur". Pour la syntaxe
de cette option, vérifiez la section "Couleur" dans le manuel ffmpeg-utils.

niveau
Spécifie le niveau du Hald CLUT, disponible uniquement dans la source "haldclutsrc". UNE
le niveau de "N" génère une image de "N*N*N" par "N*N*N" pixels à utiliser comme identité
matrice pour les tables de recherche 3D. Chaque composante est codée sur une échelle "1/(N*N)".

Taille, s
Spécifiez la taille de la vidéo source. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel. La valeur par défaut est "320x240".

Cette option n'est pas disponible avec le filtre "haldclutsrc".

taux, r
Spécifiez la fréquence d'images de la vidéo source, en tant que nombre d'images générées par
seconde. Il doit s'agir d'une chaîne au format frame_rate_num/frame_rate_den, un nombre entier
nombre, un nombre à virgule flottante ou une abréviation de fréquence d'images vidéo valide. Le défaut
la valeur est "25".

sar Définissez le rapport hauteur/largeur de l'échantillon de la vidéo source.

durée, d
Définissez la durée de la vidéo source. Voir le Temps durée in le
ffmpeg-utils(1) Manuel pour la syntaxe acceptée.

Si non spécifié, ou si la durée exprimée est négative, la vidéo est censée être
généré pour toujours.

décimales, n
Définir le nombre de décimales à afficher dans l'horodatage, uniquement disponible dans le "testsrc"
la source.

La valeur d'horodatage affichée correspondra à la valeur d'horodatage d'origine
multiplié par la puissance 10 de la valeur spécifiée. La valeur par défaut est 0.

Par exemple ce qui suit :

testsrc=duration=5.3:size=qcif:rate=10

générera une vidéo d'une durée de 5.3 secondes, avec une taille de 176x144 et une fréquence d'images
de 10 images par seconde.

La description du graphe suivant va générer une source rouge avec une opacité de 0.2, avec
taille "qcif" et une fréquence d'images de 10 images par seconde.

couleur=c=[email protected]:s=qcif:r=10

Si le contenu d'entrée doit être ignoré, "nullsrc" peut être utilisé. La commande suivante
génère du bruit dans le plan de luminance en utilisant le filtre "geq":

nullsrc=s=256x256, geq=aléatoire(1)*255:128:128

Commandes

La source "couleur" prend en charge les commandes suivantes :

c, Couleur
Définissez la couleur de l'image créée. Accepte la même syntaxe du correspondant Couleur
option.

VIDÉO PUITS


Vous trouverez ci-dessous une description des récepteurs vidéo actuellement disponibles.

évier tampon
Tamponnez les images vidéo et rendez-les disponibles jusqu'à la fin du graphique de filtrage.

Ce puits est principalement destiné à un usage programmatique, notamment via l'interface
défini dans libavfilter/bufferink.h ou le système d'options.

Il accepte un pointeur vers une structure AVBufferSinkContext, qui définit le
formats des buffers, à passer en paramètre opaque à "avfilter_init_filter" pour
initialisation

puits nul
Récepteur vidéo nul : ne faites absolument rien avec la vidéo d'entrée. Il est principalement utile comme
modèle et à utiliser dans les outils d'analyse / de débogage.

MULTIMEDIA FILTRES


Vous trouverez ci-dessous une description des filtres multimédia actuellement disponibles.

aphasemètre
Convertissez l'entrée audio en sortie vidéo, affichant la phase audio.

Le filtre accepte les options suivantes :

taux, r
Réglez la fréquence d'images de sortie. La valeur par défaut est 25.

Taille, s
Définissez la taille de la vidéo pour la sortie. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel. La valeur par défaut est "800x400".

rc
gc
bc Spécifiez le contraste rouge, vert, bleu. Les valeurs par défaut sont 2, 7 et 1. Plage autorisée
est "[0, 255]".

mpc Définir la couleur qui sera utilisée pour dessiner la phase médiane. Si la couleur est "aucune" qui est
par défaut, aucune valeur de phase médiane ne sera tracée.

Le filtre exporte également les métadonnées de trame "lavfi.aphasemeter.phase" qui représentent la moyenne
phase de la trame audio actuelle. La valeur est dans la plage "[-1, 1]". Le "-1" signifie gauche et droite
les canaux sont complètement déphasés et 1 signifie que les canaux sont en phase.

avectorscope
Convertissez l'audio d'entrée en une sortie vidéo, représentant le vecteur audio scope.

Le filtre est utilisé pour mesurer la différence entre les canaux du flux audio stéréo. UNE
signal monoaural, composé d'un signal gauche et droit identique, se traduit par une ligne droite
ligne verticale. Toute séparation stéréo est visible comme une déviation de cette ligne, créant un
Figurine de Lissajous. Si la ligne droite (ou déviation de celle-ci) mais horizontale apparaît, cette
indique que les canaux gauche et droit sont déphasés.

Le filtre accepte les options suivantes :

Mode, m
Réglez le mode vecteurscope.

Les valeurs disponibles sont :

lissajous
Lissajous a pivoté de 45 degrés.

lissajous_xy
Identique à ci-dessus mais pas tourné.

polaire
Forme ressemblant à la moitié d'un cercle.

La valeur par défaut est lissajous.

Taille, s
Définissez la taille de la vidéo pour la sortie. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel. La valeur par défaut est "400x400".

taux, r
Réglez la fréquence d'images de sortie. La valeur par défaut est 25.

rc
gc
bc
ac Spécifiez le contraste rouge, vert, bleu et alpha. Les valeurs par défaut sont 40, 160, 80 et
255. La plage autorisée est "[0, 255]".

rf
gf
bf
af Spécifiez le fondu rouge, vert, bleu et alpha. Les valeurs par défaut sont 15, 10, 5 et 5.
La plage autorisée est "[0, 255]".

zoom
Réglez le facteur de zoom. La valeur par défaut est 1. La plage autorisée est "[1, 10]".

Exemples

· Exemple complet en utilisant ffplay:

ffplay -f lavfi 'amovie=input.mp3, asplit [a][out1];
[a] avectorscope=zoom=1.3:rc=2:gc=200:bc=10:rf=1:gf=8:bf=7 [out0]'

concat
Concaténez les flux audio et vidéo en les joignant les uns après les autres.

Le filtre fonctionne sur des segments de flux vidéo et audio synchronisés. Tous les segments doivent
avoir le même nombre de flux de chaque type, et ce sera aussi le nombre de flux
en sortie.

Le filtre accepte les options suivantes :

n Définissez le nombre de segments. La valeur par défaut est 2.

v Définissez le nombre de flux vidéo de sortie, c'est aussi le nombre de flux vidéo dans
chaque segment. La valeur par défaut est 1.

a Définissez le nombre de flux audio de sortie, c'est aussi le nombre de flux audio dans
chaque segment. La valeur par défaut est 0.

le danger
Activer le mode non sécurisé : n'échoue pas si les segments ont un format différent.

Le filtre a v+a sorties : premier v sorties vidéo, puis a sorties audio.

Il y a nx(v+a) entrées : d'abord les entrées du premier segment, dans le même ordre que le
sorties, puis les entrées pour le deuxième segment, etc.

Les flux associés n'ont pas toujours exactement la même durée, pour diverses raisons
y compris la taille de l'image du codec ou la création bâclée. Pour cette raison, les synchronisations associées
les flux (par exemple une vidéo et sa piste audio) doivent être concaténés en une seule fois. Le concat
le filtre utilisera la durée du flux le plus long dans chaque segment (sauf le dernier),
et, si nécessaire, complétez les flux audio plus courts avec du silence.

Pour que ce filtre fonctionne correctement, tous les segments doivent commencer à l'horodatage 0.

Tous les flux correspondants doivent avoir les mêmes paramètres dans tous les segments ; le filtrage
système sélectionnera automatiquement un format de pixel commun pour les flux vidéo, et un
format d'échantillonnage, fréquence d'échantillonnage et disposition des canaux pour les flux audio, mais d'autres paramètres, tels que
comme résolution, doit être converti explicitement par l'utilisateur.

Des fréquences d'images différentes sont acceptables mais entraîneront une fréquence d'images variable à la sortie ; être
assurez-vous de configurer le fichier de sortie pour le gérer.

Exemples

· Concaténer une ouverture, un épisode et une fin, le tout en version bilingue (vidéo en
flux 0, audio dans les flux 1 et 2) :

ffmpeg -i ouverture.mkv -i épisode.mkv -i fin.mkv -filter_complex \
'[0:0] [0:1] [0:2] [1:0] [1:1] [1:2] [2:0] [2:1] [2:2]
concat=n=3:v=1:a=2 [v] [a1] [a2]' \
-map '[v]' -map '[a1]' -map '[a2]' output.mkv

· Concaténer deux parties, en gérant l'audio et la vidéo séparément, en utilisant le (a)film
sources, et ajuster la résolution :

film=part1.mp4, échelle=512:288 [v1] ; film=partie1.mp4 [a1] ;
film=part2.mp4, échelle=512:288 [v2] ; film=partie2.mp4 [a2] ;
[v1] [v2] concat [outv] ; [a1] [a2] concat=v=0:a=1 [outa]

Notez qu'une désynchronisation se produira au niveau du point si les flux audio et vidéo ne
ont exactement la même durée dans le premier fichier.

ebur128
Filtre scanner UER R128. Ce filtre prend un flux audio en entrée et le sort
inchangé. Par défaut, il enregistre un message à une fréquence de 10 Hz avec le Momentary
sonie (identifiée par "M"), sonie à court terme ("S"), sonie intégrée ("I") et
Plage de sonie ("LRA").

Le filtre dispose également d'une sortie vidéo (voir le vidéo option) avec un graphique en temps réel pour
observer l'évolution de l'intensité sonore. Le graphique contient le message enregistré mentionné ci-dessus,
il n'est donc plus imprimé lorsque cette option est définie, à moins que la journalisation détaillée ne soit définie.
La zone graphique principale contient l'intensité sonore à court terme (3 secondes d'analyse) et le
jauge sur la droite est pour le volume momentané (400 millisecondes).

Plus d'informations sur la recommandation de sonie UER R128 sur
<http://tech.ebu.ch/loudness>.

Le filtre accepte les options suivantes :

vidéo
Activez la sortie vidéo. Le flux audio est transmis sans changement, que cette option soit
réglé ou non. Le flux vidéo sera le premier flux de sortie s'il est activé. La valeur par défaut est
0.

taille
Définissez la taille de la vidéo. Cette option est pour la vidéo uniquement. Pour la syntaxe de cette option,
vérifier la "Vidéo Taille" in le ffmpeg-utils Manuel. Par défaut et minimum
la résolution est "640x480".

mètre
Réglez le compteur d'échelle EBU. La valeur par défaut est 9. Les valeurs communes sont 9 et 18, respectivement pour
Compteur d'échelle UER +9 et compteur d'échelle UER +18. Toute autre valeur entière entre cette plage
est autorisée.

métadonnées
Définir l'injection de métadonnées. Si réglé sur 1, l'entrée audio sera segmentée en 100 ms
trames de sortie, chacune d'entre elles contenant diverses informations de sonie dans les métadonnées. Tout
les clés de métadonnées sont préfixées par "lavfi.r128.".

La valeur par défaut est 0.

journal de trame
Forcer le niveau de journalisation des trames.

Les valeurs disponibles sont :

info
niveau d'enregistrement des informations

verbeux
niveau de journalisation détaillé

Par défaut, le niveau de journalisation est défini sur info. Si l' vidéo au sein de l’ métadonnées les options sont
réglé, il passe à verbeux.

pic
Définissez le(s) mode(s) de crête.

Les modes disponibles peuvent être cumulés (l'option est de type "drapeau"). Les valeurs possibles sont :

aucun
Désactivez tout mode de crête (par défaut).

échantillon
Activer le mode échantillon-crête.

Mode crête simple à la recherche de la valeur d'échantillon la plus élevée. Il enregistre un message pour
sample-peak (identifié par "SPK").

oui
Activez le mode de pointe vraie.

Si activé, la recherche de crête est effectuée sur une version suréchantillonnée du flux d'entrée
pour une meilleure précision des pics. Il enregistre un message pour true-peak. (identifié par "TPK")
et vrai pic par trame (identifié par "FTPK"). Ce mode nécessite une compilation avec
"libswresample".

Exemples

· Graphique en temps réel utilisant ffplay, avec un compteur EBU +18 :

ffplay -f lavfi -i "amovie=input.mp3,ebur128=video=1:meter=18 [out0][out1]"

· Exécuter une analyse avec ffmpeg:

ffmpeg -nostats -i input.mp3 -filter_complex ebur128 -f null -

entrelacer, intercaler
Entrelacer temporairement les trames de plusieurs entrées.

"interleave" fonctionne avec les entrées vidéo, "ainterleave" avec l'audio.

Ces filtres lisent les trames de plusieurs entrées et envoient la trame en file d'attente la plus ancienne au
sortie.

Les flux d'entrée doivent avoir des valeurs d'horodatage de trame bien définies et augmentant de manière monotone.

Afin de soumettre une trame à la sortie, ces filtres doivent mettre en file d'attente au moins une trame
pour chaque entrée, ils ne peuvent donc pas fonctionner si une entrée n'est pas encore terminée et ne
recevoir des trames entrantes.

Par exemple, considérons le cas où une entrée est un filtre "select" qui supprime toujours l'entrée
cadres. Le filtre "entrelacé" continuera à lire à partir de cette entrée, mais il ne sera jamais
capable d'envoyer de nouvelles trames en sortie jusqu'à ce que l'entrée envoie un signal de fin de flux.

De plus, en fonction de la synchronisation des entrées, les filtres abandonneront les trames au cas où une entrée
reçoit plus de trames que les autres, et la file d'attente est déjà remplie.

Ces filtres acceptent les options suivantes :

nb_entrées, n
Réglez le nombre d'entrées différentes, il est de 2 par défaut.

Exemples

· Entrelacer des trames appartenant à différents flux en utilisant ffmpeg:

ffmpeg -i bambi.avi -i pr0n.mkv -filter_complex "[0:v][1:v] entrelacé" out.avi

· Ajouter un effet de flou scintillant :

select='if(gt(aléatoire(0), 0.2), 1, 2)':n=2 [tmp], boxblur=2:2, [tmp] entrelacé

permanentes, apermes
Définissez les autorisations de lecture/écriture pour les trames de sortie.

Ces filtres s'adressent principalement aux développeurs pour tester le chemin direct dans le filtre suivant
dans le filtre graphique.

Les filtres acceptent les options suivantes :

mode
Sélectionnez le mode d'autorisation.

Il accepte les valeurs suivantes :

aucun
Ne fais rien. C'est la valeur par défaut.

ro Définissez toutes les trames de sortie en lecture seule.

rw Définissez toutes les trames de sortie directement inscriptibles.

basculer
Rendre le cadre en lecture seule s'il est accessible en écriture et en écriture si en lecture seule.

aléatoire
Définissez chaque trame de sortie en lecture seule ou en écriture de manière aléatoire.

seed
Mettre la graine pour le aléatoire mode, doit être un entier compris entre 0 et
"UINT32_MAX". S'il n'est pas spécifié, ou s'il est explicitement défini sur "-1", le filtre essaiera de
utiliser une bonne graine aléatoire sur la base du meilleur effort.

Remarque : en cas de filtre auto-inséré entre le filtre de permission et le suivant,
l'autorisation peut ne pas être reçue comme prévu dans le filtre suivant. Insertion d'un
le format or un format filtre avant le filtre perms/aperms peut éviter ce problème.

sélectionner, une sélection
Sélectionnez les images à transmettre en sortie.

Ce filtre accepte les options suivantes :

expression, e
Définir l'expression, qui est évaluée pour chaque image d'entrée.

Si l'expression est évaluée à zéro, le cadre est ignoré.

Si le résultat de l'évaluation est négatif ou NaN, la trame est envoyée à la première sortie ;
sinon il est envoyé à la sortie avec l'indice "ceil(val)-1", en supposant que l'entrée
l'index commence à partir de 0.

Par exemple une valeur de 1.2 correspond à la sortie d'indice "ceil(1.2)-1 = 2-1 =
1", c'est la deuxième sortie.

les sorties, n
Réglez le nombre de sorties. La sortie vers laquelle envoyer la trame sélectionnée est basée sur
le résultat de l'évaluation. La valeur par défaut est 1.

L'expression peut contenir les constantes suivantes :

n Le numéro (séquentiel) de la trame filtrée, à partir de 0.

sélectionné_n
Le numéro (séquentiel) de la trame sélectionnée, à partir de 0.

prev_selected_n
Le numéro séquentiel de la dernière image sélectionnée. C'est NAN si non défini.

TB La base de temps des horodatages d'entrée.

pts Le PTS (Presentation TimeStamp) de l'image vidéo filtrée, exprimé en TB unités.
C'est NAN si non défini.

t Le PTS de l'image vidéo filtrée, exprimé en secondes. C'est NAN si non défini.

prev_pts
Le PTS de l'image vidéo précédemment filtrée. C'est NAN si non défini.

prev_selected_pts
Le PTS de la dernière image vidéo précédemment filtrée. C'est NAN si non défini.

prev_selected_t
Le PTS de la dernière image vidéo précédemment sélectionnée. C'est NAN si non défini.

start_pts
Le PTS de la première image vidéo de la vidéo. C'est NAN si non défini.

début_t
L'heure de la première image vidéo de la vidéo. C'est NAN si non défini.

pict_type (vidéo seulement)
Le type de la trame filtrée. Il peut prendre l'une des valeurs suivantes :

I
P
B
S
SI
SP
BI
entrelacé_type (vidéo seulement)
Le type d'entrelacement de trame. Il peut prendre l'une des valeurs suivantes :

PROGRESSIVE
La trame est progressive (non entrelacée).

EN PREMIER
Le cadre est top-field-first.

EN PREMIER BAS
Le cadre est en bas du champ en premier.

échantillon_n_consommé (l'audio seulement)
le nombre d'échantillons sélectionnés avant la trame actuelle

échantillons_n (l'audio seulement)
le nombre d'échantillons dans la trame actuelle

taux d'échantillonnage (l'audio seulement)
le taux d'échantillonnage d'entrée

key C'est 1 si l'image filtrée est une image clé, 0 sinon.

poster la position dans le fichier de la trame filtrée, -1 si l'information n'est pas disponible
(par exemple pour la vidéo synthétique)

scène (vidéo seulement)
valeur comprise entre 0 et 1 pour indiquer une nouvelle scène ; une valeur faible reflète une probabilité faible
pour l'image actuelle pour introduire une nouvelle scène, tandis qu'une valeur plus élevée signifie la
frame est plus susceptible d'être un (voir l'exemple ci-dessous)

La valeur par défaut de l'expression de sélection est "1".

Exemples

· Sélectionnez toutes les trames en entrée :

Sélectionner

L'exemple ci-dessus est le même que :

sélectionner=1

· Ignorer toutes les images :

sélectionner=0

· Sélectionnez uniquement les images I :

select='eq(pict_type\,I)'

· Sélectionnez une image toutes les 100 :

select='pas(mod(n\,100))'

· Sélectionnez uniquement les images contenues dans l'intervalle de temps 10-20 :

select=entre(t\,10\,20)

· Sélectionnez uniquement les images I contenues dans l'intervalle de temps 10-20 :

select=entre(t\,10\,20)*eq(pict_type\,I)

· Sélectionnez des images avec une distance minimale de 10 secondes :

select='isnan(prev_selected_t)+gte(t-prev_selected_t\,10)'

· Utilisez aselect pour sélectionner uniquement les trames audio avec un nombre d'échantillons > 100 :

aselect='gt(samples_n\,100)'

· Créer une mosaïque des premières scènes :

ffmpeg -i video.avi -vf select='gt(scene\,0.4)',scale=160:120,tile -frames:v 1 preview.png

Comparaison scène contre une valeur comprise entre 0.3 et 0.5 est généralement un choix sensé.

· Envoyez des trames paires et impaires vers des sorties séparées et composez-les :

select=n=2:e='mod(n, 2)+1' [impair][pair]; [impair] pad=h=2*ih [tmp]; [tmp][even] overlay=y=h

envoyercmd, asendcmd
Envoyez des commandes aux filtres dans le filtergraph.

Ces filtres lisent les commandes à envoyer aux autres filtres du filtergraph.

"sendcmd" doit être inséré entre deux filtres vidéo, "asendcmd" doit être inséré entre
deux filtres audio, mais à part cela, ils agissent de la même manière.

La spécification des commandes peut être fournie dans les arguments du filtre avec le commandes
option, ou dans un fichier spécifié par le nom de fichier option.

Ces filtres acceptent les options suivantes :

commandes, c
Définissez les commandes à lire et à envoyer aux autres filtres.

nom de fichier, f
Définissez le nom de fichier des commandes à lire et à envoyer aux autres filtres.

Commandes syntaxe

Une description de commandes consiste en une séquence de spécifications d'intervalle, comprenant un
liste des commandes à exécuter lorsqu'un événement particulier lié à cet intervalle se produit.
L'événement qui se produit est généralement le temps de trame actuel entrant ou sortant d'un temps donné
intervalle.

Un intervalle est spécifié par la syntaxe suivante :

[- ] ;

L'intervalle de temps est spécifié par le La START ainsi que FIN fois. FIN est facultatif et par défaut
au temps maximum.

Le temps de trame actuel est pris en compte dans l'intervalle spécifié s'il est inclus dans
l'intervalle [La START, FIN), c'est-à-dire lorsque le temps est supérieur ou égal à La START Les modèles sont aussi
inférieur à FIN.

COMMANDES consiste en une séquence d'une ou plusieurs spécifications de commande, séparées par ",",
relatif à cet intervalle. La syntaxe d'une spécification de commande est donnée par :

[ ]

DRAPEAUX est facultatif et précise le type d'événements relatifs à l'intervalle de temps qui
activer l'envoi de la commande spécifiée, et doit être une séquence non nulle d'indicateurs d'identification
séparés par "+" ou "|" et compris entre "[" et "]".

Les drapeaux suivants sont reconnus :

entrer
La commande est envoyée lorsque l'horodatage de la trame actuelle entre dans l'intervalle spécifié. Dans
en d'autres termes, la commande est envoyée lorsque l'horodatage de la trame précédente n'était pas dans le
intervalle donné, et le courant est.

quitter
La commande est envoyée lorsque l'horodatage de la trame actuelle quitte l'intervalle spécifié. Dans
en d'autres termes, la commande est envoyée lorsque l'horodatage de la trame précédente était dans le
intervalle, et le courant ne l'est pas.

If DRAPEAUX n'est pas spécifié, une valeur par défaut de "[enter]" est supposée.

CIBLE spécifie la cible de la commande, généralement le nom de la classe de filtre ou un
nom d'instance de filtre spécifique.

COMMAND spécifie le nom de la commande pour le filtre cible.

ARG est facultatif et spécifie la liste facultative d'arguments pour le COMMAND.

Entre une spécification d'intervalle et une autre, des espaces ou des séquences de caractères
commençant par "#" jusqu'à la fin de la ligne, sont ignorés et peuvent être utilisés pour annoter des commentaires.

Une description BNF simplifiée de la syntaxe de spécification des commandes suit :

::= "entrer" | "laisser"
::= [(+|"|") ]
::= ["[" "]"] [ ]
::= [, ]
::= [- ]
::= [; ]

Exemples

· Spécifiez le changement de tempo audio à la seconde 4:

asendcmd=c='4.0 atempo tempo 1.5',atempo

· Spécifiez une liste de commandes drawtext et hue dans un fichier.

# afficher le texte dans l'intervalle 5-10
5.0-10.0 [enter] drawtext reinit 'fontfile=FreeSerif.ttf:text=hello world',
[laisser] drawtext reinit 'fontfile=FreeSerif.ttf:text=';

# désaturer l'image dans l'intervalle 15-20
15.0-20.0 [entrer] teinte s 0,
[enter] drawtext reinit 'fontfile=FreeSerif.ttf:text=nocolor',
[laisser] teinte s 1,
[laisser] drawtext reinit 'fontfile=FreeSerif.ttf:text=color';

# appliquer un effet de fondu de saturation exponentiel, à partir du temps 25
25 [entrer] teinte s exp(25-t)

Un filtergraph permettant de lire et de traiter la liste de commandes ci-dessus stockée dans un fichier
test.cmd, peut être spécifié avec :

sendcmd=f=test.cmd,drawtext=fontfile=FreeSerif.ttf:text='',hue

les paramètres, atouts
Modifiez le PTS (horodatage de présentation) des trames d'entrée.

"setpts" fonctionne sur les trames vidéo, "asetpts" sur les trames audio.

Ce filtre accepte les options suivantes :

expr
L'expression qui est évaluée pour chaque trame pour construire son horodatage.

L'expression est évaluée via l'API eval et peut contenir les constantes suivantes :

FRAME_RATE
fréquence d'images, définie uniquement pour une vidéo à fréquence d'images constante

PTS L'horodatage de la présentation en entrée

N Le nombre de trames d'entrée pour la vidéo ou le nombre d'échantillons consommés, non
y compris l'image actuelle pour l'audio, à partir de 0.

NB_CONSUMED_SAMPLES
Le nombre d'échantillons consommés, sans compter l'image actuelle (uniquement audio)

NB_ÉCHANTILLONS, S
Le nombre d'échantillons dans l'image actuelle (uniquement audio)

TAUX D'ÉCHANTILLONNAGE, SR
Le taux d'échantillonnage audio.

DÉMARRAGE
Le PTS de la première trame.

DÉPART
le temps en secondes de la première image

ENTRELACÉ
Indiquez si la trame actuelle est entrelacée.

T le temps en secondes de l'image actuelle

POS position d'origine dans le fichier du cadre, ou indéfini si indéfini pour le courant
cadre

PREV_INPTS
L'entrée précédente PTS.

PREV_INT
temps de saisie précédent en secondes

PREV_OUTPTS
La sortie précédente PTS.

PREV_OUTT
temps de sortie précédent en secondes

HEURE RTC
L'heure de l'horloge murale (RTC) en microsecondes. Ceci est obsolète, utilisez fiable(0) à la place.

RTCSTART
L'heure de l'horloge murale (RTC) au début du film en microsecondes.

TB La base de temps des horodatages d'entrée.

Exemples

· Commencer à compter le PTS à partir de zéro

setpts=PTS-STARTPTS

· Appliquer un effet de mouvement rapide :

points de consigne=0.5*PTS

· Appliquer un effet de ralenti :

points de consigne=2.0*PTS

· Définir un taux fixe de 25 images par seconde :

setpts=N/(25*To)

· Définir un taux fixe de 25 ips avec une certaine gigue :

setpts='1/(25*TB) * (N + 0.05 * sin(N*2*PI/25))'

· Appliquer un décalage de 10 secondes à l'entrée PTS :

setpts=PTS+10/To

· Générer des horodatages à partir d'une « source en direct » et rebaser sur la base de temps actuelle :

setpts='(RTCTIME - RTCSTART) / (To * 1000000)'

· Générer des horodatages en comptant les échantillons :

asetpts=N/SR/To

régler, asettb
Définissez la base de temps à utiliser pour les horodatages des trames de sortie. Il est surtout utile pour tester
configuration de la base de temps.

Il accepte les paramètres suivants :

expression, tb
L'expression qui est évaluée dans la base de temps de sortie.

La valeur pour tb est une expression arithmétique représentant un rationnel. L'expression peut
contiennent les constantes "AVTB" (la base de temps par défaut), "intb" (la base de temps d'entrée) et "sr"
(le taux d'échantillonnage, audio uniquement). La valeur par défaut est "intb".

Exemples

· Réglez la base de temps sur 1/25 :

settb=expr=1/25

· Réglez la base de temps sur 1/10 :

settb=expr=0.1

· Réglez la base de temps sur 1001/1000 :

settb=1+0.001

· Réglez la base de temps sur 2*intb :

settb=2*intb

· Définissez la valeur de base de temps par défaut :

settb=AVTB

montrer
Convertir l'audio d'entrée en une sortie vidéo représentant le spectre de fréquence de manière logarithmique
(en utilisant la transformation Q constante avec l'algorithme de Brown-Puckette), avec échelle de tonalité musicale, de
E0 à D#10 (10 octaves).

Le filtre accepte les options suivantes :

le volume
Spécifiez l'expression du volume de transformation (multiplicateur). L'expression peut contenir
variables:

la fréquence, fréquence, f
la fréquence à laquelle la transformation est évaluée

horodateur, tc
valeur de l'option timeclamp

et fonctions :

a_pondération(f)
Pondération A de même sonie

pondération_b(f)
Pondération B de même sonie

pondération_c(f)
Pondération C d'intensité égale

La valeur par défaut est 16.

longueur
Spécifiez l'expression de longueur de transformation. L'expression peut contenir des variables :

la fréquence, fréquence, f
la fréquence à laquelle la transformation est évaluée

horodateur, tc
valeur de l'option timeclamp

La valeur par défaut est "384/f*tc/(384/f+tc)".

horodateur
Spécifiez l'horodatage de la transformation. À basse fréquence, il y a un compromis entre la précision
dans le domaine temporel et le domaine fréquentiel. Si le timeclamp est inférieur, l'événement dans le domaine temporel est
représenté avec plus de précision (comme une grosse caisse rapide), sinon événement en fréquence
domaine est représenté plus précisément (comme la guitare basse). La valeur acceptable est [0.1,
1.0]. La valeur par défaut est 0.17.

pince à coefficient
Spécifiez le coeffclamp de transformation. Si coeffclamp est inférieur, la transformation est plus précise,
sinon la transformation est plus rapide. La valeur acceptable est [0.1, 10.0]. La valeur par défaut est 1.0.

gamma
Spécifiez le gamma. Un gamma plus faible rend le spectre plus contrasté, un gamma plus élevé rend le
spectre ayant plus de portée. La valeur acceptable est [1.0, 7.0]. La valeur par défaut est 3.0.

gamma2
Spécifiez le gamma du graphique à barres. La valeur acceptable est [1.0, 7.0]. La valeur par défaut est 1.0.

fichier de polices
Spécifiez le fichier de police à utiliser avec freetype. Si non spécifié, utilisez la police incorporée.

couleur de la police
Spécifiez l'expression de la couleur de la police. C'est une expression arithmétique qui devrait retourner
valeur entière 0xRRGGBB. L'expression peut contenir des variables :

la fréquence, fréquence, f
la fréquence à laquelle la transformation est évaluée

horodateur, tc
valeur de l'option timeclamp

et fonctions :

midi(f)
numéro midi de la fréquence f, quelques numéros midi : E0(16), C1(24), C2(36), A4(69)

r(x), g(x), b(x)
valeur rouge, verte et bleue de l'intensité x

La valeur par défaut est "st(0, (midi(f)-59.5)/12); st(1, if(entre(ld(0),0,1),
0.5-0.5*cos(2*PI*ld(0)), 0)); r(1-ld(1)) + b(ld(dix))"

fullhd
S'il est défini sur 1 (valeur par défaut), la taille de la vidéo est de 1920x1080 (full HD), s'il est défini sur 0, le
la taille de la vidéo est de 960x540. Utilisez cette option pour réduire l'utilisation du processeur.

fps Spécifiez les images par seconde de la vidéo. La valeur par défaut est 25.

compter
Spécifiez le nombre de transformations par image, donc il y a des transformations fps*count par seconde.
Notez que le débit de données audio doit être divisible par fps*count. La valeur par défaut est 6.

Exemples

· Lecture audio tout en affichant le spectre :

ffplay -f lavfi 'amovie=a.mp3, asplit [a][out1]; [a] showcqt [out0]'

· Comme ci-dessus, mais avec une fréquence d'images de 30 ips :

ffplay -f lavfi 'amovie=a.mp3, asplit [a][out1]; [a] showcqt=fps=30:count=5 [out0]'

· Jouer à 960x540 et moins d'utilisation du processeur :

ffplay -f lavfi 'amovie=a.mp3, asplit [a][out1]; [a] showcqt=fullhd=0:count=3 [out0]'

· A1 et ses harmoniques : A1, A2, (proche) E3, A3 :

ffplay -f lavfi 'aevalsrc=0.1*sin(2*PI*55*t)+0.1*sin(4*PI*55*t)+0.1*sin(6*PI*55*t)+0.1*sin(8*PI*55*t),
asplit[a][out1]; [a] showcqt [out0]'

· Idem que ci-dessus, mais avec plus de précision dans le domaine fréquentiel (et plus lentement) :

ffplay -f lavfi 'aevalsrc=0.1*sin(2*PI*55*t)+0.1*sin(4*PI*55*t)+0.1*sin(6*PI*55*t)+0.1*sin(8*PI*55*t),
asplit[a][out1]; [a] showcqt=timeclamp=0.5 [out0]'

· Pondération B d'intensité égale

volume=16*b_pondération(f)

· Facteur Q inférieur

longueur=100/f*tc/(100/f+tc)

· Couleur de police personnalisée, C-note est de couleur verte, d'autres sont de couleur bleue

fontcolor='if(mod(floor(midi(f)+0.5),12), 0x0000FF, g(1))'

· Gamma personnalisé, maintenant le spectre est linéaire à l'amplitude.

gamma=2:gamma2=2

Afficher les fréquences
Convertissez l'entrée audio en sortie vidéo représentant le spectre de puissance audio. l'audio
l'amplitude est sur l'axe Y tandis que la fréquence est sur l'axe X.

Le filtre accepte les options suivantes :

Taille, s
Spécifiez la taille de la vidéo. Pour la syntaxe de cette option, cochez la case "Vidéo Taille"
in le ffmpeg-utils Manuel. La valeur par défaut est "1024x512".

mode
Définir le mode d'affichage. Cela définit comment chaque groupe de fréquences sera représenté.

Il accepte les valeurs suivantes :

en ligne
barre
point

La valeur par défaut est "bar".

une échelle
Réglez l'échelle d'amplitude.

Il accepte les valeurs suivantes :

lin Échelle linéaire.

sqrt
Échelle de racine carrée.

cbrt
Échelle de racine cubique.

enregistrer Échelle logarithmique.

La valeur par défaut est « journal ».

échelle f
Définir l'échelle de fréquence.

Il accepte les valeurs suivantes :

lin Échelle linéaire.

enregistrer Échelle logarithmique.

rlog
Échelle logarithmique inversée.

La valeur par défaut est "lin".

win_size
Définir la taille de la fenêtre.

Il accepte les valeurs suivantes :

w16
w32
w64
w128
w256
w512
w1024
w2048
w4096
w8192
w16384
w32768
w65536

La valeur par défaut est "w2048"

gagner_func
Définir la fonction de fenêtrage.

Il accepte les valeurs suivantes :

Rect
Bartlett
accrocher
marteler
homme noir
Welch
haut plat
barris
bnuttall
bhann
leur
noisette

La valeur par défaut est « hanning ».

chevauchement
Définir le chevauchement des fenêtres. Dans la plage "[0, 1]". La valeur par défaut est 1, ce qui signifie un chevauchement optimal pour
la fonction de fenêtre sélectionnée sera sélectionnée.

moyenne
Réglez la moyenne du temps. Le réglage à 0 affichera les pics maximaux actuels. La valeur par défaut est
1, ce qui signifie que la moyenne temporelle est désactivée.

Couleur
Spécifiez la liste des couleurs séparées par un espace ou par '|' qui sera utilisé pour dessiner le canal
fréquences. Les couleurs non reconnues ou manquantes seront remplacées par la couleur blanche.

spectre d'exposition
Convertissez l'audio d'entrée en une sortie vidéo, représentant le spectre de fréquences audio.

Le filtre accepte les options suivantes :

Taille, s
Spécifiez la taille de la vidéo pour la sortie. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel. La valeur par défaut est "640x512".

diapositive
Spécifiez comment le spectre doit glisser le long de la fenêtre.

Il accepte les valeurs suivantes :

remplacer
les échantillons repartent à gauche lorsqu'ils arrivent à droite

volute
les échantillons défilent de droite à gauche

plein cadre
les cadres ne sont produits que lorsque les échantillons atteignent la droite

La valeur par défaut est « remplacer ».

mode
Spécifiez le mode d'affichage.

Il accepte les valeurs suivantes :

combiné
toutes les chaînes sont affichées dans la même rangée

séparé
tous les canaux sont affichés dans des lignes séparées

La valeur par défaut est combiné.

Couleur
Spécifiez le mode de couleur d'affichage.

Il accepte les valeurs suivantes :

chaine
chaque canal est affiché dans une couleur distincte

intensité
chaque canal est affiché en utilisant le même schéma de couleurs

La valeur par défaut est chaine.

escaliers
Spécifiez l'échelle utilisée pour calculer les valeurs de couleur d'intensité.

Il accepte les valeurs suivantes :

lin linéaire

sqrt
racine carrée, par défaut

cbrt
racine cubique

enregistrer logarithmique

La valeur par défaut est sqrt.

saturation
Définissez le modificateur de saturation pour les couleurs affichées. Les valeurs négatives offrent une alternative
Schéma de couleur. 0 n'est pas du tout saturé. La saturation doit être dans la plage [-10.0, 10.0].
La valeur par défaut est 1.

gagner_func
Définir la fonction de fenêtre.

Il accepte les valeurs suivantes :

aucun
Pas de pré-traitement des échantillons (ne vous attendez pas à ce que cela soit plus rapide)

hann
fenêtre de Hann

marteler
Fenêtre de Hamming

homme noir
fenêtre de l'homme noir

La valeur par défaut est "hann".

L'utilisation est très similaire au filtre showwaves ; voir les exemples dans cette section.

Exemples

· Grande fenêtre avec mise à l'échelle logarithmique des couleurs :

showspectrum=s=1280x480:scale=log

· Exemple complet pour un spectre coloré et glissant par canal utilisant ffplay:

ffplay -f lavfi 'amovie=input.mp3, asplit [a][out1];
[a] showspectrum=mode=separate:color=intensity:slide=1:scale=cbrt [out0]'

volume d'exposition
Convertissez le volume audio d'entrée en sortie vidéo.

Le filtre accepte les options suivantes :

taux, r
Définir le taux de vidéo.

b Définir la largeur de la bordure, la plage autorisée est [0, 5]. La valeur par défaut est 1.

w Réglez la largeur du canal, la plage autorisée est [40, 1080]. La valeur par défaut est 400.

h Réglez la hauteur du canal, la plage autorisée est [1, 100]. La valeur par défaut est 20.

f Réglez le fondu, la plage autorisée est [1, 255]. La valeur par défaut est 20.

c Définir l'expression de la couleur du volume.

L'expression peut utiliser les variables suivantes :

LE VOLUME
Volume maximum actuel du canal en dB.

CANAL
Numéro de canal actuel, à partir de 0.

t S'il est défini, affiche les noms des canaux. La valeur par défaut est activée.

ondes de spectacle
Convertissez l'audio d'entrée en une sortie vidéo, représentant les échantillons d'ondes.

Le filtre accepte les options suivantes :

Taille, s
Spécifiez la taille de la vidéo pour la sortie. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel. La valeur par défaut est "600x240".

mode
Définir le mode d'affichage.

Les valeurs disponibles sont :

point
Dessinez un point pour chaque échantillon.

en ligne
Tracez une ligne verticale pour chaque échantillon.

p2p Tracez un point pour chaque échantillon et une ligne entre eux.

cline
Tracez une ligne verticale centrée pour chaque échantillon.

La valeur par défaut est "point".

n Définissez le nombre d'échantillons imprimés sur la même colonne. Une valeur plus élevée sera
diminuer la fréquence d'images. Doit être un entier positif. Cette option ne peut être définie que si
la valeur pour taux n'est pas explicitement spécifié.

taux, r
Réglez la fréquence d'images de sortie (approximative). Cela se fait en définissant l'option n. Défaut
la valeur est "25".

split_channels
Définissez si les canaux doivent être dessinés séparément ou se chevaucher. La valeur par défaut est 0.

Exemples

· Sortir l'audio du fichier d'entrée et la représentation vidéo correspondante en même temps
temps:

amovie=a.mp3,asplit[out0],showwaves[out1]

· Créer un signal synthétique et le montrer avec showwaves, forçant une fréquence d'images de 30
images par seconde:

aevalsrc=sin(1*2*PI*t)*sin(880*2*PI*t):cos(2*PI*200*t),asplit[out0],showwaves=r=30[out1]

showwavespic
Convertissez l'audio d'entrée en une seule image vidéo, représentant les échantillons d'ondes.

Le filtre accepte les options suivantes :

Taille, s
Spécifiez la taille de la vidéo pour la sortie. Pour la syntaxe de cette option, cochez la case "Vidéo
Taille" in le ffmpeg-utils Manuel. La valeur par défaut est "600x240".

split_channels
Définissez si les canaux doivent être dessinés séparément ou se chevaucher. La valeur par défaut est 0.

Exemples

· Extraire une représentation de division de canal de la forme d'onde d'une piste audio entière dans un
image 1024x800 en utilisant ffmpeg:

ffmpeg -i audio.flac -lavfi showwavespic=split_channels=1:s=1024x800 waveform.png

diviser, une scission
Diviser l'entrée en plusieurs sorties identiques.

"asplit" fonctionne avec l'entrée audio, "split" avec la vidéo.

Le filtre accepte un seul paramètre qui spécifie le nombre de sorties. Si
non spécifié, la valeur par défaut est 2.

Exemples

· Créez deux sorties distinctes à partir de la même entrée :

[dans] divisé [out0][out1]

· Pour créer 3 sorties ou plus, vous devez spécifier le nombre de sorties, comme dans :

[dans] asplit=3 [out0][out1][out2]

· Créez deux sorties distinctes à partir de la même entrée, une recadrée et une rembourrée :

[dans] diviser [splitout1][splitout2] ;
[splitout1] crop=100:100:0:0 [cropout];
[splitout2] pad=200:200:100:100 [padout];

· Créez 5 copies de l'audio d'entrée avec ffmpeg:

ffmpeg -i ENTRÉE -filter_complex asplit=5 SORTIE

zmq, azmq
Recevez les commandes envoyées via un client libzmq et transférez-les aux filtres dans le
filtre graphique.

"zmq" et "azmq" fonctionnent comme des filtres pass-through. "zmq" doit être inséré entre deux vidéos
filtres, "azmq" entre deux filtres audio.

Pour activer ces filtres, vous devez installer la bibliothèque et les en-têtes libzmq et configurer
FFmpeg avec "--enable-libzmq".

Pour plus d'informations sur libzmq, consultez :http://www.zeromq.org/>

Les filtres "zmq" et "azmq" fonctionnent comme un serveur libzmq, qui reçoit les messages envoyés via
une interface réseau définie par le adresse_liée option.

Le message reçu doit être sous la forme :

[ ]

CIBLE spécifie la cible de la commande, généralement le nom de la classe de filtre ou un
nom d'instance de filtre spécifique.

COMMAND spécifie le nom de la commande pour le filtre cible.

ARG est facultatif et spécifie la liste d'arguments facultatifs pour le COMMAND.

A réception, le message est traité et la commande correspondante est injectée dans
le filtre graphique. En fonction du résultat, le filtre enverra une réponse au client,
adopter le format :




MESSAGE Est facultatif.

Exemples

Regarde outils/zmqsend pour un exemple de client zmq qui peut être utilisé pour envoyer des commandes
traités par ces filtres.

Considérons le filtergraph suivant généré par ffplay

ffplay -dumpgraph 1 -f lavfi "
couleur=s=100x100:c=rouge [l] ;
couleur=s=100x100:c=bleu [r];
nullsrc=s=200x100, zmq [bg] ;
[bg][l] superposition [bg+l] ;
[bg+l][r] superposition=x=100 "

Pour changer la couleur du côté gauche de la vidéo, la commande suivante peut être utilisée :

echo Parsed_color_0 c jaune | outils/zmqsend

Pour changer le côté droit :

echo Parsed_color_1 c rose | outils/zmqsend

MULTIMEDIA SOURCES


Vous trouverez ci-dessous une description des sources multimédias actuellement disponibles.

un film
C'est la même chose que film source, sauf qu'il sélectionne un flux audio par défaut.

film
Lire des flux audio et/ou vidéo à partir d'un conteneur de films.

Il accepte les paramètres suivants :

nom de fichier
Le nom de la ressource à lire (pas nécessairement un fichier ; il peut aussi s'agir d'un périphérique ou d'un
flux accessible via un protocole).

nom_format, f
Spécifie le format supposé pour le film à lire, et peut être soit le nom d'un
conteneur ou un périphérique d'entrée. S'il n'est pas spécifié, le format est deviné à partir de nom_film
ou par sondage.

point_recherche, sp
Spécifie le point de recherche en secondes. Les trames seront sorties à partir de cette recherche
point. Le paramètre est évalué avec "av_strtod", donc la valeur numérique peut être
suffixé par un suffixe IS. La valeur par défaut est « 0 ».

ruisseaux, s
Spécifie les flux à lire. Plusieurs flux peuvent être spécifiés, séparés par "+". le
source aura alors autant de sorties, dans le même ordre. La syntaxe est expliquée dans
la section « spécificateurs de flux » dans le manuel de ffmpeg. Deux noms spéciaux, "dv" et
"da" spécifie respectivement le flux vidéo et audio par défaut (le mieux adapté). La valeur par défaut est
« dv » ou « da » si le filtre est appelé « film ».

indice_flux, si
Spécifie l'index du flux vidéo à lire. Si la valeur est -1, le plus approprié
le flux vidéo sera automatiquement sélectionné. La valeur par défaut est "-1". Obsolète. Si
le filtre s'appelle "film", il sélectionnera l'audio au lieu de la vidéo.

boucle
Spécifie combien de fois lire le flux dans l'ordre. Si la valeur est inférieure à 1,
le flux sera lu encore et encore. La valeur par défaut est "1".

Notez que lorsque le film est bouclé, les horodatages de la source ne sont pas modifiés, il sera donc
générer des horodatages croissants de manière non monotone.

Il permet de superposer une seconde vidéo sur l'entrée principale d'un filtergraph, comme indiqué dans
ce graphique :

entrée -----------> deltapts0 --> superposition --> sortie
^
|
film --> échelle--> deltapts1 -------+

Exemples

· Sautez 3.2 secondes à partir du début du fichier AVI in.avi et superposez-le sur le
entrée étiquetée "in":

movie=in.avi:seek_point=3.2, scale=180:-1, setpts=PTS-STARTPTS [over] ;
[dans] setpts=PTS-STARTPTS [principal] ;
[principal][over] overlay=16:16 [out]

· Lisez à partir d'un périphérique video4linux2 et superposez-le au-dessus de l'entrée étiquetée "in":

movie=/dev/video0:f=video4linux2, scale=180:-1, setpts=PTS-STARTPTS [over] ;
[dans] setpts=PTS-STARTPTS [principal] ;
[principal][over] overlay=16:16 [out]

· Lire le premier flux vidéo et le flux audio avec l'ID 0x81 de dvd.vob ; la vidéo
est connecté au pad nommé "video" et l'audio est connecté au pad nommé
"l'audio":

movie=dvd.vob:s=v:0+#0x81 [vidéo] [audio]

Utilisez les filtres ffmpeg en ligne à l'aide des services onworks.net


Serveurs et postes de travail gratuits

Télécharger des applications Windows et Linux

  • 1
    Phaser
    Phaser
    Phaser est un open rapide, gratuit et amusant
    framework de jeu source HTML5 qui offre
    Rendu WebGL et Canvas à travers
    navigateurs Web de bureau et mobiles. Jeux
    peut être co...
    Télécharger Phaser
  • 2
    Moteur VASSAL
    Moteur VASSAL
    VASSAL est un moteur de jeu pour créer
    versions électroniques de la carte traditionnelle
    et jeux de cartes. Il fournit un soutien pour
    rendu et interaction des pièces de jeu,
    et...
    Télécharger le moteur VASSAL
  • 3
    OpenPDF - Fork d'iText
    OpenPDF - Fork d'iText
    OpenPDF est une bibliothèque Java pour créer
    et l'édition de fichiers PDF avec une licence LGPL et
    Licence open source MPL. OpenPDF est le
    LGPL/MPL open source successeur d'iText,
    un ...
    Télécharger OpenPDF - Fork d'iText
  • 4
    SAGA SIG
    SAGA SIG
    SAGA - Système d'automatisation
    Analyses géoscientifiques - est un
    Logiciel de système d'information (SIG) avec
    immenses capacités pour les géodonnées
    traitement et an...
    Télécharger le SIG SAGA
  • 5
    Boîte à outils pour Java/JTOOpen
    Boîte à outils pour Java/JTOOpen
    IBM Toolbox for Java / JTOpen est un
    bibliothèque de classes Java prenant en charge
    programmation client/serveur et internet
    modèles vers un système exécutant OS/400,
    i5/OS, ou...
    Télécharger Toolbox pour Java/JTOpen
  • 6
    D3.js
    D3.js
    D3.js (ou D3 pour les documents pilotés par les données)
    est une bibliothèque JavaScript qui vous permet
    produire des données dynamiques et interactives
    visualisations dans les navigateurs Web. Avec D3
    toi...
    Télécharger D3.js
  • Plus "

Commandes Linux

Ad