AbstractClusterStory
provides a partial implementation of
ClusterStory
by parsing the topology tree.org.apache.hadoop.metrics2
usage.Serialization
supports the given class.AccessControlException
instead.RemoteException
.AccessControlException
with the specified detail message.RemoteException
.AccessControlException
with the specified detail message.DistributedCache.addArchiveToClassPath(Path, Configuration, FileSystem)
instead. The FileSystem
should be obtained within an
appropriate doAs
.DistributedCache.addFileToClassPath(Path, Configuration, FileSystem)
instead. The FileSystem
should be obtained within an
appropriate doAs
.Path
to the list of inputs for the map-reduce job.Path
with a custom InputFormat
to the list of
inputs for the map-reduce job.Path
to the list of inputs for the map-reduce job.Path
with a custom InputFormat
to the list of
inputs for the map-reduce job.UserLogEvent
for processing.AuthenticatedURL.Token
to be
used by subsequent requests.AuthenticationToken
only
after the Kerberos SPNEGO sequence has completed successfully.AuthenticatedURL
class enables the use of the JDK URL
class
against HTTP endpoints protected with the AuthenticationFilter
.AuthenticatedURL
.AuthenticatedURL
.AuthenticationException
.AuthenticationException
.AuthenticationException
.AuthenticationFilter
enables protecting web application resources with different (pluggable)
authentication mechanisms.AuthenticationToken
contains information about an authenticated
HTTP client and doubles as the Principal
to be returned by
authenticated HttpServletRequest
s
The token can be serialized/deserialized to and from a string as it is sent
and received in HTTP client responses and requests as a HTTP cookie (this is
done by the AuthenticationFilter
).
AuthenticationFilter
that
obtains Hadoop-Auth configuration for webhdfs.InputFormat
that tries to deduce the types of the input files
automatically.WritableComparable
types supporting ordering/permutation by a representative set of bytes.BinaryComparable
keys using a configurable part of
the bytes array returned by BinaryComparable.getBytes()
.BinaryComparable
keys using a configurable part of
the bytes array returned by BinaryComparable.getBytes()
.InputDemuxer
to a particular file.FileSystemStore
.CompressorStream
which works
with 'block-based' based compression algorithms, as opposed to
'stream-based' compression algorithms.BlockCompressorStream
.BlockCompressorStream
with given output-stream and
compressor.DecompressorStream
which works
with 'block-based' based compression algorithms, as opposed to
'stream-based' compression algorithms.BlockDecompressorStream
.BlockDecompressorStream
.MapFile
and provides very much the same
functionality.BufferedFSInputStream
with the specified buffer size,
and saves its argument, the input stream
in
, for later use.MachineNode
object.Decompressor
based on the popular gzip compressed file format.BytesWritable
.StringUtils.byteDesc(long)
instead.DistributedCache.CACHE_ARCHIVES
is not a *public* constant.DistributedCache.CACHE_ARCHIVES_SIZES
is not a *public* constant.DistributedCache.CACHE_ARCHIVES_TIMESTAMPS
is not a *public* constant.DistributedCache.CACHE_FILES
is not a *public* constant.DistributedCache.CACHE_FILES_SIZES
is not a *public* constant.DistributedCache.CACHE_FILES_TIMESTAMPS
is not a *public* constant.DistributedCache.CACHE_LOCALARCHIVES
is not a *public* constant.DistributedCache.CACHE_LOCALFILES
is not a *public* constant.DistributedCache.CACHE_SYMLINK
is not a *public* constant.Client.call(Writable, ConnectionId)
insteadClient.call(Writable, ConnectionId)
insteadClient.call(Writable, ConnectionId)
insteadparam
, to the IPC server running at
address
which is servicing the protocol
protocol,
with the ticket
credentials, rpcTimeout
as timeout
and conf
as configuration for this connection, returning the
value.param
, to the IPC server defined by
remoteId
, returning the value.Server.call(Class, Writable, long)
insteadTaskTracker
is declared as 'lost/blacklisted'
by the JobTracker.LoggedDiscreteCDF
.position
.IOException
or
null pointers.Writable
class.DistributedFileSystem
class to communicate
with the NameNode.MachineNode
object.JobClient
.InputSplit
to future operations.RecordWriter
to future operations.InputSplit
to future operations.RecordWriter
to future operations.RecordWriter
to future operations.RecordWriter
to future operations.IOException
IOException
.ClusterStory
represents all configurations of a MapReduce cluster,
including nodes, network topology, and slot configurations.LoggedNetworkTopology
object.MultiFilterRecordReader.emit(org.apache.hadoop.mapred.join.TupleWritable)
every Tuple from the
collector (the outer join of child RRs).InputFormat
that returns CombineFileSplit
's
in InputFormat.getSplits(JobConf, int)
method.InputFormat
that returns CombineFileSplit
's in
InputFormat.getSplits(JobContext)
method.CombineFileSplit
.CombineFileSplit
.Comparator.compare(Object, Object)
.org.apache.hadoop.metrics2
usage.CompressionOutputStream
to compress data.ClientProtocol.concat(String, String [])
.Configuration
.JobConf
.JobConf
.JobConf
.Configuration
.Configuration
.Socket.connect(SocketAddress, int)
.NetUtils.connect(Socket, SocketAddress, int)
but
also takes a local address and port to bind the socket to.org.apache.hadoop.metrics2
usage.Counter
s that logically belong together.Group
of counters, comprising of counters from a particular
counter Enum
class.DFSClient.create(String,FsPermission,boolean,short,long,Progressable,int)
with default permission.DFSClient.create(String,FsPermission,boolean,boolean,short,long,Progressable,int)
with createParent set to true.Compressor
for use by this CompressionCodec
.Compressor
for use by this CompressionCodec
.SequenceFile.Reader
returned.Decompressor
for use by this CompressionCodec
.Decompressor
for use by this CompressionCodec
.FsPermission
object.PermissionStatus
object.CompressionInputStream
that will read from the given
InputStream
with the given Decompressor
.CompressionInputStream
that will read from the given
input stream.CompressionInputStream
that will read from the given
InputStream
with the given Decompressor
.IOException
.NameNode
proxyCompressionOutputStream
that will write to the given
OutputStream
.CompressionOutputStream
that will write to the given
OutputStream
with the given Compressor
.CompressionOutputStream
that will write to the given
OutputStream
.CompressionOutputStream
that will write to the given
OutputStream
with the given Compressor
.recordName
.recordName
.TFile.Reader.createScannerByKey(byte[], byte[])
instead.Iterator
for a NavigableMap
.Iterable
object,
so that an Iterator
can be created
for iterating the given NavigableMap
.Thread.setDaemon(boolean)
with true.DataInput
implementation that reads from an in-memory
buffer.DataOutput
implementation that writes to an in-memory
buffer.DBWritable
.DBWritable
.CompressionInputStream
to compress data.PolicyProvider
without any defined services.DefaultInputDemuxer
acts as a pass-through demuxer.Outputter
that outputs to a plain file.Stringifier
interface which stringifies the objects using base64 encoding of the
serialized version of the objects.WritableComparable
implementation.Record
implementation.InputFormat
that delegates behaviour of paths to multiple other
InputFormats.InputFormat
that delegates behavior of paths to multiple other
InputFormats.Mapper
that delegates behaviour of paths to multiple other
mappers.Mapper
that delegates behavior of paths to multiple other
mappers.TaggedInputSplit
UserLogEvent
sent when job logs should be deleted.InputStream
.RawComparator
that uses a Deserializer
to deserialize
the objects to be compared so that the standard Comparator
can
be used to compare them.FSDataInputStream
Node
s.AuthenticationHandler
.TryIterator.tryNext()
must call this method
when there are no more elements left in the iteration.Writer
The format of the output would be
{ "properties" : [ {key1,value1,key1.isFinal,key1.resource}, {key2,value2,
key2.isFinal,key2.resource}... ] }
It does not output the parameters of the configuration object which is
loaded from an input stream.o
is a ByteWritable with the same value.o
is a DoubleWritable with the same value.o
is a FloatWritable with the same value.o
is a IntWritable with the same value.o
is a LongWritable with the same value.o
is an MD5Hash whose digest contains the
same values.o
is a Text with the same contents.o
is a UTF8 with the same contents.o
is a VIntWritable with the same value.o
is a VLongWritable with the same value.charToEscape
in the string
with the escape char escapeChar
EventCounter
insteadEventCounter
insteadFileSink
instead.InputFormat
.InputFormat
s.OutputCommitter
that commits files specified
in job output directory i.e.OutputCommitter
that commits files specified
in job output directory i.e.OutputFormat
.OutputFormat
s that read from FileSystem
s.FilterFileSystem
contains
some other file system, which it uses as
its basic file system, possibly transforming
the data along the way or providing additional
functionality.FilterRecordWriter
is a convenience wrapper
class that extends the RecordWriter
.what
in the backing
buffer, starting as position start
.FSInputStream
in a DataInputStream
and buffers input through a BufferedInputStream
.OutputStream
in a DataOutputStream
,
buffers output through a BufferedOutputStream
and creates a checksum
file.FsAction
.Throwable
into a Runtime Exception.FileSystem
backed by an FTP client provided by Apache Commons Net.org.apache.hadoop.metrics2
usage.GenericOptionsParser
is a utility to parse command line
arguments generic to the Hadoop framework.GenericOptionsParser to parse only the generic Hadoop
arguments.
- GenericOptionsParser(Configuration, Options, String[]) - 类 的构造器org.apache.hadoop.util.GenericOptionsParser
-
Create a
GenericOptionsParser
to parse given options as well
as generic Hadoop options.
- GenericsUtil - org.apache.hadoop.util中的类
-
Contains utility methods for dealing with Java Generics.
- GenericsUtil() - 类 的构造器org.apache.hadoop.util.GenericsUtil
-
- GenericWritable - org.apache.hadoop.io中的类
-
A wrapper for Writable instances.
- GenericWritable() - 类 的构造器org.apache.hadoop.io.GenericWritable
-
- get(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the
name
property, null
if
no such property exists.
- get(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the
name
property.
- get(URI, Configuration, String) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
- get(Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Returns the configured filesystem implementation.
- get(URI, Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Returns the FileSystem for this URI's scheme and authority.
- get(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
-
Get located block.
- get(UserGroupInformation, DelegationParam, UriFsPathParam, GetOpParam, OffsetParam, LengthParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.DatanodeWebHdfsMethods
-
Handle HTTP GET request.
- get(UserGroupInformation, DelegationParam, UserParam, DoAsParam, UriFsPathParam, GetOpParam, OffsetParam, LengthParam, RenewerParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
-
Handle HTTP GET request.
- get(K) - 接口 中的方法org.apache.hadoop.hdfs.util.GSet
-
Return the stored element which is equal to the given key.
- get(K) - 类 中的方法org.apache.hadoop.hdfs.util.GSetByHashMap
-
- get(K) - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
-
- get(long, Writable) - 类 中的方法org.apache.hadoop.io.ArrayFile.Reader
-
Return the
n
th value in the file.
- get() - 类 中的方法org.apache.hadoop.io.ArrayWritable
-
- get(WritableComparable, Writable) - 类 中的方法org.apache.hadoop.io.BloomMapFile.Reader
-
Fast version of the
MapFile.Reader.get(WritableComparable, Writable)
method.
- get() - 类 中的方法org.apache.hadoop.io.BooleanWritable
-
Returns the value of the BooleanWritable
- get() - 类 中的方法org.apache.hadoop.io.BytesWritable
-
已过时。
Use
BytesWritable.getBytes()
instead.
- get() - 类 中的方法org.apache.hadoop.io.ByteWritable
-
Return the value of this ByteWritable.
- get() - 类 中的方法org.apache.hadoop.io.DoubleWritable
-
- get(BytesWritable, BytesWritable) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Copy the key and value in one shot into BytesWritables.
- get() - 类 中的方法org.apache.hadoop.io.FloatWritable
-
Return the value of this FloatWritable.
- get() - 类 中的方法org.apache.hadoop.io.GenericWritable
-
Return the wrapped instance.
- get() - 类 中的方法org.apache.hadoop.io.IntWritable
-
Return the value of this IntWritable.
- get() - 类 中的方法org.apache.hadoop.io.LongWritable
-
Return the value of this LongWritable.
- get(WritableComparable, Writable) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
Return the value for the named key, or null if none exists.
- get(Object) - 类 中的方法org.apache.hadoop.io.MapWritable
- get() - 类 中的静态方法org.apache.hadoop.io.NullWritable
-
Returns the single instance of this class.
- get() - 类 中的方法org.apache.hadoop.io.ObjectWritable
-
Return the instance, or null if none.
- get(Text) - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
-
- get(WritableComparable) - 类 中的方法org.apache.hadoop.io.SetFile.Reader
-
Read the matching key from a set into
key
.
- get(Object) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- get() - 类 中的方法org.apache.hadoop.io.TwoDArrayWritable
-
- get() - 类 中的方法org.apache.hadoop.io.VIntWritable
-
Return the value of this VIntWritable.
- get() - 类 中的方法org.apache.hadoop.io.VLongWritable
-
Return the value of this LongWritable.
- get(Class<? extends WritableComparable>) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Get a comparator for a
WritableComparable
implementation.
- get() - 类 中的静态方法org.apache.hadoop.ipc.Server
-
Returns the server instance called under or null.
- get(int) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
-
Get ith child InputSplit.
- get(int) - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
-
Get ith Writable from Tuple.
- get() - 类 中的方法org.apache.hadoop.metrics.util.MetricsIntValue
-
已过时。
Get value
- get() - 类 中的方法org.apache.hadoop.metrics.util.MetricsLongValue
-
已过时。
Get value
- get(String) - 类 中的方法org.apache.hadoop.metrics.util.MetricsRegistry
-
已过时。
- get(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Get a metric by name
- get(String, Collection<MetricsTag>) - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache
-
Get the cached record
- get(DataInput) - 类 中的静态方法org.apache.hadoop.record.BinaryRecordInput
-
Get a thread-local record input for the supplied DataInput.
- get(DataOutput) - 类 中的静态方法org.apache.hadoop.record.BinaryRecordOutput
-
Get a thread-local record output for the supplied DataOutput.
- get() - 类 中的方法org.apache.hadoop.record.Buffer
-
Get the data from the Buffer.
- get() - 类 中的方法org.apache.hadoop.tools.rumen.ClusterTopologyReader
-
Get the
LoggedNetworkTopology
object.
- get(DataInput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Get a thread-local typed bytes input for the supplied
DataInput
.
- get(DataOutput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Get a thread-local typed bytes output for the supplied
DataOutput
.
- get(TypedBytesInput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
Get a thread-local typed bytes record input for the supplied
TypedBytesInput
.
- get(DataInput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
Get a thread-local typed bytes record input for the supplied
DataInput
.
- get(TypedBytesOutput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
Get a thread-local typed bytes record input for the supplied
TypedBytesOutput
.
- get(DataOutput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
Get a thread-local typed bytes record output for the supplied
DataOutput
.
- get(TypedBytesInput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
Get a thread-local typed bytes writable input for the supplied
TypedBytesInput
.
- get(DataInput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
Get a thread-local typed bytes writable input for the supplied
DataInput
.
- get(TypedBytesOutput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
Get a thread-local typed bytes writable input for the supplied
TypedBytesOutput
.
- get(DataOutput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
Get a thread-local typed bytes writable output for the supplied
DataOutput
.
- get() - 类 中的方法org.apache.hadoop.util.Progress
-
Returns the overall progress of the root.
- GET_STATS_CAPACITY_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
-
- GET_STATS_CORRUPT_BLOCKS_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
-
- GET_STATS_MISSING_BLOCKS_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
-
- GET_STATS_REMAINING_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
-
- GET_STATS_UNDER_REPLICATED_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
-
- GET_STATS_USED_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
-
- getAbsolutePath() - 类 中的方法org.apache.hadoop.hdfs.web.resources.UriFsPathParam
-
- getAbsolutePath(String) - 类 中的方法org.apache.hadoop.streaming.PathFinder
-
Returns the full path name of this file if it is listed in the
path
- getAbsolutePaths() - 类 中的方法org.apache.hadoop.hdfs.web.resources.ConcatSourcesParam
-
- getAcceptAnonymous() - 类 中的方法org.apache.hadoop.security.authentication.server.PseudoAuthenticationHandler
-
Returns if the handler is configured to support anonymous users.
- getAccessKey() - 类 中的方法org.apache.hadoop.fs.s3.S3Credentials
-
- getAccessModes() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- getAccessTime() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Get the access time of the file.
- getAccessTime() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the access time of the file.
- getAclName() - 枚举 中的方法org.apache.hadoop.mapreduce.JobACL
-
Get the name of the ACL.
- getACLString() - 类 中的方法org.apache.hadoop.security.authorize.AccessControlList
-
Returns the String representation of this ACL.
- getAction() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeCommand
-
- getActiveTrackerNames() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the names of active task trackers in the cluster.
- getAdditionalBlock(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Stub for old callers pre-HDFS-630
- getAdditionalBlock(String, String, HashMap<Node, Node>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
The client would like to obtain an additional block for the indicated
filename (which is being written-to).
- getAddress(String) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getAddress(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getAddress(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
-
- getAdjustedEnd() - 类 中的方法org.apache.hadoop.io.compress.SplitCompressionInputStream
-
After calling createInputStream, the values of start or end
might change.
- getAdjustedStart() - 类 中的方法org.apache.hadoop.io.compress.SplitCompressionInputStream
-
After calling createInputStream, the values of start or end
might change.
- getAdminAcls(Configuration, String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
Get the ACL object representing the cluster administrators
The user who starts the daemon is automatically added as an admin
- getAdminState() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Retrieves the admin state of this node.
- getAlgorithmName() - 类 中的方法org.apache.hadoop.fs.FileChecksum
-
The checksum algorithm name
- getAlgorithmName() - 类 中的方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
-
The checksum algorithm name
- getAliveNodesInfoJson() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getAliveNodesInfoJson() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getAllAttempts() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.JVMInfo
-
- getAllContexts() - 类 中的方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
Returns all MetricsContexts built by this factory.
- getAllJobs() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get the jobs that are submitted.
- getAllJobs() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getAllJobs() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getAllKeys() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
-
- getAllKeys() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
- getAllLocalPathsToRead(String, Configuration) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
-
Get all of the paths that currently exist in the working directories.
- getAllRecords() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
-
已过时。
Retrieves all the records managed by this MetricsContext.
- getAllRecords() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Retrieves all the records managed by this MetricsContext.
- getAllStaticResolutions() - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
This is used to get all the resolutions that were added using
NetUtils.addStaticResolution(String, String)
.
- getAllStatistics() - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Return the FileSystem classes that have Statistics
- getAllTasks() - 类 中的方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Returns all map and reduce tasks
.
- getAllTokens() - 类 中的方法org.apache.hadoop.security.Credentials
-
Return all the tokens in the in-memory map
- getAncestorLayoutVersion() - 枚举 中的方法org.apache.hadoop.hdfs.protocol.LayoutVersion.Feature
-
Accessor method for feature ancestor layout version
- getApproxChkSumLength(long) - 类 中的静态方法org.apache.hadoop.fs.ChecksumFileSystem
-
- getArchiveClassPaths(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Get the archive entries in classpath as an array of Path.
- getArchiveTimestamps(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Get the timestamps of the archives.
- getArchiveVisibilities(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
Get the booleans on whether the archives are public or not.
- getAssignedJobID() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- getAssignedTracker(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Get tracker name for a given task id.
- getAtomicWorkPath() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Get work path for atomic commit.
- getAttemptID() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getAttemptId() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the attempt id
- getAttemptId() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the attempt id
- getAttemptId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the task attempt id
- getAttempts() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getAttemptsToStartSkipping(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Get the number of Task attempts AFTER which skip mode
will be kicked off.
- getAttribute(String) - 类 中的方法org.apache.hadoop.http.HttpServer
-
Get the value in the webapp context.
- getAttribute(String) - 类 中的方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
Returns the value of the named attribute, or null if there is no
attribute of that name.
- getAttribute(String) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Convenience method for subclasses to access factory attributes.
- getAttribute(String) - 类 中的方法org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
-
已过时。
- getAttribute(char) - 枚举 中的静态方法org.apache.hadoop.tools.distcp2.DistCpOptions.FileAttribute
-
- getAttributeNames() - 类 中的方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
Returns the names of all the factory's attributes.
- getAttributes(String[]) - 类 中的方法org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
-
已过时。
- getAttributeTable(String) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Returns an attribute-value map derived from the factory attributes
by finding all factory attributes that begin with
contextName.
- getAuthenticationHandler() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Returns the authentication handler being used.
- getAuthenticationMethod() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Get the authentication method from the subject
- getAutoIncrMapperProcCount(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Get the flag which if set to true,
SkipBadRecords.COUNTER_MAP_PROCESSED_RECORDS
is incremented
by MapRunner after invoking the map function.
- getAutoIncrReducerProcCount(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Get the flag which if set to true,
SkipBadRecords.COUNTER_REDUCE_PROCESSED_GROUPS
is incremented
by framework after invoking the reduce function.
- getAvailable() - 类 中的方法org.apache.hadoop.fs.DF
-
- getAvailableMapSlots() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get available map slots.
- getAvailablePhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Obtain the total size of the available physical memory present
in the system.
- getAvailablePhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain the total size of the available physical memory present
in the system.
- getAvailableReduceSlots() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get available reduce slots.
- getAvailableSlots(TaskType) - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
-
Get the number of currently available slots on this tasktracker for the
given type of the task.
- getAvailableVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Obtain the total size of the available virtual memory present
in the system.
- getAvailableVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain the total size of the available virtual memory present
in the system.
- getAvataar() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the avataar of the task attempt
- getBalancerBandwidth() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Get current value of the max balancer bandwidth in bytes per second.
- getBalancerBandwidth() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
-
- getBalancerBandwidthValue() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BalancerBandwidthCommand
-
Get current value of the max balancer bandwidth in bytes per second.
- getBalancerBandwidthVersion() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BalancerBandwidthCommand
-
Get current value of the balancer bandwidth version.
- getBandwidth() - 类 中的方法org.apache.hadoop.hdfs.util.DataTransferThrottler
-
- getBaseLogDir() - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
- getBasePathInJarOut(String) - 类 中的方法org.apache.hadoop.streaming.JarBuilder
-
- getBaseRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputFormat
-
- getBaseRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleSequenceFileOutputFormat
-
- getBaseRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleTextOutputFormat
-
- getBeginColumn() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- getBeginLine() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- getBlacklistedNodesInfoJson() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getBlacklistedNodesInfoJson() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getBlackListedTaskTrackerCount() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the number of blacklisted trackers in the cluster.
- getBlacklistedTrackerNames() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the names of blacklisted task trackers in the cluster.
- getBlacklistedTrackers() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the number of blacklisted task trackers in the cluster.
- getBlock() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- getBlock() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockRecoveryInfo
-
- getBlock() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations.BlockWithLocations
-
get the block
- getBlockCapacity() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getBlockFile(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Get File name for a given block.
- getBlockGenStamp(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockListAsLongs
-
The generation stamp of the indexTh block
- getBlockId() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- getBlockId(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockListAsLongs
-
The block-id of the indexTh block
- getBlockIds() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
Return sorted array of blockIds this
BlockTokenIdentifier
includes
- getBlockIndex(BlockLocation[], long) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
-
- getBlockIndex(BlockLocation[], long) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
- getBlockInfo(Block) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientDatanodeProtocol
-
Returns a block object that contains the specified block object
from the specified Datanode.
- getBlockInfo(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Returns a block object that contains the specified block object
from the specified Datanode.
- getBlockInputStream(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- getBlockInputStream(Block, long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- getBlockInputStream(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns an input stream to read the contents of the specified block
- getBlockInputStream(Block, long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns an input stream at specified offset of the specified block
- getBlockKeys() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Get the current block keys
- getBlockKeys() - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.NamenodeProtocol
-
Get the current block keys
- getBlockLen(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockListAsLongs
-
The block-len of the indexTh block
- getBlockLocalPathInfo(Block, Token<BlockTokenIdentifier>) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientDatanodeProtocol
-
Retrieves the path names of the block file and metadata file stored on the
local file system.
- getBlockLocalPathInfo(Block, Token<BlockTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getBlockLocalPathInfo(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- getBlockLocalPathInfo(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Get
BlockLocalPathInfo
for the given block.
- getBlockLocations(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Get block location info about file
getBlockLocations() returns a list of hostnames that store
data for a specific file region.
- getBlockLocations(String, long, long) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Get locations of the blocks of the specified file within the specified range.
- getBlockLocations(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Get block locations within the specified range.
- getBlockLocations(String, long, long, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Get block locations within the specified range.
- getBlockLocations(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Get locations of the blocks of the specified file within the specified range.
- getBlockMetaDataInfo(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
- getBlockMetaDataInfo(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.InterDatanodeProtocol
-
- getBlockName() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- getBlockPath() - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockLocalPathInfo
-
Get the Block data file.
- getBlockReport() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Return a table of block data.
- getBlockReport() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns the block report - the full list of blocks stored
Returns only finalized blocks
- getBlocks() - 类 中的方法org.apache.hadoop.fs.s3.INode
-
- getBlocks(DatanodeInfo, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
return a list of blocks & their locations on
datanode
whose
total size is size
- getBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockCommand
-
- getBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations
-
getter
- getBlocks(DatanodeInfo, long) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.NamenodeProtocol
-
Get a list of blocks belonged to
datanode
whose total size is equal to size
- getBlocksBeingWrittenReport() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Return a table of blocks being written data
- getBlocksBeingWrittenReport() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns the blocks being written report
- getBlockSize() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Get the block size of the file.
- getBlockSize(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
已过时。
Use getFileStatus() instead
- getBlockSize(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
- getBlockSize() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the block size of the file.
- getBlockSize() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- getBlockSize() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
Returns the blocksize parameter specified at construction time.
- getBlocksScheduled() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
-
- getBlocksTotal() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Get the total number of blocks in the system.
- getBlocksTotal() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Number of allocated blocks in the system
- getBlockToken() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- getBloomFilter() - 类 中的方法org.apache.hadoop.io.BloomMapFile.Reader
-
Retrieve the Bloom filter used by this instance of the Reader.
- getBoolean(String, boolean) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the
name
property as a boolean
.
- getBoundAntProperty(String, String) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- getBoundingValsQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
-
- getBroadcastCommand() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- getBuildVersion() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getBuildVersion() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
-
Returns the full version string containing version,
revision, user and source checksum.
- getByName(String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
Resolves a host subject to the security requirements determined by
hadoop.security.token.service.use_ip.
- getByName(String) - 类 中的方法org.apache.hadoop.security.SecurityUtil.QualifiedHostResolver
-
Create an InetAddress with a fully qualified hostname of the given
hostname.
- getBytes() - 类 中的方法org.apache.hadoop.fs.FileChecksum
-
The value of the checksum in bytes
- getBytes() - 类 中的方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
-
The value of the checksum in bytes
- getBytes() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- getBytes() - 类 中的方法org.apache.hadoop.hdfs.util.ByteArray
-
- getBytes() - 类 中的方法org.apache.hadoop.io.BinaryComparable
-
Return representative byte array for this instance.
- getBytes() - 类 中的方法org.apache.hadoop.io.BytesWritable
-
Get the data from the BytesWritable.
- getBytes() - 类 中的方法org.apache.hadoop.io.Text
-
Returns the raw bytes; however, only data up to
Text.getLength()
is
valid.
- getBytes() - 类 中的方法org.apache.hadoop.io.UTF8
-
已过时。
The raw bytes.
- getBytes(String) - 类 中的静态方法org.apache.hadoop.io.UTF8
-
已过时。
Convert a string to a UTF-8 encoded byte array.
- getBytes() - 类 中的方法org.apache.hadoop.security.token.TokenIdentifier
-
Get the bytes for the token identifier
- getBytes() - 类 中的方法org.apache.hadoop.util.bloom.Key
-
- getBytesPerChecksum() - 类 中的方法org.apache.hadoop.util.DataChecksum
-
- getBytesPerSec() - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
-
Getter for the read-rate from this stream, since creation.
- getBytesPerSum() - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
Return the bytes Per Checksum
- getBytesRead() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Get the total number of bytes read
- getBytesRead() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
-
- getBytesRead() - 接口 中的方法org.apache.hadoop.io.compress.Compressor
-
Return number of uncompressed bytes input so far.
- getBytesRead() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Return number of bytes given to this compressor since last reset.
- getBytesRead() - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
-
Returns the total number of compressed bytes input so far, including
gzip header/trailer bytes.
- getBytesRead() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
Returns the total number of uncompressed bytes input so far.
- getBytesRead() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
-
Returns the total number of compressed bytes input so far.
- getBytesToCopy() - 类 中的方法org.apache.hadoop.tools.distcp2.CopyListing
-
Return the total bytes that distCp should copy for the source paths
This doesn't consider whether file is same should be skipped during copy
- getBytesToCopy() - 类 中的方法org.apache.hadoop.tools.distcp2.FileBasedCopyListing
-
Return the total bytes that distCp should copy for the source paths
This doesn't consider whether file is same should be skipped during copy
- getBytesToCopy() - 类 中的方法org.apache.hadoop.tools.distcp2.GlobbedCopyListing
-
Return the total bytes that distCp should copy for the source paths
This doesn't consider whether file is same should be skipped during copy
- getBytesToCopy() - 类 中的方法org.apache.hadoop.tools.distcp2.SimpleCopyListing
-
Return the total bytes that distCp should copy for the source paths
This doesn't consider whether file is same should be skipped during copy
- getBytesWritten() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Get the total number of bytes written
- getBytesWritten() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
-
- getBytesWritten() - 接口 中的方法org.apache.hadoop.io.compress.Compressor
-
Return number of compressed bytes output so far.
- getBytesWritten() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Return number of bytes consumed by callers of compress since last reset.
- getBytesWritten() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
Returns the total number of compressed bytes output so far.
- getBytesWritten() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
-
Returns the total number of uncompressed bytes output so far.
- getCacheArchives(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Get cache archives set in the Configuration.
- getCacheFiles(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Get cache files set in the Configuration.
- getCacheSize() - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Get the number of entries in the filesystem cache
- getCallQueueLen() - 类 中的方法org.apache.hadoop.ipc.Server
-
The number of rpc calls in the queue.
- getCandidates() - 枚举 中的方法org.apache.hadoop.tools.rumen.JobConfPropertyNames
-
- getCanonicalServiceName() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Get a canonical service name for this file system.
- getCanonicalServiceName() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
- getCanonicalServiceName() - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
- getCanonicalServiceName() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getCanonicalUri() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Resolve the uri's hostname and add the default port if not in the uri
- getCanonicalUri(URI, int) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Resolve the uri's hostname and add the default port if not in the uri
- getCapacity() - 类 中的方法org.apache.hadoop.fs.DF
-
- getCapacity() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem.DiskStatus
-
- getCapacity() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
The raw capacity.
- getCapacity() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Return total capacity, used and unused
- getCapacity() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.FSDatasetMBean
-
Returns total capacity (in bytes) of storage (used and unused)
- getCapacity() - 类 中的方法org.apache.hadoop.io.BytesWritable
-
Get the capacity, which is the maximum size that could handled without
resizing the backing storage.
- getCapacity() - 类 中的方法org.apache.hadoop.record.Buffer
-
Get the capacity, which is the maximum count that could handled without
resizing the backing storage.
- getCapacityRemaining() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Total non-used raw bytes.
- getCapacityRemaining() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Free (unused) storage capacity
- getCapacityRemainingPercent() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Total remaining space by data nodes as percentage of total capacity
- getCapacityTotal() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Total raw bytes including non-dfs used space.
- getCapacityTotal() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Total storage capacity
- getCapacityUsed() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Total used space by data nodes
- getCapacityUsed() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Used storage capacity
- getCapacityUsedNonDFS() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Total used space by data nodes for non DFS purposes such
as storing temporary files on the local file system
- getCapacityUsedPercent() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Total used space by data nodes as percentage of total capacity
- getCategory(List<List<Pentomino.ColumnName>>) - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino
-
Find whether the solution has the x in the upper left quadrant, the
x-midline, the y-midline or in the center.
- getChannel() - 类 中的方法org.apache.hadoop.net.SocketInputStream
-
Returns underlying channel used by inputstream.
- getChannel() - 类 中的方法org.apache.hadoop.net.SocketOutputStream
-
Returns underlying channel used by this stream.
- getChannelPosition(Block, FSDatasetInterface.BlockWriteStreams) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Retrieves the offset in the block to which the
the next write will write data to.
- getChannelPosition(Block, FSDatasetInterface.BlockWriteStreams) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns the current offset in the data stream.
- getChecksum() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.BlockMetadataHeader
-
Get the version
- getChecksumFile(Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
Return the name of the checksum file associated with a file.
- getChecksumFileLength(Path, long) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
Return the length of the checksum file given the size of the
actual file.
- getChecksumHeaderSize() - 类 中的静态方法org.apache.hadoop.util.DataChecksum
-
- getChecksumLength(long, int) - 类 中的静态方法org.apache.hadoop.fs.ChecksumFileSystem
-
Calculated the length of the checksum file in bytes.
- getChecksumSize() - 类 中的方法org.apache.hadoop.util.DataChecksum
-
- getChecksumType() - 类 中的方法org.apache.hadoop.util.DataChecksum
-
- getChildren() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedNetworkTopology
-
- getChildren() - 类 中的方法org.apache.hadoop.tools.rumen.Node
-
Get the children of this node.
- getChunkPosition(long) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
Return position of beginning of chunk containing pos.
- getChunkPosition(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
- getClass(String, Class<?>) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the
name
property as a Class
.
- getClass(String, Class<? extends U>, Class<U>) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the
name
property as a Class
implementing the interface specified by xface
.
- getClass(byte) - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
-
- getClass(String, Configuration) - 类 中的静态方法org.apache.hadoop.io.WritableName
-
Return the class for a name.
- getClass(T) - 类 中的静态方法org.apache.hadoop.util.GenericsUtil
-
Returns the Class object (of type
Class<T>
) of the
argument of type T
.
- getClass(T) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
-
Return the correctly-typed
Class
of the given object.
- getClassByName(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Load a class by name.
- getClassByName(String) - 类 中的静态方法org.apache.hadoop.contrib.utils.join.DataJoinJob
-
- getClasses(String, Class<?>...) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the
name
property
as an array of Class
.
- getClassLoader() - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the
ClassLoader
for this job.
- getClassName() - 异常错误 中的方法org.apache.hadoop.ipc.RemoteException
-
- getClassPaths() - 类 中的方法org.apache.hadoop.filecache.TaskDistributedCacheManager
-
Retrieves class paths (as local references) to add.
- getCleanupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get the information of the current state of the cleanup tasks of a job.
- getCleanupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getCleanupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getClient() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- getClientInput() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
-
Returns the DataInput from which the client output is read.
- getClientOutput() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
-
Returns the DataOutput to which the client input is written.
- getClientVersion() - 异常错误 中的方法org.apache.hadoop.ipc.RPC.VersionMismatch
-
Get the client's preferred version
- getClock() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getClosest(WritableComparable, Writable) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
Finds the record that is the closest match to the specified key.
- getClosest(WritableComparable, Writable, boolean) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
Finds the record that is the closest match to the specified key.
- getClusterMapMB() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getClusterMetrics() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getClusterNick() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
已过时。
- getClusterReduceMB() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getClusterStatus() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get status information about the Map-Reduce cluster.
- getClusterStatus(boolean) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get status information about the Map-Reduce cluster.
- getClusterStatus() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
已过时。
- getClusterStatus(boolean) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getClusterStatus(boolean) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getClusterTopology() - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
-
Get the cluster topology tree.
- getClusterTopology() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieCluster
-
- getCodec(Path) - 类 中的方法org.apache.hadoop.io.compress.CompressionCodecFactory
-
Find the relevant compression codec for the given file based on its
filename suffix.
- getCodecByClassName(String) - 类 中的方法org.apache.hadoop.io.compress.CompressionCodecFactory
-
Find the relevant compression codec for the codec's canonical class name.
- getCodecByName(String) - 类 中的方法org.apache.hadoop.io.compress.CompressionCodecFactory
-
Find the relevant compression codec for the codec's canonical class name
or by codec alias.
- getCodecClassByName(String) - 类 中的方法org.apache.hadoop.io.compress.CompressionCodecFactory
-
Find the relevant compression codec for the codec's canonical class name
or by codec alias and returns its implemetation class.
- getCodecClasses(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.CompressionCodecFactory
-
Get the list of codecs listed in the configuration
- getCollector(String, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Gets the output collector for a named output.
- getCollector(String, String, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Gets the output collector for a multi named output.
- getColumnName(int) - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
-
Get the name of a given column as a string
- getCombineInputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getCombinerClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the user-defined combiner class used to combine map-outputs
before being sent to the reducers.
- getCombinerClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the combiner class for the job.
- getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.DoubleValueSum
-
- getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMax
-
- getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMin
-
- getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueSum
-
- getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMax
-
- getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMin
-
- getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
-
- getCombinerOutput() - 接口 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregator
-
- getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
-
- getCommandLine() - 类 中的方法org.apache.hadoop.util.GenericOptionsParser
-
Returns the commons-cli
CommandLine
object
to process the parsed arguments.
- getCommandName() - 类 中的方法org.apache.hadoop.fs.shell.Command
-
Return the command's name excluding the leading character -
- getCommandName() - 类 中的方法org.apache.hadoop.fs.shell.Count
-
- getCommitDirectory(Job) - 类 中的静态方法org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
-
Getter for the final commit-directory.
- getComparator() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get an instance of the RawComparator that is constructed based on the
string comparator representation.
- getComparator() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Return comparator defining the ordering for RecordReaders in this
composite.
- getComparatorName() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get the string representation of the comparator.
- getCompressedData() - 类 中的方法org.apache.hadoop.io.compress.BlockDecompressorStream
-
- getCompressedData() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
-
- getCompressionCodec() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Returns the compression codec of data in this file.
- getCompressionCodec() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
-
Returns the compression codec of data in this file.
- getCompressionLevel(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
-
- getCompressionStrategy(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
-
- getCompressionType(Configuration) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
-
已过时。
Use
SequenceFileOutputFormat.getOutputCompressionType(org.apache.hadoop.mapred.JobConf)
to get SequenceFile.CompressionType
for job-outputs.
- getCompressMapOutput() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Are the outputs of the maps be compressed?
- getCompressor(CompressionCodec, Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.CodecPool
-
Get a
Compressor
for the given CompressionCodec
from the
pool or a new one.
- getCompressor(CompressionCodec) - 类 中的静态方法org.apache.hadoop.io.compress.CodecPool
-
- getCompressorType() - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
-
This functionality is currently not supported.
- getCompressorType() - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
-
Get the type of
Compressor
needed by this CompressionCodec
.
- getCompressorType() - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
-
- getCompressorType() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
-
- getCompressorType() - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
-
Get the type of
Compressor
needed by this CompressionCodec
.
- getCompressOutput(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
Is the job output compressed?
- getCompressOutput(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Is the job output compressed?
- getComputonsPerMapInputByte() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getComputonsPerMapOutputByte() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getComputonsPerReduceInputByte() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getComputonsPerReduceOutputByte() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getConditions() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- getConf() - 接口 中的方法org.apache.hadoop.conf.Configurable
-
Return the configuration used by this object.
- getConf() - 类 中的方法org.apache.hadoop.conf.Configured
-
- getConf() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
- getConf() - 类 中的方法org.apache.hadoop.hdfs.server.balancer.Balancer
-
return this balancer's configuration
- getConf() - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
-
- getConf() - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
-
- getConf() - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
-
Return the configuration used by this object.
- getConf() - 类 中的方法org.apache.hadoop.io.GenericWritable
-
- getConf() - 类 中的方法org.apache.hadoop.io.ObjectWritable
-
- getConf() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Returns a handle to the JobTracker's Configuration
- getConf() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Return the configuration used by this object.
- getConf() - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler
-
- getConf() - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter.FilterBase
-
- getConf() - 类 中的方法org.apache.hadoop.mapred.Task
-
- getConf() - 类 中的方法org.apache.hadoop.mapred.TaskController
-
- getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
- getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.FilterBase
-
- getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
-
- getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
-
- getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
-
- getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
-
- getConf() - 类 中的方法org.apache.hadoop.net.ScriptBasedMapping
-
- getConf() - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
-
- getConf() - 类 中的方法org.apache.hadoop.streaming.DumpTypedBytes
-
- getConf() - 类 中的方法org.apache.hadoop.streaming.LoadTypedBytes
-
- getConf() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- getConf() - 类 中的方法org.apache.hadoop.tools.DistCp
-
- getConf() - 类 中的方法org.apache.hadoop.tools.HadoopArchives
-
- getConf() - 类 中的方法org.apache.hadoop.tools.Logalyzer.LogComparator
-
- getConf() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- getConfigLabel() - 枚举 中的方法org.apache.hadoop.tools.distcp2.DistCpOptionSwitch
-
Get Configuration label for the option
- getConfiguration() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the underlying configuration object.
- getConfiguration(String, FilterConfig) - 类 中的方法org.apache.hadoop.hdfs.web.AuthFilter
-
Returns the filter configuration properties,
including the ones prefixed with
AuthFilter.CONF_PREFIX
.
- getConfiguration() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Return the configuration for the job.
- getConfiguration(String, FilterConfig) - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Returns the filtered configuration (only properties starting with the specified prefix).
- getConfiguration() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
-
Returns the Configuration.
- getConfiguration() - 类 中的方法org.apache.hadoop.util.GenericOptionsParser
-
Get the modified configuration
- getConfigVersion() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getConfigVersion() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getConfigVersion() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getConfigVersion() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
-
- getConfirmationNeeded() - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
-
- getConfResourceAsInputStream(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get an input stream attached to the configuration resource with the
given
name
.
- getConfResourceAsReader(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get a
Reader
attached to the configuration resource with the
given name
.
- getConnectAddress(Server) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Returns InetSocketAddress that a client can use to
connect to the server.
- getConnection() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
Returns a connection object o the DB
- getConnection() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
- getConnection() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat.DBRecordWriter
-
- getConnection() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- getContentSummary(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Return the
ContentSummary
of a given Path
.
- getContentSummary(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Return the
ContentSummary
of a given Path
.
- getContentSummary(Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
Return the
ContentSummary
of a given Path
.
- getContentSummary(String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Get
ContentSummary
rooted at the specified directory.
- getContentSummary(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Get
ContentSummary
rooted at the specified directory.
- getContentSummary(Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getContext(String, String) - 类 中的方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
Returns the named MetricsContext instance, constructing it if necessary
using the factory's current configuration attributes.
- getContext(String) - 类 中的方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
- getContext(String) - 类 中的静态方法org.apache.hadoop.metrics.MetricsUtil
-
已过时。
- getContext(String, String) - 类 中的静态方法org.apache.hadoop.metrics.MetricsUtil
-
已过时。
Utility method to return the named context.
- getContext() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
-
- getContextFactory() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Returns the factory by which this context was created.
- getContextName() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
-
已过时。
Returns the context name.
- getContextName() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Returns the context name.
- getCookieDomain() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Returns the cookie domain to use for the HTTP cookie.
- getCookiePath() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Returns the cookie path to use for the HTTP cookie.
- getCopyListing(Configuration, Credentials, DistCpOptions) - 类 中的静态方法org.apache.hadoop.tools.distcp2.CopyListing
-
Public Factory method with which the appropriate CopyListing implementation may be retrieved.
- getCopyStrategy() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Get the copy strategy to use.
- getCorruptBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Returns count of blocks with at least one replica marked corrupt.
- getCorruptBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Returns count of blocks with at least one replica marked corrupt.
- getCorruptReplicaBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Returns number of blocks with corrupt replicas
- getCount() - 类 中的方法org.apache.hadoop.record.Buffer
-
Get the current count of the buffer.
- getCounter() - 类 中的方法org.apache.hadoop.mapred.Counters.Counter
-
What is the current value of this counter?
- getCounter(Enum) - 类 中的方法org.apache.hadoop.mapred.Counters
-
Returns current value of the specified counter, or 0 if the counter
does not exist.
- getCounter(String) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
Returns the value of the specified counter, or 0 if the counter does
not exist.
- getCounter(int, String) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
已过时。
use
Counters.Group.getCounter(String)
instead
- getCounter(Enum<?>) - 接口 中的方法org.apache.hadoop.mapred.Reporter
-
Get the
Counters.Counter
of the given group with the given name.
- getCounter(String, String) - 接口 中的方法org.apache.hadoop.mapred.Reporter
-
Get the
Counters.Counter
of the given group with the given name.
- getCounter(String, String) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- getCounter(Enum<?>) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- getCounter(Enum<?>) - 类 中的方法org.apache.hadoop.mapreduce.StatusReporter
-
- getCounter(String, String) - 类 中的方法org.apache.hadoop.mapreduce.StatusReporter
-
- getCounter(Enum<?>) - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
-
- getCounter(String, String) - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
-
- getCounterForName(String) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
Get the counter for the given name and create it if it doesn't exist.
- getCounters(Counters) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Returns the total job counters, by adding together the job,
the map and the reduce counters.
- getCounters() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Gets the counters for this job.
- getCounters() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
A table of counters.
- getCounters() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Get task's counters.
- getCounters() - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Gets the counters for this job.
- getCounters() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the counters
- getCounters() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the counters for the attempt
- getCounters() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the counters for the attempt
- getCounters() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
-
Get task counters
- getCountersEnabled(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Returns if the counters for the named outputs are enabled or not.
- getCountersEnabled(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
-
Returns if the counters for the named outputs are enabled or not.
- getCountQuery() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat
-
Returns the query for getting the total number of rows,
subclasses can override this for custom behaviour.
- getCountQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
Returns the query for getting the total number of rows,
subclasses can override this for custom behaviour.
- getCpuFrequency() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Obtain the CPU frequency of on the system.
- getCpuFrequency() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain the CPU frequency of on the system.
- getCpuUsage() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Obtain the CPU usage % of the machine.
- getCpuUsage() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain the CPU usage % of the machine.
- getCredentials() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get credentials for the job.
- getCredentials() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get credentials for the job.
- getCredentials() - 类 中的方法org.apache.hadoop.tools.distcp2.CopyListing
-
get credentials to update the delegation tokens for accessed FS objects
- getCTime() - 类 中的方法org.apache.hadoop.hdfs.server.common.StorageInfo
-
- getCumulativeCpuTime() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Obtain the cumulative CPU time since the system is on.
- getCumulativeCpuTime() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Get the CPU time in millisecond used by all the processes in the
process-tree since the process-tree created
- getCumulativeCpuTime() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain the cumulative CPU time since the system is on.
- getCumulativeCpuTime() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin.ProcResourceValues
-
Obtain the cumulative CPU time used by a current process tree.
- getCumulativeCpuUsage() - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Get the cumulative CPU usage.
- getCumulativeRssmem() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Get the cumulative resident set size (rss) memory used by all the processes
in the process-tree.
- getCumulativeRssmem(int) - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Get the cumulative resident set size (rss) memory used by all the processes
in the process-tree that are older than the passed in age.
- getCumulativeVmem() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Get the cumulative virtual memory used by all the processes in the
process-tree.
- getCumulativeVmem(int) - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Get the cumulative virtual memory used by all the processes in the
process-tree that are older than the passed in age.
- getCurrentBlock() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSDataInputStream
-
Returns the block containing the target position.
- getCurrentBlock() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
Returns the block containing the target position.
- getCurrentDatanode() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSDataInputStream
-
Returns the datanode from which the stream is currently reading.
- getCurrentDatanode() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
Returns the datanode from which the stream is currently reading.
- getCurrentDir() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
Directory
current
contains latest files defining
the file system meta-data.
- getCurrentIntervalValue() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingInt
-
已过时。
The Value at the current interval
- getCurrentIntervalValue() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingLong
-
已过时。
The Value at the current interval
- getCurrentKey() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
Get the current key
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.LineRecordReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.MapContext
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.RecordReader
-
Get the current key
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
-
Get the current key.
- getCurrentKey() - 类 中的方法org.apache.hadoop.streaming.io.OutputReader
-
Returns the current key.
- getCurrentKey() - 类 中的方法org.apache.hadoop.streaming.io.RawBytesOutputReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.streaming.io.TextOutputReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesOutputReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicRecordReader
-
Implementation of RecordReader::getCurrentKey().
- getCurrentLayoutVersion() - 类 中的静态方法org.apache.hadoop.hdfs.protocol.LayoutVersion
-
Get the current layout version
- getCurrentSegmentGeneration(Directory) - 类 中的静态方法org.apache.hadoop.contrib.index.lucene.LuceneUtil
-
Get the generation (N) of the current segments_N file in the directory.
- getCurrentSplit(JobConf) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- getCurrentStatus() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
-
- getCurrentStatus() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
The current status
- getCurrentTrashDir() - 类 中的方法org.apache.hadoop.fs.FsShell
-
Returns the Trash object associated with this shell.
- getCurrentUser() - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
-
Return the current user, including any doAs in the current stack.
- getCurrentValue(Writable) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Get the 'value' corresponding to the last read 'key'.
- getCurrentValue(Object) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Get the 'value' corresponding to the last read 'key'.
- getCurrentValue(V) - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
Get the current value.
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.LineRecordReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.MapContext
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.RecordReader
-
Get the current value.
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
-
Get the current value.
- getCurrentValue() - 类 中的方法org.apache.hadoop.streaming.io.OutputReader
-
Returns the current value.
- getCurrentValue() - 类 中的方法org.apache.hadoop.streaming.io.RawBytesOutputReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.streaming.io.TextOutputReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesOutputReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicRecordReader
-
Implementation of RecordReader::getCurrentValue().
- getData() - 类 中的方法org.apache.hadoop.contrib.utils.join.TaggedMapOutput
-
- getData() - 类 中的方法org.apache.hadoop.io.DataInputBuffer
-
- getData() - 类 中的方法org.apache.hadoop.io.DataOutputBuffer
-
Returns the current contents of the buffer.
- getData() - 类 中的方法org.apache.hadoop.io.OutputBuffer
-
Returns the current contents of the buffer.
- getDataNode() - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Return the DataNode object
- getDatanode() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.UpgradeObjectDatanode
-
- getDatanode(DatanodeID) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Get data node by storage ID.
- getDataNodeInfo(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getDatanodeListForReport(FSConstants.DatanodeReportType) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getDatanodeReport(FSConstants.DatanodeReportType) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Get a report on the system's current datanodes.
- getDatanodeReport() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
A formatted string for reporting the status of the DataNode.
- getDatanodeReport(FSConstants.DatanodeReportType) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getDatanodes() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations.BlockWithLocations
-
get the block's locations
- getDataNodeStats() - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
-
Return statistics for each datanode.
- getDataNodeStats() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Return statistics for each datanode.
- getDate() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
-
The date that Hadoop was compiled.
- getDateFormat() - 类 中的静态方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getDatum() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedSingleRelativeRanking
-
- getDatumAt(int) - 类 中的方法org.apache.hadoop.tools.rumen.CDFRandomGenerator
-
- getDBConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
- getDBConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- getDBProductName() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
- getDeadNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Returned information is a JSON representation of map with host name as the
key and value is a map of dead node attribute keys to its values
- getDeadNodes() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the dead node information of the cluster.
- getDeclaredClass() - 类 中的方法org.apache.hadoop.io.ObjectWritable
-
Return the class this is meant to be.
- getDecommissionedTaskTrackerCount() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the number of decommissioned trackers in the cluster.
- getDecommissioningNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getDecomNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Returned information is a JSON representation of map with host name as the
key and value is a map of decomisioning node attribute keys to its values
- getDecomNodes() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the decommissioning node information of the cluster.
- getDecompressor(CompressionCodec) - 类 中的静态方法org.apache.hadoop.io.compress.CodecPool
-
Get a
Decompressor
for the given CompressionCodec
from the
pool or a new one.
- getDecompressorType() - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
-
This functionality is currently not supported.
- getDecompressorType() - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
-
Get the type of
Decompressor
needed by this CompressionCodec
.
- getDecompressorType() - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
-
- getDecompressorType() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
-
- getDecompressorType() - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
-
Get the type of
Decompressor
needed by this CompressionCodec
.
- getDefault() - 类 中的静态方法org.apache.hadoop.fs.permission.FsPermission
-
Get the default permission.
- getDefaultAuthenticator() - 类 中的静态方法org.apache.hadoop.security.authentication.client.AuthenticatedURL
-
Returns the default
Authenticator
class to use when an AuthenticatedURL
instance
is created without specifying an authenticator.
- getDefaultBlockSize() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
已过时。
use
FileSystem.getDefaultBlockSize(Path)
instead
- getDefaultBlockSize(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Return the number of bytes that large input files should be optimally
be split into to minimize i/o time.
- getDefaultBlockSize() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Return the number of bytes that large input files should be optimally
be split into to minimize i/o time.
- getDefaultBlockSize() - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- getDefaultBlockSize() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Get the default block size for this cluster
- getDefaultBlockSize() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- getDefaultBlockSize() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getDefaultChunkSize(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
Get the default chunk size.
- getDefaultExtension() - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
-
.bz2 is recognized as the default extension for compressed BZip2 files
- getDefaultExtension() - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
-
Get the default filename extension for this kind of compression.
- getDefaultExtension() - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
-
- getDefaultExtension() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
-
- getDefaultExtension() - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
-
Get the default filename extension for this kind of compression.
- getDefaultHost(String, String) - 类 中的静态方法org.apache.hadoop.net.DNS
-
Returns the default (first) host name associated by the provided
nameserver with the address bound to the specified network interface
- getDefaultHost(String) - 类 中的静态方法org.apache.hadoop.net.DNS
-
Returns the default (first) host name associated by the default
nameserver with the address bound to the specified network interface
- getDefaultIP(String) - 类 中的静态方法org.apache.hadoop.net.DNS
-
Returns the first available IP address associated with the provided
network interface
- getDefaultMaps() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get status information about the max available Maps in the cluster.
- getDefaultPort() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Get the default port for this file system.
- getDefaultPort() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- getDefaultPort() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getDefaultPort() - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem
-
- getDefaultPort() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getDefaultRealm() - 类 中的静态方法org.apache.hadoop.security.authentication.util.KerberosUtil
-
- getDefaultRealm() - 类 中的方法org.apache.hadoop.security.KerberosName
-
Get the configured default realm.
- getDefaultReduces() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get status information about the max available Reduces in the cluster.
- getDefaultReplication() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
已过时。
use
FileSystem.getDefaultReplication(Path)
instead
- getDefaultReplication(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Get the default replication.
- getDefaultReplication() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Get the default replication.
- getDefaultReplication() - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- getDefaultReplication() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
- getDefaultReplication() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- getDefaultReplication() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getDefaultRetryPolicy(Configuration, String, boolean, String, String, Class<? extends Exception>...) - 类 中的静态方法org.apache.hadoop.io.retry.RetryUtils
-
Return the default retry policy set in conf.
- getDefaultSocketFactory(Configuration) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Get the default socket factory as specified by the configuration
parameter hadoop.rpc.socket.factory.default
- getDefaultUri(Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Get the default filesystem URI from a configuration.
- getDefaultWebUser(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
If security is turned off, what is the default web user?
- getDefaultWorkFile(TaskAttemptContext, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Get the default path and filename for the output format.
- getDelegate() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Obtain an iterator over the child RRs apropos of the value type
ultimately emitted from this join.
- getDelegate() - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader
-
Return an iterator wrapping the JoinCollector.
- getDelegate() - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader
-
Return an iterator returning a single value from the tuple.
- getDelegationToken(String) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Get a new delegation token for this file system.
- getDelegationToken(Text) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
- getDelegationToken(String) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- getDelegationToken(Text) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
已过时。
- getDelegationToken(String) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getDelegationToken(Text) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Get a valid Delegation Token.
- getDelegationToken(Text) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getDelegationToken(Text) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getDelegationToken(String) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getDelegationToken(Text) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
- getDelegationToken(Text) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Get a new delegation token.
- getDelegationToken(Text) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getDelegationToken(Credentials, String) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
-
- getDelegationTokens(Configuration, Credentials) - 类 中的静态方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
For each archive or cache file - get the corresponding delegation token
- getDelegationTokenSecretManager() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Returns the DelegationTokenSecretManager instance in the namesystem.
- getDelegationTokenSecretManager() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- GetDelegationTokenServlet - org.apache.hadoop.hdfs.server.namenode中的类
-
Serve delegation tokens over http for use in hftp.
- GetDelegationTokenServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.GetDelegationTokenServlet
-
- getDelegationTokenUrlParam(String) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
Returns the url parameter for the given token string.
- getDependentJobs() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- getDependingJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- getDescription() - 枚举 中的方法org.apache.hadoop.hdfs.protocol.LayoutVersion.Feature
-
Accessor method for feature description
- getDescription() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
-
Description of the upgrade object for displaying.
- getDescription() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeObject
-
- getDescription() - 类 中的方法org.apache.hadoop.metrics.util.MetricsBase
-
已过时。
- getDeserializer(Class<Serializable>) - 类 中的方法org.apache.hadoop.io.serializer.JavaSerialization
-
- getDeserializer(Class<T>) - 接口 中的方法org.apache.hadoop.io.serializer.Serialization
-
- getDeserializer(Class<T>) - 类 中的方法org.apache.hadoop.io.serializer.SerializationFactory
-
- getDeserializer(Class<Writable>) - 类 中的方法org.apache.hadoop.io.serializer.WritableSerialization
-
- getDFS() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
- getDFSClient(UserGroupInformation, InetSocketAddress, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- getDFSClient(HttpServletRequest) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.StreamFile
-
getting a client for connecting to dfs
- getDFSNameNodeAddress() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
已过时。
use
NameNode.getNameNodeAddress()
instead.
- getDfsUsed() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem.DiskStatus
-
- getDfsUsed() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
The used space by the data node.
- getDfsUsed() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Return the total space used by dfs datanode
- getDfsUsed() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.FSDatasetMBean
-
Returns the total space (in bytes) used by dfs datanode
- getDfsUsedPercent() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
The used space by the data node as percentage of present capacity
- getDiagnosticInfo() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getDiagnostics() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
A list of error messages.
- getDigest() - 类 中的方法org.apache.hadoop.io.MD5Hash
-
Returns the digest bytes.
- getDigester() - 类 中的静态方法org.apache.hadoop.io.MD5Hash
-
Create a thread local MD5 digester
- getDirectDependantJobs() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getDirectory() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
-
Get the ram directory of the intermediate form.
- getDirectory() - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
-
Get the directory where this shard resides.
- getDirectoryCount() - 类 中的方法org.apache.hadoop.fs.ContentSummary
-
- getDirFailures() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get the number of local directories that have failed on this tracker.
- getDirPath() - 类 中的方法org.apache.hadoop.fs.DF
-
- getDirPath() - 类 中的方法org.apache.hadoop.fs.DU
-
- getDiskStatus() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
- getDiskStatus() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Return the disk usage of the filesystem, including total capacity,
used space, and remaining space
- getDisplayName() - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
Returns localized name of the group.
- getDisplayName() - 类 中的方法org.apache.hadoop.mapreduce.Counter
-
Get the name of the counter.
- getDisplayName() - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
-
Get the display name of the group.
- getDistance(Node, Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Return the distance between two nodes
It is assumed that the distance from one node to its parent is 1
The distance between two nodes is calculated by summing up their distances
to their closest common ancestor.
- getDistributedUpgrades() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- getDistributedUpgrades(int, HdfsConstants.NodeType) - 类 中的静态方法org.apache.hadoop.hdfs.server.common.UpgradeObjectCollection
-
- getDistributedUpgradeVersion() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
-
- getDistributionPolicyClass() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the distribution policy class.
- getDmax(String) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
-
已过时。
- getDocument() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
-
Get the document.
- getDocumentAnalyzerClass() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the analyzer class.
- getDoOutput() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
-
- getDoOutput() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
-
- getDoOutput() - 接口 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Op
-
- getDoOutput() - 类 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.TemporaryRedirectOp
-
- getDoOutput() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
-
- getDoOutput() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
-
- getDoubleValue(Object) - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
-
- getDTfromRemote(String, InetSocketAddress, String, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DelegationTokenFetcher
-
Utility method to obtain a delegation token over http
- getDU(File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Takes an input dir and returns the du on that local directory.
- getEditLog() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
- getEditLogSize() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Returns the size of the current edit log.
- getEditLogSize() - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.NamenodeProtocol
-
Get the size of the current edit log (in bytes).
- getElementTypeID() - 类 中的方法org.apache.hadoop.record.meta.VectorTypeID
-
- getEmptier() - 类 中的方法org.apache.hadoop.fs.Trash
-
Return a
Runnable
that periodically empties the trash of all
users, intended to be run by the superuser.
- getEnd() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
-
- getEnd() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
-
- getEndColumn() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- getEndLine() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- getEntry(MapFile.Reader[], Partitioner<K, V>, K, V) - 类 中的静态方法org.apache.hadoop.mapred.MapFileOutputFormat
-
Get an entry from output generated by this class.
- getEntryComparator() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get a Comparator object to compare Entries.
- getEntryCount() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get the number of key-value pair entries in TFile.
- getEnum(String, T) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Return value matching this enumerated type.
- getErrno() - 异常错误 中的方法org.apache.hadoop.io.nativeio.NativeIOException
-
- getError() - 类 中的静态方法org.apache.hadoop.log.metrics.EventCounter
-
- getError() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
-
Get the error string
- getError() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
-
Get the error string
- getEventId() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
Returns event Id.
- getEventType() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogEvent
-
Return the
UserLogEvent.EventType
.
- getEventType() - 接口 中的方法org.apache.hadoop.tools.rumen.HistoryEvent
-
Return this event's type.
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobInfoChangeEvent
-
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobPriorityChangeEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobStatusChangedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
-
Get event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskStartedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskUpdatedEvent
-
Get the event type
- getExceptions() - 异常错误 中的方法org.apache.hadoop.io.MultipleIOException
-
- getExcessBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getExcludedHosts() - 类 中的方法org.apache.hadoop.util.HostsFileReader
-
- getExecString() - 类 中的方法org.apache.hadoop.fs.DF
-
- getExecString() - 类 中的方法org.apache.hadoop.fs.DU
-
- getExecString() - 类 中的方法org.apache.hadoop.util.Shell
-
return an array containing the command name & its parameters
- getExecString() - 类 中的方法org.apache.hadoop.util.Shell.ShellCommandExecutor
-
- getExecutable(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Get the URI of the application's executable.
- getExitCode() - 异常错误 中的方法org.apache.hadoop.util.Shell.ExitCodeException
-
- getExitCode() - 类 中的方法org.apache.hadoop.util.Shell
-
get the exit code
- getExpectedHttpResponseCode() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
-
- getExpectedHttpResponseCode() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
-
- getExpectedHttpResponseCode() - 接口 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Op
-
- getExpectedHttpResponseCode() - 类 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.TemporaryRedirectOp
-
Override the original expected response with "Temporary Redirect".
- getExpectedHttpResponseCode() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
-
- getExpectedHttpResponseCode() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
-
- getExpires() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
-
Returns the expiration time of the token.
- getExpiryDate() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- getExpiryDate() - 类 中的方法org.apache.hadoop.security.token.delegation.DelegationKey
-
- getExportedKeys() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.KeyUpdateCommand
-
- getFactor() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Get the number of streams to merge at once.
- getFactory(Class) - 类 中的静态方法org.apache.hadoop.io.WritableFactories
-
Define a factory for a class.
- getFactory() - 类 中的静态方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
Returns the singleton ContextFactory instance, constructing it if
necessary.
- getFailedAttemptID() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
-
Get the attempt id due to which the task failed
- getFailedJobList() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
- getFailedJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
- getFailedMapAttemptCDFs() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getFailedMapperFraction() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getFailedMaps() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the number of failed maps for the job
- getFailedReduceAttemptCDF() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getFailedReduces() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the number of failed reducers for the job
- getFailureInfo() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
gets any available info on the reason of failure of the job.
- getFailureInfo() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get failure info for the job.
- getFallBackAuthenticator() - 类 中的方法org.apache.hadoop.hdfs.web.KerberosUgiAuthenticator
-
- getFallBackAuthenticator() - 类 中的方法org.apache.hadoop.security.authentication.client.KerberosAuthenticator
-
If the specified URL does not support SPNEGO authentication, a fallback
Authenticator
will be used.
- getFatal() - 类 中的静态方法org.apache.hadoop.log.metrics.EventCounter
-
- getFetchFailedMaps() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Get the list of maps from which output-fetches failed.
- getFieldID() - 类 中的方法org.apache.hadoop.record.meta.FieldTypeInfo
-
get the field's id (name)
- getFieldNames() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- getFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
-
Get common storage fields.
- getFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataStorage
-
- getFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
- getFieldSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeMapper
-
- getFieldSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
-
Returns the field separator to be used.
- getFieldSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeReducer
-
- getFieldTypeInfos() - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
-
Return a collection of field type infos
- getFieldTypeInfos() - 类 中的方法org.apache.hadoop.record.meta.StructTypeID
-
- getFile(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get a local file name under a directory named in dirsProp with
the given path.
- getFile(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Turn the block identifier into a filename.
- getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Return an array containing hostnames, offset and size of
portions of the given file.
- getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
- getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
Get block locations from the underlying fs and fix their
offsets and lengths.
- getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
Return null if the file doesn't exist; otherwise, get the
locations of the various chunks of the file file from KFS.
- getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getFileBlockLocations(FileSystem, FileStatus) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
- getFileBytesRead() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getFileBytesWritten() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getFileChecksum(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Get the checksum of a file.
- getFileChecksum(Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Get the checksum of a file.
- getFileChecksum(Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
- getFileChecksum(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Get the checksum of a file.
- getFileChecksum(String, ClientProtocol, SocketFactory, int) - 类 中的静态方法org.apache.hadoop.hdfs.DFSClient
-
Get the checksum of a file.
- getFileChecksum(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Get the checksum of a file.
- getFileChecksum(Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
Get the checksum of a file.
- getFileChecksum(Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getFileClassPaths(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Get the file entries in classpath as an array of Path.
- getFileCount() - 类 中的方法org.apache.hadoop.fs.ContentSummary
-
- getFileDescriptor() - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
-
- getFileDescriptor() - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
-
- getFileDescriptor() - 接口 中的方法org.apache.hadoop.fs.HasFileDescriptor
-
- getFileInfo(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
- getFileInfo(String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Get the file info for a specific file or directory.
- getFileInfo(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Get the file info for a specific file.
- getFileLength() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
- getFileLength() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
-
- getFileListingPath() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCp
-
Get default name of the copy listing file.
- getFileName() - 类 中的方法org.apache.hadoop.metrics.file.FileContext
-
已过时。
Returns the configured file name, or null.
- getFiles(PathFilter) - 类 中的方法org.apache.hadoop.fs.InMemoryFileSystem
-
已过时。
- getFileSize(Path, Configuration) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
Retrieves size of the file at the specified path.
- getFileStatus(Configuration, URI) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Returns
FileStatus
of a given cache file on hdfs.
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Return a file status object that represents the path.
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Get file status.
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
-
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
return the filestatus of files in har archive.
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
FileStatus for S3 file systems.
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
-
Returns the stat information about the file.
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Returns the stat information about the file.
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getFilesTotal() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getFilesTotal() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Total number of files and directories
- getFilesystem() - 类 中的方法org.apache.hadoop.fs.DF
-
- getFileSystem(Configuration) - 类 中的方法org.apache.hadoop.fs.Path
-
Return the FileSystem that owns this Path.
- getFileSystemCounterNames(String) - 类 中的静态方法org.apache.hadoop.mapred.Task
-
Counters to measure the usage of the different file systems.
- getFilesystemName() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Grab the local fs name
- getFilesystemName() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getFileTimestamps(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Get the timestamps of the files.
- getFileType() - 类 中的方法org.apache.hadoop.fs.s3.INode
-
- getFileVisibilities(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
Get the booleans on whether the files are public or not.
- getFinalizedTmp() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
finalized.tmp
is a transient directory, which holds
the previous
file system state while it is being removed
in response to the finalize request.
- getFinalSync(JobConf) - 类 中的静态方法org.apache.hadoop.examples.terasort.TeraOutputFormat
-
Does the user want a final sync at close?
- getFinishedMaps() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the number of finished maps for the job
- getFinishedMaps() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
-
Get the number of finished maps
- getFinishedReduces() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the number of finished reducers for the job
- getFinishedReduces() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
-
Get the number of finished reduces
- getFinishTime() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getFinishTime() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
Get finish time of task.
- getFinishTime() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Get task finish time. if shuffleFinishTime and sortFinishTime
are not set before, these are set to finishTime.
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the job finish time
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
-
Get the job finish time
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the attempt finish time
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the finish time of the attempt
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the attempt finish time
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
-
Get the finish time
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
-
Get the finish time of the attempt
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
-
Get the task finish time
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskUpdatedEvent
-
Get the task finish time
- getFirst() - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
-
- getFirstHalf(String) - 类 中的静态方法org.apache.hadoop.net.NetworkTopology
-
Divide networklocation string into two parts by last separator, and get the
first part here.
- getFirstKey() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get the first key in the TFile.
- getFlippable() - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino.Piece
-
- getFloat(String, float) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the
name
property as a float
.
- getForce() - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
-
- getFormatMinSplitSize() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Get the lower bound on split size imposed by the format.
- getFormatMinSplitSize() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFormat
-
- getFormattedTimeWithDiff(DateFormat, long, long) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Formats time in ms and appends difference (finishTime - startTime)
as returned by formatTimeDiff().
- getFormatter() - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
- getFree() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getFree() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets total non-used raw bytes.
- getFS() - 类 中的方法org.apache.hadoop.fs.FsShell
-
- getFs() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get a filesystem handle.
- getFSDataset() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
This method is used for testing.
- getFsEditName() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
- getFSImage() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getFsImageName() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Returns the name of the fsImage file
- getFsImageNameCheckpoint() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Returns the name of the fsImage file uploaded by periodic
checkpointing
- getFSNamesystem() - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Return the FSNamesystem object
- getFSNamesystem() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.UpgradeObjectNamenode
-
- getFsPermission() - 类 中的方法org.apache.hadoop.hdfs.web.resources.PermissionParam
-
- getFSSize() - 类 中的方法org.apache.hadoop.fs.InMemoryFileSystem
-
已过时。
- getFSState() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getFSState() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
The state of the file system: Safemode or Operational
- getFsStatistics(Path, Configuration) - 类 中的静态方法org.apache.hadoop.mapred.Task
-
Gets a handle to the Statistics instance based on the scheme associated
with path.
- getFullName(String) - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the string representation of the full path name
- getFullPath(Path) - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the full path
- getFullPathName() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.FSInodeInfo
-
a string representation of an inode
- getGangliaConfForMetric(String) - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
-
Lookup GangliaConf from cache.
- getGeneration() - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
-
Get the generation of the Lucene instance.
- getGenerationStamp() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- getGenerationStamp() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Gets the generation stamp for this filesystem
- getGET_PERMISSION_COMMAND() - 类 中的静态方法org.apache.hadoop.util.Shell
-
Return a Unix command to get permission information.
- getGraylistedNodesInfoJson() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getGraylistedNodesInfoJson() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getGrayListedTaskTrackerCount() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the number of graylisted trackers in the cluster.
- getGraylistedTrackerNames() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the names of graylisted task trackers in the cluster.
- getGraylistedTrackers() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the number of graylisted task trackers in the cluster.
- getGroup() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Get the group associated with the file.
- getGroup() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the group associated with the file.
- getGroup(String) - 类 中的方法org.apache.hadoop.mapred.Counters
-
Returns the named counter group, or an empty group if there is none
with the specified name.
- getGroup(String) - 类 中的方法org.apache.hadoop.mapreduce.Counters
-
Returns the named counter group, or an empty group if there is none
with the specified name.
- getGroupAction() - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
-
Return group
FsAction
.
- getGroupingComparator() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the user defined
RawComparator
comparator for
grouping keys of inputs to the reduce.
- getGroupName() - 类 中的方法org.apache.hadoop.fs.permission.PermissionStatus
-
Return group name
- getGroupNames() - 类 中的方法org.apache.hadoop.mapred.Counters
-
Returns the names of all counter classes.
- getGroupNames() - 类 中的方法org.apache.hadoop.mapreduce.Counters
-
Returns the names of all counter classes.
- getGroupNames() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Get the group names for this user.
- getGroups(String) - 类 中的方法org.apache.hadoop.security.Groups
-
Get the group memberships of a given user.
- getGroups(String) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsMapping
-
- getGroups(String) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback
-
- getGroups(String) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMapping
-
Gets unix groups and netgroups for the user.
- getGroups(String) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMappingWithFallback
-
- getGroups(String) - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsMapping
-
- getGroups(String) - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
-
- getGroupsCommand() - 类 中的静态方法org.apache.hadoop.util.Shell
-
a Unix command to get the current user's groups list
- getGroupsForUserCommand(String) - 类 中的静态方法org.apache.hadoop.util.Shell
-
a Unix command to get a given user's groups list
- getHadoopClientHome() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- getHarHash(Path) - 类 中的静态方法org.apache.hadoop.fs.HarFileSystem
-
the hash of the path p inside iniside
the filesystem
- getHarVersion() - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
- getHashType(Configuration) - 类 中的静态方法org.apache.hadoop.util.hash.Hash
-
This utility method converts the name of the configured
hash type to a symbolic constant.
- getHdfsBytesRead() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getHdfsBytesWritten() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getHeader(boolean) - 类 中的静态方法org.apache.hadoop.fs.ContentSummary
-
Return the header of the output.
- getHeader() - 类 中的方法org.apache.hadoop.util.DataChecksum
-
- getHealthStatus() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Returns health status of the task tracker.
- getHeapMegabytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getHeapUsage() - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Get the total heap usage.
- getHints(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
已过时。
Use getBlockLocations instead
Get hints about the location of the indicated block(s).
getHints() returns a list of hostnames that store data for
a specific file region. It returns a set of hostnames for
every block within the indicated region.
This function is very useful when writing code that considers
data-placement when performing operations. For example, the
MapReduce system tries to schedule tasks on the same machines
as the data-block the task processes.
- getHistoryFilePath(JobID) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory
-
Given the job id, return the history file path from the cache
- getHomeDirectory() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Return the current user's home directory in this filesystem.
- getHomeDirectory() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
- getHomeDirectory() - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
-
- getHomeDirectory() - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
return the top level archive path.
- getHomeDirectory() - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- getHomeDirectory() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Return the current user's home directory in this filesystem.
- getHomeDirectory() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getHomeDirectoryString(UserGroupInformation) - 类 中的静态方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getHost() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
- getHost() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
- getHost() - 类 中的方法org.apache.hadoop.streaming.Environment
-
- getHostAddress() - 类 中的方法org.apache.hadoop.ipc.Server.Connection
-
- getHostFromPrincipal(String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
Get the host name from the principal name of format
/host@realm.
- getHostInetAddress() - 类 中的方法org.apache.hadoop.ipc.Server.Connection
-
- getHostName() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
- getHostName() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getHostName() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
-
- getHostName() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getHostName() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
- getHostname() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getHostname() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getHostname() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getHostname() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
-
- getHostName() - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
-
- getHostName() - 类 中的方法org.apache.hadoop.security.KerberosName
-
Get the second component of the name.
- getHostName() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getHostname() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the host name
- getHostname() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the name of the host where the attempt ran
- getHostname() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the host where the attempt executed
- getHostname() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
-
Get the name of the host where the attempt executed
- getHostname() - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Return hostname without throwing exception.
- getHosts() - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Get the list of hosts (hostname) hosting this block
- getHosts(String, String) - 类 中的静态方法org.apache.hadoop.net.DNS
-
Returns all the host names associated by the provided nameserver with the
address bound to the specified network interface
- getHosts(String) - 类 中的静态方法org.apache.hadoop.net.DNS
-
Returns all the host names associated by the default nameserver with the
address bound to the specified network interface
- getHosts() - 类 中的方法org.apache.hadoop.util.HostsFileReader
-
- getHttpAddress() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Returns the address of the NameNodes http server,
which is used to access the name-node web UI.
- getHttpAddress(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
-
- getHttpPort() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getHttpPort() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
-
Gets the http port.
- getHttpPort() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getHttpPort() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
-
- getHttpPort() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get the port that this task tracker is serving http requests on.
- getHttpPort() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the HTTP port
- getHttpUriScheme() - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getId() - 类 中的方法org.apache.hadoop.fs.s3.Block
-
- getId(Class) - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
-
- getID() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get the job identifier.
- getId() - 类 中的方法org.apache.hadoop.mapreduce.ID
-
returns the int which represents the identifier
- getIdentifier(String, SecretManager<T>) - 类 中的静态方法org.apache.hadoop.security.SaslRpcServer
-
- getIdentifier() - 类 中的方法org.apache.hadoop.security.token.Token
-
Get the token identifier
- GetImage() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- GetImageServlet - org.apache.hadoop.hdfs.server.namenode中的类
-
This class is used in Namesystem's jetty to retrieve a file.
- GetImageServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.GetImageServlet
-
- getIncludeCounters() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getIndexInputFormatClass() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the index input format class.
- getIndexInterval() - 类 中的方法org.apache.hadoop.io.MapFile.Writer
-
The number of entries that are added before an index entry is added.
- getIndexMaxFieldLength() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the max field length for a Lucene instance.
- getIndexMaxNumSegments() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the max number of segments for a Lucene instance.
- getIndexShards() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the string representation of a number of shards.
- getIndexShards(IndexUpdateConfiguration) - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.Shard
-
- getIndexUpdaterClass() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the index updater class.
- getIndexUseCompoundFile() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Check whether to use the compound file format for a Lucene instance.
- getInfo() - 类 中的静态方法org.apache.hadoop.log.metrics.EventCounter
-
- getInfoAddr(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Determine the http server's effective addr
- getInfoPort() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
- getInfoPort() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getInfoServer(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getInjectable(ComponentContext, Context, Type) - 类 中的方法org.apache.hadoop.hdfs.web.resources.UserProvider
-
- getInodeLimitText() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- getInputBoundingQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getInputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getInputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
-
- getInputClass() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getInputConditions() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getInputCountQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getInputDataLength() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
-
- getInputDataLength() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
-
- getInputFieldNames() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getInputFileBasedOutputFileName(JobConf, String) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputFormat
-
Generate the outfile name based on a given anme and the input file name.
- getInputFormat() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the
InputFormat
implementation for the map-reduce job,
defaults to TextInputFormat
if not specified explicity.
- getInputFormatClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the
InputFormat
class for the job.
- getInputOrderBy() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getInputPathFilter(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.FileInputFormat
-
Get a PathFilter instance of the filter set for the input paths.
- getInputPathFilter(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Get a PathFilter instance of the filter set for the input paths.
- getInputPaths(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.FileInputFormat
-
Get the list of input
Path
s for the map-reduce job.
- getInputPaths(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Get the list of input
Path
s for the map-reduce job.
- getInputQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getInputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getInputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
-
- getInputSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeMapper
-
- getInputSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
-
Returns the input separator to be used.
- getInputSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeReducer
-
- getInputSplit() - 接口 中的方法org.apache.hadoop.mapred.Reporter
-
Get the
InputSplit
object for a map.
- getInputSplit() - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- getInputSplit() - 类 中的方法org.apache.hadoop.mapreduce.MapContext
-
Get the input split for this map.
- getInputSplits() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the input splits for the job.
- getInputSplits() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getInputStream() - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
-
- getInputStream(Socket) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Same as getInputStream(socket, socket.getSoTimeout()).
- getInputStream(Socket, long) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Returns InputStream for the socket.
- getInputStream(InputStream) - 类 中的方法org.apache.hadoop.security.SaslRpcClient
-
Get a SASL wrapped InputStream.
- getInputTableName() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getInputWriterClass() - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
Returns the resolved
InputWriter
class.
- getInsertIndex(int) - 类 中的静态方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
-
- getInstance(Configuration, FSClusterStats, NetworkTopology) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
-
Get an instance of the configured Block Placement Policy based on the
value of the configuration paramater dfs.block.replicator.classname.
- getInstance() - 类 中的静态方法org.apache.hadoop.io.ReadaheadPool
-
Return the singleton instance for the current process.
- getInstance() - 类 中的静态方法org.apache.hadoop.mapred.CleanupQueue
-
- getInstance() - 类 中的静态方法org.apache.hadoop.mapreduce.Job
-
Creates a new
Job
A Job will be created with a generic Configuration
.
- getInstance(Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.Job
-
Creates a new
Job
with a given Configuration
.
- getInstance(Configuration, String) - 类 中的静态方法org.apache.hadoop.mapreduce.Job
-
Creates a new
Job
with a given Configuration
and a given jobName.
- getInstance(Configuration) - 类 中的静态方法org.apache.hadoop.net.NetworkTopology
-
Get an instance of NetworkTopology based on the value of the configuration
parameter net.topology.impl.
- getInstance(int) - 类 中的静态方法org.apache.hadoop.util.hash.Hash
-
Get a singleton instance of hash function of a given type.
- getInstance(Configuration) - 类 中的静态方法org.apache.hadoop.util.hash.Hash
-
Get a singleton instance of hash function of a type
defined in the configuration.
- getInstance() - 类 中的静态方法org.apache.hadoop.util.hash.JenkinsHash
-
- getInstance() - 类 中的静态方法org.apache.hadoop.util.hash.MurmurHash
-
- getInstances(String, Class<U>) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the
name
property as a List
of objects implementing the interface specified by xface
.
- getInt(String, int) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the
name
property as an int
.
- getInt(Configuration, String) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
Utility to retrieve a specified key from a Configuration.
- getInteractive() - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
-
- getInterfaceName() - 异常错误 中的方法org.apache.hadoop.ipc.RPC.VersionMismatch
-
Get the interface name
- getInvalidateWorkPctPerIteration(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.DFSUtil
-
Get DFS_NAMENODE_INVALIDATE_WORK_PCT_PER_ITERATION from configuration.
- getIOSortMB() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the IO sort space in MB.
- getIpcPort() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
- getIPs(String) - 类 中的静态方法org.apache.hadoop.net.DNS
-
Like
DNS.getIPs(String, boolean)
, but returns all
IPs associated with the given interface and its subinterfaces.
- getIPs(String, boolean) - 类 中的静态方法org.apache.hadoop.net.DNS
-
Returns all the IPs associated with the provided interface, if any, in
textual form.
- getIPs(String, boolean) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Return an InetAddress for each interface that matches the
given subnet specified using CIDR notation.
- getIsCleanup() - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
-
Get whether task is cleanup attempt or not.
- getIsJavaMapper(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Check whether the job is using a Java Mapper.
- getIsJavaRecordReader(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Check whether the job is using a Java RecordReader
- getIsJavaRecordWriter(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Will the reduce use a Java RecordWriter?
- getIsJavaReducer(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Check whether the job is using a Java Reducer.
- getIsMap() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getIssueDate() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- getJar() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the user jar for the map-reduce job.
- getJar() - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Get the pathname of the job's jar.
- getJar() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the pathname of the job's jar.
- getJob(JobID) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get an
RunningJob
object to track an ongoing job.
- getJob(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
已过时。
Applications should rather use
JobClient.getJob(JobID)
.
- getJob(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getJob() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
- getJob() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- getJobACLs() - 类 中的方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Get the job acls.
- getJobACLs() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
Get the acls for Job.
- getJobAcls() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the acls configured for the job
- getJobCacheSubdir(String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
-
- getJobClient() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- getJobClient() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
The connection to the JobTracker, used by the TaskRunner
for locating remote files.
- getJobCompletionTime() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JobCompletedEvent
-
Get the job completion time-stamp in milli-seconds.
- getJobConf() - 类 中的方法org.apache.hadoop.mapred.JobContext
-
Get the job Configuration
- getJobConf() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- getJobConf() - 类 中的方法org.apache.hadoop.mapred.TaskAttemptContext
-
- getJobConf() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the
JobConf
for the job.
- getJobConf() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getJobConfPath(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
-
Get the job conf path.
- getJobConfPath() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the Path for the Job Configuration file
- getJobCounters() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Returns the job-level counters.
- getJobCounters(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getJobCounters(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getJobDir(String) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
Get the user log directory for the job jobid.
- getJobDir(JobID) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
Get the user log directory for the job jobid.
- getJobDistCacheArchives(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
-
Get the job distributed cache archives path.
- getJobDistCacheFiles(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
-
Get the job distributed cache files path.
- getJobDistCacheLibjars(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
-
Get the job distributed cache libjars path.
- getJobEndNotificationURI() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the uri to be invoked in-order to send a notification after the job
has completed (success/failure).
- getJobFile() - 类 中的方法org.apache.hadoop.mapred.JobProfile
-
Get the configuration file for the job.
- getJobFile() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get the path of the submitted job configuration.
- getJobFile() - 类 中的方法org.apache.hadoop.mapred.Task
-
- getJobForFallowSlot(TaskType) - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
-
Get the
JobInProgress
for which the fallow slot(s) are held.
- getJobHistoryFileName(JobConf, JobID) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Recover the job history filename from the history folder.
- getJobHistoryLogLocation(String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Get the job history file path given the history filename
- getJobHistoryLogLocationForUser(String, JobConf) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Get the user job history file path
- getJobID() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- getJobID() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getJobID() - 类 中的方法org.apache.hadoop.mapred.JobProfile
-
Get the job id.
- getJobId() - 类 中的方法org.apache.hadoop.mapred.JobProfile
-
已过时。
use getJobID() instead
- getJobId() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
已过时。
use getJobID instead
- getJobID() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- getJobID() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
已过时。
This method is deprecated and will be removed. Applications should
rather use
RunningJob.getID()
.
- getJobID() - 类 中的方法org.apache.hadoop.mapred.Task
-
Get the job name for this task.
- getJobID() - 类 中的方法org.apache.hadoop.mapred.TaskAttemptID
-
- getJobID() - 类 中的方法org.apache.hadoop.mapred.TaskID
-
- getJobID() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the unique ID for the job.
- getJobID() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- getJobId() - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
-
Get the jobid
- getJobID() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.DeleteJobEvent
-
Get the jobid.
- getJobID() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JobCompletedEvent
-
Get the job id.
- getJobID() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JobStartedEvent
-
Get the job id.
- getJobID() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
-
Returns the
JobID
object that this task attempt belongs to
- getJobID() - 类 中的方法org.apache.hadoop.mapreduce.TaskID
-
Returns the
JobID
object that this tip belongs to
- getJobID() - 类 中的方法org.apache.hadoop.tools.rumen.JobBuilder
-
- getJobid() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the Job ID
- getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobInfoChangeEvent
-
Get the Job ID
- getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
-
Get the job ID
- getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobPriorityChangeEvent
-
Get the Job ID
- getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobStatusChangedEvent
-
Get the Job Id
- getJobID() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the job ID
- getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the Job Id
- getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
-
Get the Job ID
- getJobID() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getJobID() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getJobIDsPattern(String, Integer) - 类 中的静态方法org.apache.hadoop.mapred.JobID
-
已过时。
- getJobJar(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
-
Get the job jar path.
- getJobJarFile(String, String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
-
- getJobLocalDir() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get job-specific shared directory for use as scratch space
When a job starts, a shared directory is created at location
${mapred.local.dir}/taskTracker/$user/jobcache/$jobid/work/
.
- getJobMapMB() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getJobName() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the user-specified job name.
- getJobName() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- getJobName() - 类 中的方法org.apache.hadoop.mapred.JobProfile
-
Get the user-specified job name.
- getJobName() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get the name of the job.
- getJobName() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the user-specified job name.
- getJobName() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- getJobName() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the Job name
- getJobName() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getJobPriority() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the
JobPriority
for this job.
- getJobPriority() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
Return the priority of the job
- getJobProfile(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getJobProfile(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getJobProperties() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
Get the configuration properties of the job.
- getJobQueueName() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the acls configured for the job
- getJobReduceMB() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getJobRunState(int) - 类 中的静态方法org.apache.hadoop.mapred.JobStatus
-
Helper method to get human-readable state of the job.
- getJobsFromQueue(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Gets all the jobs which were added to particular Job Queue
- getJobsFromQueue(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getJobsFromQueue(String) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getJobSplitFile(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
-
- getJobSplitMetaFile(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
-
- getJobState() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Returns the current state of the Job.
- getJobState() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- getJobStatus(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getJobStatus(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getJobStatus() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Returns a snapshot of the current status,
JobStatus
, of the Job.
- getJobSubmitHostAddress() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getJobSubmitHostName() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getJobToken(Credentials) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
-
- getJobTokenSecret() - 类 中的方法org.apache.hadoop.mapred.Task
-
Get the job token secret
- getJobTrackerHostPort() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- getJobTrackerMachine() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getJobTrackerState() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the current state of the
JobTracker
,
as JobTracker.State
- getJobTrackerUrl() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getJobTrackerUrl() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
-
- getJobtype() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getJtIdentifier() - 类 中的方法org.apache.hadoop.mapreduce.JobID
-
- getJvmContext() - 类 中的方法org.apache.hadoop.mapred.Task
-
Gets the task JvmContext
- getJvmInfo() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JvmFinishedEvent
-
Get the jvm info.
- getJvmManagerInstance() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getKeepCommandFile(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Does the user want to keep the command file for debugging?
- getKeepFailedTaskFiles() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Should the temporary files for failed tasks be kept?
- getKeepTaskFilesPattern() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the regular expression that is matched against the task names
to see if we need to keep the files.
- getKey(BytesWritable) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Copy the key into BytesWritable.
- getKey(byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Copy the key into user supplied buffer.
- getKey(byte[], int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Copy the key into user supplied buffer.
- getKey() - 接口 中的方法org.apache.hadoop.io.SequenceFile.Sorter.RawKeyValueIterator
-
Gets the current raw key
- getKey() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
-
Returns the stored rawKey
- getKey() - 接口 中的方法org.apache.hadoop.mapred.RawKeyValueIterator
-
Gets the current raw key.
- getKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
-
- getKey() - 类 中的方法org.apache.hadoop.security.token.delegation.DelegationKey
-
- getKeyClass() - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
Returns the class of keys in this file.
- getKeyClass() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Returns the class of keys in this file.
- getKeyClass() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
-
Returns the class of keys in this file.
- getKeyClass() - 类 中的方法org.apache.hadoop.io.WritableComparator
-
Returns the WritableComparable implementation class.
- getKeyClass() - 类 中的方法org.apache.hadoop.mapred.KeyValueLineRecordReader
-
- getKeyClass() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
-
The class of key that must be passed to
SequenceFileRecordReader.next(Object, Object)
..
- getKeyClass() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
-
- getKeyClassName() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Returns the name of the key class.
- getKeyClassName() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
Retrieve the name of the key class for this SequenceFile.
- getKeyClassName() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
Retrieve the name of the key class for this SequenceFile.
- getKeyFieldComparatorOption() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the
KeyFieldBasedComparator
options
- getKeyFieldComparatorOption(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
-
Get the
KeyFieldBasedComparator
options
- getKeyFieldPartitionerOption() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the
KeyFieldBasedPartitioner
options
- getKeyFieldPartitionerOption(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
-
Get the
KeyFieldBasedPartitioner
options
- getKeyId() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- getKeyId() - 类 中的方法org.apache.hadoop.security.token.delegation.DelegationKey
-
- getKeyLength() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Get the length of the key.
- getKeyList() - 类 中的方法org.apache.hadoop.metrics.util.MetricsRegistry
-
已过时。
- getKeyNear(long) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get a sample key that is within a block whose starting offset is greater
than or equal to the specified offset.
- getKeyStream() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Streaming access to the key.
- getKeytab() - 类 中的方法org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
-
Returns the keytab used by the authentication handler.
- getKeyTypeID() - 类 中的方法org.apache.hadoop.record.meta.MapTypeID
-
get the TypeID of the map's key element
- getKeyUpdateInterval() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
-
- getKind() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- getKind() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier.Renewer
-
- getKind() - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenIdentifier
-
- getKind() - 类 中的方法org.apache.hadoop.mapreduce.security.token.delegation.DelegationTokenIdentifier
-
- getKind() - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
-
Get the token kind
- getKind() - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier.Renewer
-
- getKind() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- getKind() - 类 中的方法org.apache.hadoop.security.token.Token
-
Get the token kind
- getKind() - 类 中的方法org.apache.hadoop.security.token.Token.TrivialRenewer
-
- getKind() - 类 中的方法org.apache.hadoop.security.token.TokenIdentifier
-
Get the token kind
- getKrb5LoginModuleName() - 类 中的静态方法org.apache.hadoop.security.authentication.util.KerberosUtil
-
- getLargeReadOps() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Get the number of large file system read operations such as list files
under a large directory
- getLastCheckpointTmp() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
lastcheckpoint.tmp
is a transient directory, which holds
current file system state while the new state is saved into the new
current
during regular namespace updates.
- getLastContact() - 类 中的方法org.apache.hadoop.ipc.Server.Connection
-
- getLastHalf(String) - 类 中的静态方法org.apache.hadoop.net.NetworkTopology
-
Divide networklocation string into two parts by last separator, and get the
second part here.
- getLastKey() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get the last key in the TFile.
- getLastName() - 类 中的方法org.apache.hadoop.hdfs.protocol.DirectoryListing
-
Get the last name in this list
- getLastOutput() - 类 中的方法org.apache.hadoop.streaming.io.OutputReader
-
Returns the last output from the client as a String.
- getLastOutput() - 类 中的方法org.apache.hadoop.streaming.io.RawBytesOutputReader
-
- getLastOutput() - 类 中的方法org.apache.hadoop.streaming.io.TextOutputReader
-
- getLastOutput() - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesOutputReader
-
- getLastScanTime() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockMetaDataInfo
-
- getLastSeen() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
- getLastUpdate() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
The time when this information was accurate.
- getLaunchTime() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getLaunchTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobInfoChangeEvent
-
Get the Job launch time
- getLaunchTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
-
Get the launch time
- getLaunchTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getLayers() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedLocation
-
- getLayoutVersion() - 枚举 中的方法org.apache.hadoop.hdfs.protocol.LayoutVersion.Feature
-
Accessor method for feature layout version
- getLayoutVersion() - 类 中的方法org.apache.hadoop.hdfs.server.common.StorageInfo
-
- getLeaseByPath(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.LeaseManager
-
- getLeaseRenewer() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Return the lease renewer instance.
- getLeaves(String) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
return leaves in scope
- getLen() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
- getLen() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the length of this file, in bytes.
- getLength() - 类 中的方法org.apache.hadoop.examples.SleepJob.EmptySplit
-
- getLength() - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Get the length of the block
- getLength() - 类 中的方法org.apache.hadoop.fs.ContentSummary
-
- getLength() - 类 中的方法org.apache.hadoop.fs.FileChecksum
-
The length of the checksum in bytes
- getLength(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
已过时。
Use getFileStatus() instead
- getLength(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
已过时。
- getLength() - 类 中的方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
-
The length of the checksum in bytes
- getLength() - 类 中的方法org.apache.hadoop.fs.s3.Block
-
- getLength(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Find the block's on-disk length
- getLength(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns the specified block's on-disk length (excluding metadata)
- getLength() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface.MetaDataInputStream
-
- getLength() - 类 中的方法org.apache.hadoop.io.BinaryComparable
-
Return n st bytes 0..n-1 from {#getBytes()} are valid.
- getLength() - 类 中的方法org.apache.hadoop.io.BytesWritable
-
Get the current size of the buffer.
- getLength() - 类 中的方法org.apache.hadoop.io.DataInputBuffer
-
Returns the length of the input.
- getLength() - 类 中的方法org.apache.hadoop.io.DataOutputBuffer
-
Returns the length of the valid data currently in the buffer.
- getLength() - 类 中的方法org.apache.hadoop.io.InputBuffer
-
Returns the length of the input.
- getLength() - 类 中的方法org.apache.hadoop.io.OutputBuffer
-
Returns the length of the valid data currently in the buffer.
- getLength() - 接口 中的方法org.apache.hadoop.io.ReadaheadPool.ReadaheadRequest
-
- getLength() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
-
Returns the current length of the output file.
- getLength() - 类 中的方法org.apache.hadoop.io.Text
-
Returns the number of bytes in the byte array
- getLength() - 类 中的方法org.apache.hadoop.io.UTF8
-
已过时。
The number of bytes in the encoded string.
- getLength() - 类 中的方法org.apache.hadoop.mapred.FileSplit
-
The number of bytes in the file to process.
- getLength() - 接口 中的方法org.apache.hadoop.mapred.InputSplit
-
Get the total number of bytes in the data of the
InputSplit
.
- getLength() - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
-
Return the aggregate length of all child InputSplits currently added.
- getLength(int) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
-
Get the length of ith child InputSplit.
- getLength() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
- getLength(int) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
Returns the length of the ith Path
- getLength() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
-
- getLength() - 类 中的方法org.apache.hadoop.mapreduce.InputSplit
-
Get the size of the split, so that the input splits can be sorted by size.
- getLength() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat.DataDrivenDBInputSplit
-
- getLength() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
-
- getLength() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
- getLength(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
Returns the length of the ith Path
- getLength() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
-
The number of bytes in the file to process.
- getLengths() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
Returns an array containing the lengths of the files in the split
- getLengths() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
Returns an array containing the lengths of the files in the split
- getLevel() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Return this node's level in the tree.
- getLevel() - 类 中的方法org.apache.hadoop.hdfs.tools.offlineImageViewer.DepthCounter
-
- getLevel() - 接口 中的方法org.apache.hadoop.net.Node
-
Return this node's level in the tree.
- getLevel() - 类 中的方法org.apache.hadoop.net.NodeBase
-
Return this node's level in the tree.
- getLevel() - 类 中的方法org.apache.hadoop.tools.rumen.Node
-
Get the level of the node.
- getLibJars(Configuration) - 类 中的静态方法org.apache.hadoop.util.GenericOptionsParser
-
If libjars are set in the conf, parse the libjars.
- getLinkCount(File) - 类 中的静态方法org.apache.hadoop.fs.HardLink
-
Retrieves the number of links to the specified file.
- getLinkMultArgLength(File, String[], File) - 类 中的静态方法org.apache.hadoop.fs.HardLink
-
Calculate the nominal length of all contributors to the total
commandstring length, including fixed overhead of the OS-dependent
command.
- getListener() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter.SecureResources
-
- getListenerAddress() - 类 中的方法org.apache.hadoop.ipc.Server
-
Return the socket (ip+port) on which the RPC server is listening to.
- getListing(String, byte[]) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Get a partial listing of the indicated directory
- getListing(String, byte[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Get a partial listing of the indicated directory
- getListing(String, byte[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getLiveNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Returned information is a JSON representation of map with host name as the
key and value is a map of live node attribute keys to its values
- getLiveNodes() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the live node information of the cluster.
- getLoadNativeLibraries(Configuration) - 类 中的方法org.apache.hadoop.util.NativeCodeLoader
-
Return if native hadoop libraries, if present, can be used for this job.
- getLocal(Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Get the local file syste
- getLocalAnalysisClass() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the local analysis class.
- getLocalCacheArchives(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Return the path array of the localized caches.
- getLocalCacheFiles(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Return the path array of the localized files.
- getLocalDirs() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- getLocalDirs() - 类 中的方法org.apache.hadoop.mapred.TaskController
-
- getLocalHostName() - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
Get the fqdn for the current host.
- getLocalInetAddress(String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Checks if
host
is a local host name and return InetAddress
corresponding to that address.
- getLocality() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the locality of the task attempt
- getLocalJobDir(String, String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
-
- getLocalJobFilePath(JobID) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Get the path of the locally stored job file
- getLocalJobFilePath(JobID) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
-
Get the localized job file path on the job trackers local file system
- getLocalMaxRunningMaps(JobContext) - 类 中的静态方法org.apache.hadoop.mapred.LocalJobRunner
-
- getLocalName() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the string representation of the local name
- getLocalNameInBytes() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the Java UTF8 representation of the local name
- getLocalPath(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get a local file under a directory named by dirsProp with
the given path.
- getLocalPath(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Constructs a local file name.
- getLocalPathForWrite(String, Configuration) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
-
Get a path from the local FS.
- getLocalPathForWrite(String, long, Configuration) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
-
Get a path from the local FS.
- getLocalPathForWrite(String, long, Configuration, boolean) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
-
Get a path from the local FS.
- getLocalPathToRead(String, Configuration) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
-
Get a path from the local FS for reading.
- getLocalTaskDir(String, String, String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
-
- getLocalTaskDir(String, String, String, boolean) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
-
- getLocatedBlocks() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
-
Get located blocks.
- getLocation(int) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
-
getLocations from ith InputSplit.
- getLocation() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getLocations() - 类 中的方法org.apache.hadoop.examples.SleepJob.EmptySplit
-
- getLocations() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- getLocations() - 类 中的方法org.apache.hadoop.mapred.FileSplit
-
- getLocations() - 接口 中的方法org.apache.hadoop.mapred.InputSplit
-
Get the list of hostnames where the input split is located.
- getLocations() - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
-
Collect a set of hosts from all child InputSplits.
- getLocations() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
Returns all the Paths where this input-split resides
- getLocations() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
-
Get the list of hostnames where the input split is located.
- getLocations() - 类 中的方法org.apache.hadoop.mapred.MultiFileSplit
-
已过时。
- getLocations() - 类 中的方法org.apache.hadoop.mapreduce.InputSplit
-
Get the list of nodes by name where the data for the split would be local.
- getLocations() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
-
Get the list of nodes by name where the data for the split would be local.
- getLocations() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
Returns all the Paths where this input-split resides
- getLocations() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
-
- getLocations() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
-
- getLocations() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
-
- getLoggedJob() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
Get the underlining
LoggedJob
object read directly from the trace.
- getLoginUser() - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
-
Get the currently logged in user.
- getLogLocation() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.JVMInfo
-
- getLogPath() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Get output directory for writing distcp logs.
- getLong(String, long) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the
name
property as a long
.
- getLong(Configuration, String) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
Utility to retrieve a specified key from a Configuration.
- getLongValue(Object) - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
-
- getLowerClause() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat.DataDrivenDBInputSplit
-
- getMachineByName(String) - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- getMachineByName(String) - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
-
Get
MachineNode
by its host name.
- getMachines() - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- getMachines() - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
-
Get all machines of the cluster.
- getMachinesInRack() - 类 中的方法org.apache.hadoop.tools.rumen.RackNode
-
Get the machine nodes that belong to the rack.
- getMajor() - 类 中的方法org.apache.hadoop.io.file.tfile.Utils.Version
-
Get the major version.
- getMapBandwidth() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Get the map bandwidth in MB
- getMapCompletionEvents(JobID, int, int, TaskAttemptID, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getMapCompletionEvents(JobID, int, int, TaskAttemptID, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
-
Called by a reduce task to get the map output locations for finished maps.
- getMapCounters(Counters) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Returns map phase counters by summing over all map tasks in progress.
- getMapCounters() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the Map counters for the job
- getMapDebugScript() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the map task's debug script.
- getMapFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the map phase finish time
- getMapInputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getMapInputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getMapOutputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getMapOutputCompressorClass(Class<? extends CompressionCodec>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the
CompressionCodec
for compressing the map outputs.
- getMapOutputKeyClass() - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.IndexUpdateMapper
-
Get the map output key class.
- getMapOutputKeyClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the key class for the map output data.
- getMapOutputKeyClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the key class for the map output data.
- getMapOutputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getMapOutputValueClass() - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.IndexUpdateMapper
-
Get the map output value class.
- getMapOutputValueClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the value class for the map output data.
- getMapOutputValueClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the value class for the map output data.
- getMapper() - 类 中的方法org.apache.hadoop.mapred.MapRunner
-
- getMapperClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the
Mapper
class for the job.
- getMapperClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the
Mapper
class for the job.
- getMapperClass(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.map.MultithreadedMapper
-
Get the application's mapper class.
- getMapperMaxSkipRecords(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Get the number of acceptable skip records surrounding the bad record PER
bad record in mapper.
- getMapperTriesToSucceed() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getMapredJobID() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
已过时。
use
Job.getAssignedJobID()
instead
- getMapredJobID() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- getMapredTempDir() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the Map/Reduce temp directory.
- getMapRunnerClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the
MapRunnable
class for the job.
- getMapRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.MapTaskAttemptInfo
-
Get the runtime for the map phase of the map-task attempt.
- getMapSlotCapacity() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the total number of map slots in the cluster.
- getMapSlots() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
-
Get the number of map slots of the node.
- getMapSpeculativeExecution() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Should speculative execution be used for this job for map tasks?
- getMapTaskAttemptInfoAdjusted(int, int, int) - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get
TaskAttemptInfo
for a given task-attempt, considering impact
of locality.
- getMapTaskAttemptInfoAdjusted(int, int, int) - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
Get a
TaskAttemptInfo
with a TaskAttemptID
associated with
taskType, taskNumber, and taskAttemptNumber.
- getMapTaskCompletionEvents() - 类 中的方法org.apache.hadoop.mapred.MapTaskCompletionEventsUpdate
-
- getMapTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get the information of the current state of the map tasks of a job.
- getMapTaskReports(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
已过时。
Applications should rather use
JobClient.getMapTaskReports(JobID)
- getMapTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getMapTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getMapTasks() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the number of currently running map tasks in the cluster.
- getMapTasks() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getMasterKeyId() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- getMaxAllowedCmdArgLength() - 类 中的静态方法org.apache.hadoop.fs.HardLink
-
Return this private value for use by unit tests.
- getMaxDate() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- getMaxDepth(int) - 类 中的静态方法org.apache.hadoop.util.QuickSort
-
Deepest recursion before giving up and doing a heapsort.
- getMaximum() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedDiscreteCDF
-
- getMaximumDistance() - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- getMaximumDistance() - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
-
Get the maximum distance possible between any two nodes.
- getMaxMapAttempts() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the configured number of maximum attempts that will be made to run a
map task, as specified by the
mapred.map.max.attempts
property.
- getMaxMaps() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Get the max number of maps to use for this copy
- getMaxMapSlots() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get the maximum map slots for this node.
- getMaxMapTaskFailuresPercent() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the maximum percentage of map tasks that can fail without
the job being aborted.
- getMaxMapTasks() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the maximum capacity for running map tasks in the cluster.
- getMaxMemory() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
已过时。
- getMaxPhysicalMemoryForTask() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
已过时。
this variable is deprecated and nolonger in use.
- getMaxReduceAttempts() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the configured number of maximum attempts that will be made to run a
reduce task, as specified by the
mapred.reduce.max.attempts
property.
- getMaxReduceSlots() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get the maximum reduce slots for this node.
- getMaxReduceTaskFailuresPercent() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the maximum percentage of reduce tasks that can fail without
the job being aborted.
- getMaxReduceTasks() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the maximum capacity for running reduce tasks in the cluster.
- getMaxSplitSize(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Get the maximum split size.
- getMaxTaskFailuresPerTracker() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Expert: Get the maximum no. of failures of a given job per tasktracker.
- getMaxTime() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
-
已过时。
The max time for a single operation since the last reset
MetricsTimeVaryingRate.resetMinMax()
- getMaxVirtualMemoryForTask() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- getMBeanInfo() - 类 中的方法org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
-
已过时。
- getMechanismName() - 枚举 中的方法org.apache.hadoop.security.SaslRpcServer.AuthMethod
-
Return the SASL mechanism name
- getMemory() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Get the total amount of buffer memory, in bytes.
- getMemory() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
-
Get the available physical RAM of the node.
- getMemoryCalculatorPlugin(Class<? extends MemoryCalculatorPlugin>, Configuration) - 类 中的静态方法org.apache.hadoop.util.MemoryCalculatorPlugin
-
已过时。
Get the MemoryCalculatorPlugin from the class name and configure it.
- getMemoryForMapTask() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get memory required to run a map task of the job, in MB.
- getMemoryForReduceTask() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get memory required to run a reduce task of the job, in MB.
- getMemoryPerMapSlot() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
-
Get the amount of RAM reserved for each map slot.
- getMemoryPerReduceSlot() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
-
Get the amount of RAM reserved for each reduce slot.
- getMergeRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceTaskAttemptInfo
-
Get the runtime for the merge phase of the reduce task-attempt
- getMessage() - 异常错误 中的方法org.apache.hadoop.hdfs.protocol.DSQuotaExceededException
-
- getMessage() - 异常错误 中的方法org.apache.hadoop.hdfs.protocol.NSQuotaExceededException
-
- getMessage() - 异常错误 中的方法org.apache.hadoop.hdfs.protocol.QuotaExceededException
-
- getMessage() - 异常错误 中的方法org.apache.hadoop.mapred.InvalidInputException
-
Get a summary message of the problems found.
- getMessage() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- getMessage() - 异常错误 中的方法org.apache.hadoop.mapreduce.lib.input.InvalidInputException
-
Get a summary message of the problems found.
- getMessage() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- getMessage() - 异常错误 中的方法org.apache.hadoop.record.compiler.generated.ParseException
-
This method has the standard behavior when this object has been
created using the standard constructors.
- getMessage() - 错误 中的方法org.apache.hadoop.record.compiler.generated.TokenMgrError
-
You can also modify the body of this method to customize your error messages.
- getMetaBlock(String) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Stream access to a meta block
- getMetadata() - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
-
- getMetadata() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Returns the metadata object of the file
- getMetaDataInputStream(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- getMetaDataInputStream(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns metaData of block b as an input stream (and its length)
- getMetaDataLength(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- getMetaDataLength(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns the length of the metadata file of the specified block
- getMetaFile(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- getMetaPath() - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockLocalPathInfo
-
Get the Block metadata file.
- getMetric(String) - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
-
已过时。
Returns the metric object which can be a Float, Integer, Short or Byte.
- getMetric(String) - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache.Record
-
Get the metric value
- getMetricInstance(String) - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache.Record
-
Get the metric value
- getMetricNames() - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
-
已过时。
Returns the set of metric names.
- getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
-
- getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.mapred.TaskTrackerMetricsSource
-
- getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.AbstractMetricsSource
-
- getMetrics(MetricsBuilder, boolean) - 接口 中的方法org.apache.hadoop.metrics2.MetricsSource
-
Get metrics from the source
- getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.source.JvmMetricsSource
-
- getMetricsCopy() - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
-
已过时。
Returns a copy of this record's metrics.
- getMetricsList() - 类 中的方法org.apache.hadoop.metrics.util.MetricsRegistry
-
已过时。
- getMinimum() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedDiscreteCDF
-
- getMinor() - 类 中的方法org.apache.hadoop.io.file.tfile.Utils.Version
-
Get the minor version.
- getMinSplitSize(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Get the minimum split size
- getMinTime() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
-
已过时。
The min time for a single operation since the last reset
MetricsTimeVaryingRate.resetMinMax()
- getMissingBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Returns count of blocks with no good replicas left.
- getMissingBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Returns count of blocks with no good replicas left.
- getMissingBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getMode() - 类 中的方法org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- getModificationTime() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Get the modification time of the file.
- getModificationTime() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the modification time of the file.
- getMount() - 类 中的方法org.apache.hadoop.fs.DF
-
- getMultipleLinearRandomRetry(Configuration, String, boolean, String, String) - 类 中的静态方法org.apache.hadoop.io.retry.RetryUtils
-
Return the MultipleLinearRandomRetry policy specified in the conf,
or null if the feature is disabled.
- getName() - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino.Piece
-
- getName() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
已过时。
call #getUri() instead.
- getName() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
已过时。
call #getUri() instead.
- getName() - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
已过时。
- getName() - 类 中的方法org.apache.hadoop.fs.Path
-
Returns the final component of this path.
- getName() - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
已过时。
- getName() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
- getName(boolean) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Return hostname:port if requested, ip:port otherwise
- getName() - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.AccessTimeParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.BlockSizeParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.BufferSizeParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.ConcatSourcesParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.DelegationParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.DestinationParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.DoAsParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.GetOpParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.GroupParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.LengthParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.ModificationTimeParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.OffsetParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.OverwriteParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.OwnerParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.Param
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.PermissionParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.PostOpParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.PutOpParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.RecursiveParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.RenewerParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.ReplicationParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.TokenArgumentParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.UriFsPathParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.UserParam
-
- getName(Class) - 类 中的静态方法org.apache.hadoop.io.WritableName
-
Return the name for a class.
- getName() - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
Returns raw name of the group.
- getName() - 类 中的方法org.apache.hadoop.mapreduce.Counter
-
- getName() - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
-
Get the internal name of the group
- getName() - 类 中的方法org.apache.hadoop.metrics.util.MetricsBase
-
已过时。
- getName() - 接口 中的方法org.apache.hadoop.net.Node
-
Return this node's name
- getName() - 类 中的方法org.apache.hadoop.net.NodeBase
-
Return this node's name
- getName() - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
-
return the name of the record
- getName() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
-
Returns the principal name (this method name comes from the JDK
Principal
interface).
- getName() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the job name.
- getName() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedNetworkTopology
-
- getName() - 类 中的方法org.apache.hadoop.tools.rumen.Node
-
Get the name of the node.
- getName() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getNamed(String, Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
已过时。
call #get(URI,Configuration) instead.
- getNameDirStatuses() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getNameDirStatuses() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Get status information about the directories storing image and edits logs
of the NN.
- getNamedOutputFormatClass(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Returns the named output OutputFormat.
- getNamedOutputKeyClass(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Returns the key class for a named output.
- getNamedOutputs() - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Returns iterator with the defined name outputs.
- getNamedOutputsList(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Returns list of channel names.
- getNamedOutputValueClass(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Returns the value class for a named output.
- getNamenode() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Return the namenode's identifier
- getNamenodeAddr(URI) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getNameNodeAddr() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getNamenodeAddress() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getNamenodeAddress() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
-
Gets the namenode IP address.
- getNameNodeAddress() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Returns the address on which the NameNodes is listening to.
- getNameNodeMetrics() - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getNames() - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Get the list of names (hostname:port) hosting this block
- getNamespaceDirs(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getNamespaceEditsDirs(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getNamespaceID() - 类 中的方法org.apache.hadoop.hdfs.server.common.StorageInfo
-
- getNamesystem() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getNameWithIpcPort(boolean) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Return hostname:ipcPort if requested, ip:ipcPort otherwise
- getNestedStructTypeInfo(String) - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
-
Return the type info of a nested record.
- getNetgroupNames() - 类 中的方法org.apache.hadoop.security.NetgroupCache
-
- getNetgroups(String, List<String>) - 类 中的方法org.apache.hadoop.security.NetgroupCache
-
- getNetgroups(String, List<String>) - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
-
- getNetworkLocation() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
network location
- getNetworkLocation() - 接口 中的方法org.apache.hadoop.net.Node
-
Return the string representation of this node's network location
- getNetworkLocation() - 类 中的方法org.apache.hadoop.net.NodeBase
-
Return this node's network location
- getNewJobId() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Allocates a new JobId string.
- getNewJobId() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getNext() - 接口 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet.LinkedElement
-
Get the next element.
- getNext() - 类 中的方法org.apache.hadoop.tools.rumen.DefaultInputDemuxer
-
- getNext() - 接口 中的方法org.apache.hadoop.tools.rumen.InputDemuxer
-
Get the next
pair.
- getNextHeartbeatInterval() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Calculates next heartbeat interval using cluster size.
- getNextJob() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStoryProducer
-
Get the next job.
- getNextJob() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJobProducer
-
- getNextRecordRange() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Get the next record range which is going to be processed by Task.
- getNextToken() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- getNextToken() - 类 中的方法org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- getNode(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Return the Node in the network topology that corresponds to the hostname
- getNode() - 类 中的方法org.apache.hadoop.mapred.join.Parser.NodeToken
-
- getNode() - 类 中的方法org.apache.hadoop.mapred.join.Parser.Token
-
- getNode(String) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Given a string representation of a node, return its reference
- getNodeForNetworkLocation(Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Return a reference to the node given its string representation.
- getNodeForNetworkLocation(Node) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
-
- getNodeGroup(String) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
-
Given a string representation of a node group for a specific network
location
- getNodesAtMaxLevel() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Returns a collection of nodes at the max level
- getNonDfsUsed() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
The used space by the data node.
- getNonDfsUsedSpace() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getNonDfsUsedSpace() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets total used space by data nodes for non DFS purposes such as storing
temporary files on the local file system
- getNullContext(String) - 类 中的静态方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
Returns a "null" context - one which does nothing.
- getNum() - 类 中的方法org.apache.hadoop.mapred.join.Parser.NumToken
-
- getNum() - 类 中的方法org.apache.hadoop.mapred.join.Parser.Token
-
- getNumber() - 类 中的方法org.apache.hadoop.metrics.spi.MetricValue
-
已过时。
- getNumberColumns() - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
-
Get the number of columns.
- getNumberMaps() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the number of maps in the
JobStory
.
- getNumberMaps() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getNumberOfBlocks() - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockListAsLongs
-
The number of blocks
- getNumberOfKeys() - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
-
Returns the number of delegation keys currently stored.
- getNumberOfPaths() - 类 中的方法org.apache.hadoop.tools.distcp2.CopyListing
-
Return the total number of paths to distcp, includes directories as well
This doesn't consider whether file/dir is already present and should be skipped during copy
- getNumberOfPaths() - 类 中的方法org.apache.hadoop.tools.distcp2.FileBasedCopyListing
-
Return the total number of paths to distcp, includes directories as well
This doesn't consider whether file/dir is already present and should be skipped during copy
- getNumberOfPaths() - 类 中的方法org.apache.hadoop.tools.distcp2.GlobbedCopyListing
-
Return the total number of paths to distcp, includes directories as well
This doesn't consider whether file/dir is already present and should be skipped during copy
- getNumberOfPaths() - 类 中的方法org.apache.hadoop.tools.distcp2.SimpleCopyListing
-
Return the total number of paths to distcp, includes directories as well
This doesn't consider whether file/dir is already present and should be skipped during copy
- getNumberOfThreads(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.map.MultithreadedMapper
-
The number of threads in the thread pool that will run the map function.
- getNumberOfUniqueHosts() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getNumberReduces() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the number of reduce in the
JobStory
.
- getNumberReduces() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getNumberValues() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedDiscreteCDF
-
- getNumBytes() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- getNumBytes() - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockLocalPathInfo
-
Get number of bytes in the block.
- getNumBytesInSum() - 类 中的方法org.apache.hadoop.util.DataChecksum
-
- getNumCores() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
-
Get the number of cores of the node.
- getNumExcludedNodes() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the number of excluded hosts in the cluster.
- getNumFiles(PathFilter) - 类 中的方法org.apache.hadoop.fs.InMemoryFileSystem
-
已过时。
- getNumLinesPerSplit(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
-
Get the number of lines per split
- getNumLoggedMaps() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
Getting the number of map tasks that are actually logged in the trace.
- getNumLoggedReduces() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
Getting the number of reduce tasks that are actually logged in the trace.
- getNumMapTasks() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get configured the number of reduce tasks for this job.
- getNumMapTasks(Configuration) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
- getNumOfKeyFields() - 类 中的方法org.apache.hadoop.streaming.PipeMapper
-
- getNumOfKeyFields() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
-
Returns the number of key fields.
- getNumOfKeyFields() - 类 中的方法org.apache.hadoop.streaming.PipeReducer
-
- getNumOfLeaves() - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Return the total number of nodes
- getNumOfRacks() - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Return the total number of racks
- getNumOfReplies() - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
-
Get the number of replies
- getNumOpenConnections() - 类 中的方法org.apache.hadoop.ipc.Server
-
The number of open RPC conections
- getNumPaths() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
Returns the number of Paths in the split
- getNumPaths() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
Returns the number of Paths in the split
- getNumProcessors() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Obtain the total number of processors present on the system.
- getNumProcessors() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain the total number of processors present on the system.
- getNumReduceTasks() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get configured the number of reduce tasks for this job.
- getNumReduceTasks() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get configured the number of reduce tasks for this job.
- getNumRequests() - 类 中的方法org.apache.hadoop.mapred.ShuffleExceptionTracker
-
Gets the number of requests we are tracking
- getNumReservedTaskTrackersForMaps() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getNumReservedTaskTrackersForReduces() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getNumResolvedTaskTrackers() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getNumSchedulingOpportunities() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getNumSlots() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getNumSlotsPerTask(TaskType) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getNumSlotsRequired() - 类 中的方法org.apache.hadoop.mapred.Task
-
- getNumStaleNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getNumStorageDirs() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
-
- getNumTaskCacheLevels() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getNumTasksToExecutePerJvm() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the number of tasks that a spawned JVM should execute
- getOccupiedMapSlots() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get number of occupied map slots in the cluster.
- getOccupiedReduceSlots() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the number of occupied reduce slots in the cluster.
- getOffset() - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Get the start offset of file associated with this block
- getOffset() - 接口 中的方法org.apache.hadoop.io.ReadaheadPool.ReadaheadRequest
-
- getOffset(int) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
Returns the start offset of the ith Path
- getOffset(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
Returns the start offset of the ith Path
- getOidInstance(String) - 类 中的静态方法org.apache.hadoop.security.authentication.util.KerberosUtil
-
- getOp() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocTextAndOp
-
Get the type of the operation.
- getOp() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
-
Get the type of operation.
- getOperations() - 类 中的方法org.apache.hadoop.mapred.QueueAclsInfo
-
- GetOpParam - org.apache.hadoop.hdfs.web.resources中的类
-
Http GET operation parameter.
- GetOpParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.GetOpParam
-
Constructor.
- GetOpParam.Op - org.apache.hadoop.hdfs.web.resources中的枚举
-
Get operations.
- getOpt(String) - 类 中的方法org.apache.hadoop.fs.shell.CommandFormat
-
Return if the option is set or not
- getOption() - 枚举 中的方法org.apache.hadoop.tools.distcp2.DistCpOptionSwitch
-
Get CLI Option corresponding to the distcp option
- getOtherAction() - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
-
Return other
FsAction
.
- getOtherTasks() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getOutcome() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the outcome of the job execution.
- getOutcome() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getOutcome() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getOutput() - 类 中的方法org.apache.hadoop.util.Shell.ShellCommandExecutor
-
Get the output of the shell command.
- getOutputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getOutputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
-
- getOutputCommitter() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the
OutputCommitter
implementation for the map-reduce job,
defaults to FileOutputCommitter
if not specified explicitly.
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat
-
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat
-
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.LazyOutputFormat
-
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.NullOutputFormat
-
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputFormat
-
Get the output committer for this output format.
- getOutputCommitter() - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
-
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
-
- getOutputCompressionType(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileOutputFormat
-
Get the
SequenceFile.CompressionType
for the output SequenceFile
.
- getOutputCompressionType(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat
-
Get the
SequenceFile.CompressionType
for the output SequenceFile
.
- getOutputCompressorClass(JobConf, Class<? extends CompressionCodec>) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
Get the
CompressionCodec
for compressing the job outputs.
- getOutputCompressorClass(JobContext, Class<? extends CompressionCodec>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Get the
CompressionCodec
for compressing the job outputs.
- getOutputFieldCount() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getOutputFieldNames() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getOutputFormat() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the
OutputFormat
implementation for the map-reduce job,
defaults to TextOutputFormat
if not specified explicity.
- getOutputFormatClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the
OutputFormat
class for the job.
- getOutputKeyClass() - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.IndexUpdateReducer
-
Get the reduce output key class.
- getOutputKeyClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the key class for the job output data.
- getOutputKeyClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the key class for the job output data.
- getOutputKeyClass() - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
Returns the resolved output key class.
- getOutputKeyComparator() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the
RawComparator
comparator used to compare keys.
- getOutputName(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Get the base output name for the output file.
- getOutputPath(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
Get the
Path
to the output directory for the map-reduce job.
- getOutputPath(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Get the
Path
to the output directory for the map-reduce job.
- getOutputReaderClass() - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
Returns the resolved
OutputReader
class.
- getOutputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getOutputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
-
- getOutputSize() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Returns the number of bytes of output from this map.
- getOutputStream(Socket) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Same as getOutputStream(socket, 0).
- getOutputStream(Socket, long) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Returns OutputStream for the socket.
- getOutputStream(OutputStream) - 类 中的方法org.apache.hadoop.security.SaslRpcClient
-
Get a SASL wrapped OutputStream.
- getOutputTableName() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getOutputValueClass() - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.IndexUpdateReducer
-
Get the reduce output value class.
- getOutputValueClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the value class for job outputs.
- getOutputValueClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the value class for job outputs.
- getOutputValueClass() - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
Returns the resolved output value class.
- getOutputValueGroupingComparator() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the user defined
WritableComparable
comparator for
grouping keys of inputs to the reduce.
- getOwner() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Get the owner of the file.
- getOwner() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the owner of the file.
- getOwner(FileDescriptor) - 类 中的静态方法org.apache.hadoop.io.nativeio.NativeIO
-
- getOwner() - 类 中的方法org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- getParameter(String) - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
-
Unquote the name and quote the value.
- getParameter(ServletRequest, String) - 类 中的静态方法org.apache.hadoop.util.ServletUtil
-
Get a parameter from a ServletRequest.
- getParameterMap() - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
-
- getParameterNames() - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
-
Return the set of parameter names, quoting each name.
- getParameterValues(String) - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
-
- getParent() - 类 中的方法org.apache.hadoop.fs.Path
-
Returns the parent of a path or null if at root.
- getParent() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Return this node's parent
- getParent() - 接口 中的方法org.apache.hadoop.net.Node
-
Return this node's parent
- getParent() - 类 中的方法org.apache.hadoop.net.NodeBase
-
Return this node's parent
- getParent() - 类 中的方法org.apache.hadoop.tools.rumen.Node
-
Get the parent node.
- getParentNode(Node, int) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
-
- getParser(RewindableInputStream) - 类 中的静态方法org.apache.hadoop.tools.rumen.JobHistoryParserFactory
-
- getPartialListing() - 类 中的方法org.apache.hadoop.hdfs.protocol.DirectoryListing
-
Get the partial listing of file status
- getPartition(Shard, IntermediateForm, int) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdatePartitioner
-
- getPartition(SecondarySort.IntPair, IntWritable, int) - 类 中的方法org.apache.hadoop.examples.SecondarySort.FirstPartitioner
-
- getPartition(IntWritable, NullWritable, int) - 类 中的方法org.apache.hadoop.examples.SleepJob
-
- getPartition(K2, V2, int) - 类 中的方法org.apache.hadoop.mapred.lib.HashPartitioner
-
Use
Object.hashCode()
to partition.
- getPartition(K2, V2, int) - 类 中的方法org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner
-
- getPartition(int, int) - 类 中的方法org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner
-
- getPartition(K, V, int) - 类 中的方法org.apache.hadoop.mapred.lib.TotalOrderPartitioner
-
- getPartition(K2, V2, int) - 接口 中的方法org.apache.hadoop.mapred.Partitioner
-
Get the paritition number for a given key (hence record) given the total
number of partitions i.e. number of reduce-tasks for the job.
- getPartition() - 类 中的方法org.apache.hadoop.mapred.Task
-
Get the index of this task within the job.
- getPartition(BinaryComparable, V, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
-
Use (the specified slice of the array returned by)
BinaryComparable.getBytes()
to partition.
- getPartition(K, V, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.HashPartitioner
-
Use
Object.hashCode()
to partition.
- getPartition(K2, V2, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
-
- getPartition(int, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
-
- getPartition(K, V, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
-
- getPartition(KEY, VALUE, int) - 类 中的方法org.apache.hadoop.mapreduce.Partitioner
-
Get the partition number for a given key (hence record) given the total
number of partitions i.e. number of reduce-tasks for the job.
- getPartitionerClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- getPartitionerClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the
Partitioner
class for the job.
- getPartitionFile(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.lib.TotalOrderPartitioner
-
Get the path to the SequenceFile storing the sorted partition keyset.
- getPartitionFile(Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
-
Get the path to the SequenceFile storing the sorted partition keyset.
- getPassword() - 类 中的方法org.apache.hadoop.security.token.Token
-
Get the token password/secret
- getPath() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
- getPath() - 类 中的方法org.apache.hadoop.mapred.FileSplit
-
The file containing this split's data.
- getPath(int) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
Returns the ith Path
- getPath(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
Returns the ith Path
- getPath() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
-
The file containing this split's data.
- getPath(Node) - 类 中的静态方法org.apache.hadoop.net.NodeBase
-
Return this node's path
- getPathForCustomFile(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
Helper function to generate a
Path
for a file that is unique for
the task within the job output directory.
- getPathForWorkFile(TaskInputOutputContext<?, ?, ?, ?>, String, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Helper function to generate a
Path
for a file that is unique for
the task within the job output directory.
- getPaths() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
Returns all the Paths in the split
- getPaths() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
Returns all the Paths in the split
- getPendingDeletionBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getPendingReplicationBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getPendingReplicationBlocks() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Blocks pending to be replicated
- getPercentExceptions() - 类 中的方法org.apache.hadoop.mapred.ShuffleExceptionTracker
-
Gets the percent of the requests that had exceptions occur.
- getPercentRemaining() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getPercentRemaining() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the total remaining space by data nodes as percentage of total
capacity
- getPercentUsed() - 类 中的方法org.apache.hadoop.fs.DF
-
- getPercentUsed() - 类 中的方法org.apache.hadoop.fs.InMemoryFileSystem
-
已过时。
- getPercentUsed() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getPercentUsed() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the total used space by data nodes as percentage of total capacity
- getPeriod() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
-
已过时。
Returns the timer period.
- getPeriod() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Returns the timer period.
- getPermission() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Get FsPermission associated with the file.
- getPermission() - 类 中的方法org.apache.hadoop.fs.permission.PermissionStatus
-
Return permission
- getPermission() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get FsPermission associated with the file.
- getPhase() - 类 中的方法org.apache.hadoop.mapred.Task
-
Return current phase of the task.
- getPhase() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Get current phase of this task.
- getPhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxMemoryCalculatorPlugin
-
已过时。
Obtain the total size of the physical memory present in the system.
- getPhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Obtain the total size of the physical memory present in the system.
- getPhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.MemoryCalculatorPlugin
-
已过时。
Obtain the total size of the physical memory present in the system.
- getPhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain the total size of the physical memory present in the system.
- getPhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin.ProcResourceValues
-
Obtain the physical memory size used by current process tree.
- getPhysicalMemoryUsage() - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Get the physical memory usage.
- getPlatformName() - 类 中的静态方法org.apache.hadoop.util.PlatformName
-
Get the complete platform as per the java-vm.
- getPort() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
- getPort() - 类 中的方法org.apache.hadoop.http.HttpServer
-
Get the port that the server is on
- getPos() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocRecordReader
-
- getPos() - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MultiFileLineRecordReader
-
- getPos() - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
-
- getPos() - 异常错误 中的方法org.apache.hadoop.fs.ChecksumException
-
- getPos() - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
-
- getPos() - 类 中的方法org.apache.hadoop.fs.FSDataOutputStream
-
- getPos() - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
- getPos() - 类 中的方法org.apache.hadoop.fs.FSInputStream
-
Return the current offset from the start of the file
- getPos() - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
-
- getPos() - 接口 中的方法org.apache.hadoop.fs.Seekable
-
Return the current offset from the start of the file
- getPos() - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
-
Return the current offset from the start of the file
- getPos() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
- getPos() - 类 中的方法org.apache.hadoop.io.compress.CompressionInputStream
-
This method returns the current position in the stream.
- getPos() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Unsupported (returns zero in all cases).
- getPos() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
-
Request position from proxied RR.
- getPos() - 类 中的方法org.apache.hadoop.mapred.KeyValueLineRecordReader
-
- getPos() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
return the amount of data processed
- getPos() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
-
Returns the current position in the input.
- getPos() - 类 中的方法org.apache.hadoop.mapred.LineRecordReader
-
- getPos() - 接口 中的方法org.apache.hadoop.mapred.RecordReader
-
Returns the current position in the input.
- getPos() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
- getPos() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsTextRecordReader
-
- getPos() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
-
- getPos() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
已过时。
- getPos() - 类 中的方法org.apache.hadoop.streaming.StreamBaseRecordReader
-
Returns the current position in the input.
- getPosition() - 类 中的方法org.apache.hadoop.io.DataInputBuffer
-
Returns the current position in the input.
- getPosition() - 类 中的方法org.apache.hadoop.io.InputBuffer
-
Returns the current position in the input.
- getPosition() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Return the current byte position in the input file.
- getPreferredBlockSize(String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Get the block size for the given file.
- getPreferredBlockSize(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getPreferredLocations() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getPreviousCheckpoint() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
previous.checkpoint
is a directory, which holds the previous
(before the last save) state of the storage directory.
- getPreviousDir() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
Directory
previous
contains the previous file system state,
which the system can be rolled back to.
- getPreviousIntervalAverageTime() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
-
已过时。
The average rate of an operation in the previous interval
- getPreviousIntervalNumOps() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
-
已过时。
The number of operations in the previous interval
- getPreviousIntervalValue() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingInt
-
已过时。
The Value at the Previous interval
- getPreviousIntervalValue() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingLong
-
已过时。
The Value at the Previous interval
- getPreviousTmp() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
previous.tmp
is a transient directory, which holds
current file system state while the new state is saved into the new
current
during upgrade.
- getPreviousVersionFile() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
File
VERSION
from the previous
directory.
- getPrincipal() - 类 中的方法org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
-
Returns the Kerberos principal used by the authentication handler.
- getPriority() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getPriority() - 类 中的方法org.apache.hadoop.tools.rumen.JobPriorityChangeEvent
-
Get the job priority
- getPriority() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getPrivateDistributedCacheDir(String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
-
- getProblems() - 异常错误 中的方法org.apache.hadoop.mapred.InvalidInputException
-
Get the complete list of the problems reported.
- getProblems() - 异常错误 中的方法org.apache.hadoop.mapreduce.lib.input.InvalidInputException
-
Get the complete list of the problems reported.
- getProcess() - 类 中的方法org.apache.hadoop.util.Shell
-
get the current sub-process executing the given command
- getProcessedByteCount() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
-
This method reports the processed bytes so far.
- getProcessTree() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Get the process-tree with latest state.
- getProcessTreeDump() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Get a dump of the process-tree.
- getProcResourceValues() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
- getProcResourceValues() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain resource status used by current process tree.
- getProfile() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getProfileEnabled() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get whether the task profiling is enabled.
- getProfileParams() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the profiler configuration arguments.
- getProfileTaskRange(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the range of maps or reduces to profile.
- getProgress() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocRecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MultiFileLineRecordReader
-
- getProgress() - 接口 中的方法org.apache.hadoop.io.SequenceFile.Sorter.RawKeyValueIterator
-
Gets the Progress object; this has a float (0.0 - 1.0)
indicating the bytes processed by the iterator so far
- getProgress() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Report progress as the minimum of all child RR progress.
- getProgress() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
-
Request progress from proxied RR.
- getProgress() - 类 中的方法org.apache.hadoop.mapred.KeyValueLineRecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
return progress based on the amount of data processed so far.
- getProgress() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
-
How much of the input has the
RecordReader
consumed i.e.
- getProgress() - 类 中的方法org.apache.hadoop.mapred.LineRecordReader
-
Get the progress within the split
- getProgress() - 接口 中的方法org.apache.hadoop.mapred.RawKeyValueIterator
-
Gets the Progress object; this has a float (0.0 - 1.0)
indicating the bytes processed by the iterator so far
- getProgress() - 接口 中的方法org.apache.hadoop.mapred.RecordReader
-
How much of the input has the
RecordReader
consumed i.e.
- getProgress() - 接口 中的方法org.apache.hadoop.mapred.Reporter
-
Get the progress of the task.
- getProgress() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
Return the progress within the input split
- getProgress() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsTextRecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
-
Return the progress within the input split
- getProgress() - 类 中的方法org.apache.hadoop.mapred.Task
-
- getProgress() - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- getProgress() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
The amount completed, between zero and one.
- getProgress() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
The current progress of the record reader through its data.
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
return progress based on the amount of data processed so far.
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.LineRecordReader
-
Get the progress within the split
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
Return the progress within the input split
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
-
Return the progress within the input split
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.RecordReader
-
The current progress of the record reader through its data.
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.StatusReporter
-
Get the current progress.
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
-
- getProgress() - 类 中的方法org.apache.hadoop.streaming.StreamBaseRecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicRecordReader
-
Implementation of RecordReader::getProgress().
- getProgress() - 类 中的方法org.apache.hadoop.util.Progress
-
Returns progress in this node. get() would give overall progress of the
root node(not just given current node).
- getProgressible() - 类 中的方法org.apache.hadoop.mapred.JobContext
-
Get the progress mechanism for reporting progress.
- getProgressible() - 类 中的方法org.apache.hadoop.mapred.TaskAttemptContext
-
- getProtocol() - 类 中的方法org.apache.hadoop.security.authorize.Service
-
Get the protocol for the service
- getProtocolVersion(String, long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Return protocol version corresponding to protocol interface.
- getProtocolVersion(String, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getProtocolVersion(String, long) - 接口 中的方法org.apache.hadoop.ipc.VersionedProtocol
-
Return protocol version corresponding to protocol interface.
- getProtocolVersion(String, long) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getProtocolVersion(String, long) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getProtocolVersion(String, long) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, Configuration, SocketFactory) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a client-side proxy object that implements the named protocol,
talking to a server at the named address.
- getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, Configuration, SocketFactory, int) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a client-side proxy object that implements the named protocol,
talking to a server at the named address.
- getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, UserGroupInformation, Configuration, SocketFactory) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a client-side proxy object that implements the named protocol,
talking to a server at the named address.
- getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, UserGroupInformation, Configuration, SocketFactory, int) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a client-side proxy object that implements the named protocol,
talking to a server at the named address.
- getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, UserGroupInformation, Configuration, SocketFactory, int, RetryPolicy, boolean) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a client-side proxy object that implements the named protocol,
talking to a server at the named address.
- getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, Configuration) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a client-side proxy object with the default SocketFactory
- getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, Configuration, int) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
- getProxySuperuserGroupConfKey(String) - 类 中的静态方法org.apache.hadoop.security.authorize.ProxyUsers
-
Returns configuration key for effective user groups allowed for a superuser
- getProxySuperuserIpConfKey(String) - 类 中的静态方法org.apache.hadoop.security.authorize.ProxyUsers
-
Return configuration key for superuser ip addresses
- getPublicDistributedCacheDir() - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
-
- getQueue() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getQueueAclsForCurrentUser() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Gets the Queue ACLs for current user
- getQueueAclsForCurrentUser() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getQueueAclsForCurrentUser() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getQueueAdmins(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getQueueAdmins(String) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getQueueInfo(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Gets the queue information associated to a particular Job Queue
- getQueueInfo(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getQueueInfo(String) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getQueueInfoJson() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getQueueInfoJson() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getQueueManager() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Return the
QueueManager
associated with the JobTracker.
- getQueueMetrics() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Get the QueueMetrics object associated with this job
- getQueueName() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Return the name of the queue to which this job is submitted.
- getQueueName() - 类 中的方法org.apache.hadoop.mapred.JobProfile
-
Get the name of the queue to which the job is submitted.
- getQueueName() - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
-
Get the queue name from JobQueueInfo
- getQueueName() - 类 中的方法org.apache.hadoop.mapred.QueueAclsInfo
-
- getQueueName() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the queue where the job is submitted.
- getQueueName() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getQueues() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Return an array of queue information objects about all the Job Queues
configured.
- getQueues() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getQueues() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getQueueState() - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
-
Return the queue state
- getQuota() - 类 中的方法org.apache.hadoop.fs.ContentSummary
-
Return the directory quota
- getRack(DatanodeInfo) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
-
Get rack string from a data node
- getRack(DatanodeInfo) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyWithNodeGroup
-
- getRack(String) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Given a string representation of a rack for a specific network
location
To be overridden in subclasses for specific NetworkTopology
implementations, as alternative to overriding the full
NetworkTopology.getRack(String)
method.
- getRack(String) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
-
- getRackByName(String) - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- getRackByName(String) - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
-
Get
RackNode
by its name.
- getRackNode() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
-
Get the rack node that the machine belongs to.
- getRacks() - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- getRacks() - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
-
Get all racks of the cluster.
- getRandomDatanode() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getRandomId() - 类 中的静态方法org.apache.hadoop.tools.DistCp
-
- getRandomMachines(int, Random) - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- getRandomMachines(int, Random) - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
-
Select a random set of machines.
- getRange(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Parse the given attribute as a set of integer ranges
- getRankingAt(int) - 类 中的方法org.apache.hadoop.tools.rumen.CDFRandomGenerator
-
- getRankings() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedDiscreteCDF
-
- getRaw(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the
name
property, without doing
variable expansion.
- getRaw() - 类 中的方法org.apache.hadoop.fs.LocalFileSystem
-
- getRawCapacity() - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
-
Return the total raw capacity of the filesystem, disregarding
replication .
- getRawCapacity() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Return the total raw capacity of the filesystem, disregarding
replication .
- getRawFileSystem() - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
get the raw file system
- getRawUsed() - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
-
Return the total raw used space in the filesystem, disregarding
replication .
- getRawUsed() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Return the total raw used space in the filesystem, disregarding
replication .
- getReaders(FileSystem, Path, Configuration) - 类 中的静态方法org.apache.hadoop.mapred.MapFileOutputFormat
-
Open the output generated by this format.
- getReaders(Configuration, Path) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileOutputFormat
-
Open the output generated by this format.
- getReadOps() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Get the number of file system read operations such as list files
- getReadyJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
- getReadyJobsList() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
- getRealm() - 类 中的方法org.apache.hadoop.security.KerberosName
-
Get the realm of the name.
- getRealUser() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
get RealUser (vs.
- getReasonsForBlacklisting(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getReasonsForGraylisting(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getRecordName() - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Returns the record name.
- getRecordName() - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Returns the record name.
- getRecordNum() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
-
Get the RecordNum corresponding to the entry pointed by the cursor.
- getRecordNumNear(long) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get the RecordNum for the first key-value pair in a compressed block
whose byte offset in the TFile is greater than or equal to the specified
offset.
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MyInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.examples.SleepJob.SleepInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.examples.terasort.TeraInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 接口 中的方法org.apache.hadoop.mapred.InputFormat
-
Get the
RecordReader
for the given InputSplit
.
- getRecordReader(InputSplit, JobConf, Reporter) - 接口 中的方法org.apache.hadoop.mapred.join.ComposableInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputFormat
-
Construct a CompositeRecordReader for the children of this InputFormat
as defined in the init expression.
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.KeyValueTextInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
-
This is not implemented yet.
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat
-
Get the
RecordReader
for the given InputSplit
.
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.DelegatingInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.NLineInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.MultiFileInputFormat
-
已过时。
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsTextInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter
-
Create a record reader for the given split
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.TextInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.streaming.AutoInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.streaming.StreamInputFormat
-
- getRecordReaderQueue() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Return sorted list of RecordReaders for this composite.
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateOutputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.examples.terasort.TeraOutputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.FileOutputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBOutputFormat
-
Get the
RecordWriter
for the given job.
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputFormat
-
Create a composite record writer that can write key/value data to different
output files
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.NullOutputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.MapFileOutputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 接口 中的方法org.apache.hadoop.mapred.OutputFormat
-
Get the
RecordWriter
for the given job.
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.SequenceFileOutputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.TextOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat
-
Get the
RecordWriter
for the given task.
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.LazyOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.NullOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.TextOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputFormat
-
Get the
RecordWriter
for the given task.
- getRecoveryDuration() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
How long the jobtracker took to recover from restart.
- getRedirect() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
-
- getRedirect() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
-
- getRedirect() - 接口 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Op
-
- getRedirect() - 类 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.TemporaryRedirectOp
-
- getRedirect() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
-
- getRedirect() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
-
- getReduceCounters(Counters) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Returns map phase counters by summing over all map tasks in progress.
- getReduceCounters() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the reduce counters for the job
- getReduceDebugScript() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the reduce task's debug Script
- getReduceInputGroups() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getReduceInputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getReduceOutputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getReducerClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the
Reducer
class for the job.
- getReducerClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the
Reducer
class for the job.
- getReducerMaxSkipGroups(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Get the number of acceptable skip groups surrounding the bad group PER
bad group in reducer.
- getReduceRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceTaskAttemptInfo
-
Get the runtime for the reduce phase of the reduce task-attempt.
- getReduceShuffleBytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getReduceSlotCapacity() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the total number of reduce slots in the cluster.
- getReduceSlots() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
-
Get the number of reduce slots of the node.
- getReduceSpeculativeExecution() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Should speculative execution be used for this job for reduce tasks?
- getReduceTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get the information of the current state of the reduce tasks of a job.
- getReduceTaskReports(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
已过时。
Applications should rather use
JobClient.getReduceTaskReports(JobID)
- getReduceTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getReduceTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getReduceTasks() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the number of currently running reduce tasks in the cluster.
- getReduceTasks() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getRegistrationID(StorageInfo) - 类 中的静态方法org.apache.hadoop.hdfs.server.common.Storage
-
- getRegistrationID() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Get registrationID for datanodes based on the namespaceID.
- getRegistrationID() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
- getRelativePath(Path, Path) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
Gets relative path of child path with respect to a root path
For ex.
- getRelativeRanking() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedSingleRelativeRanking
-
- getRelativeTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getRemaining() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem.DiskStatus
-
- getRemaining() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
The raw free space.
- getRemaining() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Return how many bytes can still be stored in the FSDataset
- getRemaining() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.FSDatasetMBean
-
Returns the amount of free storage space (in bytes)
- getRemaining() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
-
- getRemaining() - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
-
Returns the number of bytes remaining in the compressed-data buffer;
typically called after the decompressor has finished decompressing
the current gzip stream (a.k.a.
- getRemaining() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
-
Returns
0
.
- getRemaining() - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
-
Returns the number of bytes remaining in the input buffer; normally
called when finished() is true to determine amount of post-gzip-stream
data.
- getRemaining() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
-
Returns the number of bytes remaining in the input buffers; normally
called when finished() is true to determine amount of post-gzip-stream
data.
- getRemainingArgs() - 类 中的方法org.apache.hadoop.util.GenericOptionsParser
-
Returns an array of Strings containing only application-specific arguments.
- getRemainingEntries() - 类 中的方法org.apache.hadoop.hdfs.protocol.DirectoryListing
-
Get the number of remaining entries that are left to be listed
- getRemainingPercent() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
The remaining space as percentage of configured capacity.
- getRemoteAddress() - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
-
- getRemoteAddress() - 类 中的静态方法org.apache.hadoop.ipc.Server
-
Returns remote address as a string when invoked inside an RPC.
- getRemoteIp() - 类 中的静态方法org.apache.hadoop.ipc.Server
-
Returns the remote side ip address when invoked inside an RPC
Returns null incase of an error.
- getRemovedTmp() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
removed.tmp
is a transient directory, which holds
current file system state while the previous state is moved into
current
during rollback.
- getRenewAddress(String, InetSocketAddress, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DelegationTokenFetcher
-
Get the URI that we use for getting, renewing, and cancelling the
delegation token.
- getRenewDate() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager.DelegationTokenInformation
-
returns renew date
- getRenewer() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- getRenewToken() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getRenewToken() - 接口 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenRenewer.Renewable
-
- getRenewToken() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getReplication() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Get the replication factor of a file.
- getReplication(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
已过时。
Use getFileStatus() instead
- getReplication(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
已过时。
- getReplication() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the replication factor of a file.
- getReplWorkMultiplier(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.DFSUtil
-
Get DFS_NAMENODE_REPLICATION_WORK_MULTIPLIER_PER_ITERATION
from configuration.
- getReply(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
-
get the ith reply
- getReport() - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
-
log the counters
- getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.DoubleValueSum
-
- getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMax
-
- getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMin
-
- getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueSum
-
- getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMax
-
- getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMin
-
- getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
-
- getReport() - 接口 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregator
-
- getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
-
- getReportDetails() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
-
- getReportItems() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
-
- getRequestFilter() - 类 中的方法org.apache.hadoop.hdfs.web.ParamFilter
-
- getRequestURL() - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
-
Quote the url so that users specifying the HOST HTTP header
can't inject attacks.
- getRequestURL(HttpServletRequest) - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Returns the full URL of the request including the query string.
- getReservedMapSlots() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get number of reserved map slots in the cluster.
- getReservedReduceSlots() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the number of reserved reduce slots in the cluster.
- getResolvedUrl(HttpURLConnection) - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
-
- getResource(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the
URL
for the named resource.
- getResourceBundle(String) - 类 中的静态方法org.apache.hadoop.mapreduce.CounterGroup
-
Returns the specified resource bundle, or throws an exception.
- getResourceCalculatorPlugin(Class<? extends ResourceCalculatorPlugin>, Configuration) - 类 中的静态方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Get the ResourceCalculatorPlugin from the class name and configure it.
- getResourceUsageMetrics() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getResourceUsageMetrics() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
-
- getResponseFilter() - 类 中的方法org.apache.hadoop.hdfs.web.ParamFilter
-
- getResult() - 类 中的方法org.apache.hadoop.examples.Sort
-
Get the last job that was run using this instance.
- getResult() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getRetainHours() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JobCompletedEvent
-
Get the number of hours for which job logs should be retained.
- getRevision() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
-
- getRevision() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
-
Get the subversion revision number for the root directory
- getRoot() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
Get root directory of this storage
- getRoot(UserGroupInformation, DelegationParam, GetOpParam, OffsetParam, LengthParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.DatanodeWebHdfsMethods
-
Handle HTTP GET request for the root.
- getRoot(UserGroupInformation, DelegationParam, UserParam, DoAsParam, GetOpParam, OffsetParam, LengthParam, RenewerParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
-
Handle HTTP GET request for the root.
- getRotations() - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino.Piece
-
- getRpcMetrics() - 类 中的方法org.apache.hadoop.ipc.Server
-
Returns a handle to the rpcMetrics (required in tests)
- getRpcPort() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getRpcPort() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
-
Gets the rpc port.
- getRpcPort() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getRpcPort() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
-
- getRunAsUser(JobConf) - 类 中的方法org.apache.hadoop.mapred.TaskController
-
Returns the local unix user that a given job will run as.
- getRunnable() - 类 中的方法org.apache.hadoop.util.Daemon
-
- getRunningJobList() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
- getRunningJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
- getRunningJobs() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Version that is called from a timer thread, and therefore needs to be
careful to synchronize.
- getRunningMaps() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the number of running map tasks in the cluster.
- getRunningReduces() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the number of running reduce tasks in the cluster.
- getRunningTaskAttempts() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
Get the running task attempt IDs for this task
- getRunState() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- getRunState() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getRunState() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptInfo
-
Get the final
TaskStatus.State
of the task-attempt.
- getRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.MapTaskAttemptInfo
-
- getRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceTaskAttemptInfo
-
- getRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptInfo
-
Get the total runtime for the task-attempt.
- getSafemode() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getSafemode() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the safemode status
- getSafeModeText() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- getSafeModeTip() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getSample(InputFormat<K, V>, JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler.IntervalSampler
-
For each split sampled, emit when the ratio of the number of records
retained to the total record count is less than the specified
frequency.
- getSample(InputFormat<K, V>, JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler.RandomSampler
-
Randomize the split order, then take the specified number of keys from
each split sampled, where each key is selected with the specified
probability and possibly replaced by a subsequently selected key when
the quota of keys from that split is satisfied.
- getSample(InputFormat<K, V>, JobConf) - 接口 中的方法org.apache.hadoop.mapred.lib.InputSampler.Sampler
-
For a given job, collect and return a subset of the keys from the
input data.
- getSample(InputFormat<K, V>, JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler.SplitSampler
-
From each split sampled, take the first numSamples / numSplits records.
- getSample(InputFormat<K, V>, Job) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.InputSampler.IntervalSampler
-
For each split sampled, emit when the ratio of the number of records
retained to the total record count is less than the specified
frequency.
- getSample(InputFormat<K, V>, Job) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.InputSampler.RandomSampler
-
Randomize the split order, then take the specified number of keys from
each split sampled, where each key is selected with the specified
probability and possibly replaced by a subsequently selected key when
the quota of keys from that split is satisfied.
- getSample(InputFormat<K, V>, Job) - 接口 中的方法org.apache.hadoop.mapreduce.lib.partition.InputSampler.Sampler
-
For a given job, collect and return a subset of the keys from the
input data.
- getSample(InputFormat<K, V>, Job) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.InputSampler.SplitSampler
-
From each split sampled, take the first numSamples / numSplits records.
- getSaslQop() - 枚举 中的方法org.apache.hadoop.security.SaslRpcServer.QualityOfProtection
-
- getScheduledReplicationBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getScheduledReplicationBlocks() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Blocks scheduled for replication
- getSchedulingInfo() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getSchedulingInfo() - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
-
Gets the scheduling information associated to particular job queue.
- getSchedulingInfo() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
Gets the Scheduling information associated to a particular Job.
- getScheme() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Get the uri scheme associated with this statistics object.
- getScope() - 类 中的方法org.apache.hadoop.hdfs.web.resources.UserProvider
-
- getSecond() - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
-
- getSecretAccessKey() - 类 中的方法org.apache.hadoop.fs.s3.S3Credentials
-
- getSecretKey(Credentials, Text) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
-
auxiliary method to get user's secret keys..
- getSecretKey(Text) - 类 中的方法org.apache.hadoop.security.Credentials
-
Returns the key bytes for the alias
- getSeed(String, long) - 类 中的静态方法org.apache.hadoop.tools.rumen.RandomSeedGenerator
-
Generates a new random seed.
- getSelectQuery() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
-
Returns the query for selecting the records,
subclasses can override this for custom behaviour.
- getSelectQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBRecordReader
-
Returns the query for selecting the records,
subclasses can override this for custom behaviour.
- getSelectQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
Returns the query for selecting the records,
subclasses can override this for custom behaviour.
- getSelectQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.OracleDBRecordReader
-
Returns the query for selecting the records from an Oracle DB.
- getSelfAddr() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getSeqno() - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
-
Get the sequence number
- getSequenceFileOutputKeyClass(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
-
Get the key class for the
SequenceFile
- getSequenceFileOutputKeyClass(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
-
Get the key class for the
SequenceFile
- getSequenceFileOutputValueClass(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
-
Get the value class for the
SequenceFile
- getSequenceFileOutputValueClass(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
-
Get the value class for the
SequenceFile
- getSequenceNumber() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- getSequenceWriter(TaskAttemptContext, Class<?>, Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
-
- getSerialization(Class<T>) - 类 中的方法org.apache.hadoop.io.serializer.SerializationFactory
-
- getSerializedLength() - 类 中的方法org.apache.hadoop.fs.s3.INode
-
- getSerializer(Class<Serializable>) - 类 中的方法org.apache.hadoop.io.serializer.JavaSerialization
-
- getSerializer(Class<T>) - 接口 中的方法org.apache.hadoop.io.serializer.Serialization
-
- getSerializer(Class<T>) - 类 中的方法org.apache.hadoop.io.serializer.SerializationFactory
-
- getSerializer(Class<Writable>) - 类 中的方法org.apache.hadoop.io.serializer.WritableSerialization
-
- getServer(Object, String, int, Configuration) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a server for a protocol implementation instance listening on a
port and address.
- getServer(Object, String, int, int, boolean, Configuration) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a server for a protocol implementation instance listening on a
port and address.
- getServer(Object, String, int, int, boolean, Configuration, SecretManager<? extends TokenIdentifier>) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a server for a protocol implementation instance listening on a
port and address, with a secret manager.
- getServerAddress(Configuration, String, String, String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
已过时。
- getServerName() - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
-
Quote the server name so that users specifying the HOST HTTP header
can't inject attacks.
- getServerPrincipal(String, String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
Convert Kerberos principal name pattern to valid Kerberos principal
names.
- getServerPrincipal(String, InetAddress) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
Convert Kerberos principal name pattern to valid Kerberos principal names.
- getServerVersion() - 异常错误 中的方法org.apache.hadoop.ipc.RPC.VersionMismatch
-
Get the server's agreed to version.
- getService() - 类 中的方法org.apache.hadoop.security.token.Token
-
Get the service on which the token is supposed to be used
- getServiceAddress(Configuration, boolean) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Fetches the address for services to use when connecting to namenode
based on the value of fallback returns null if the special
address is not specified or returns the default namenode address
to be used by both clients and services.
- getServiceKey() - 类 中的方法org.apache.hadoop.security.authorize.Service
-
Get the configuration key for the service.
- getServiceName() - 类 中的方法org.apache.hadoop.security.KerberosName
-
Get the first component of the name.
- getServicePrincipal(String, String) - 类 中的静态方法org.apache.hadoop.security.authentication.util.KerberosUtil
-
Create Kerberos principal for a given service and hostname.
- getServiceRpcServerAddress(Configuration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Given a configuration get the address of the service rpc server
If the service rpc is not configured returns null
- getServices() - 类 中的方法org.apache.hadoop.hdfs.HDFSPolicyProvider
-
- getServices() - 类 中的方法org.apache.hadoop.mapred.MapReducePolicyProvider
-
- getServices() - 类 中的方法org.apache.hadoop.security.authorize.PolicyProvider
-
Get the
Service
definitions from the PolicyProvider
.
- getSessionId() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the user-specified session identifier.
- getSetupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get the information of the current state of the setup tasks of a job.
- getSetupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getSetupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getShape(boolean, int) - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino.Piece
-
- getShortName() - 类 中的方法org.apache.hadoop.security.KerberosName
-
Get the translation of the principal name into an operating system
user name.
- getShortUserName() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Get the user's login name.
- getShuffleFinished() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getShuffleFinishTime() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Get shuffle finish time for the task.
- getShuffleFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the finish time of the shuffle phase
- getShuffleRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceTaskAttemptInfo
-
Get the runtime for the shuffle phase of the reduce task-attempt.
- getSize(OpenEntity, Class<?>, Type, Annotation[], MediaType) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.OpenEntity.Writer
-
- getSize() - 类 中的方法org.apache.hadoop.io.BytesWritable
-
已过时。
Use
BytesWritable.getLength()
instead.
- getSize() - 接口 中的方法org.apache.hadoop.io.SequenceFile.ValueBytes
-
Size of stored data.
- getSize() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- getSize() - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- getSkipOutputPath(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Get the directory to which skipped records are written.
- getSkipRanges() - 类 中的方法org.apache.hadoop.mapred.Task
-
Get skipRanges.
- getSlope(String) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
-
已过时。
- getSocketFactory(Configuration, Class<?>) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Get the socket factory for the given class according to its
configuration parameter
hadoop.rpc.socket.factory.class.
- getSocketFactoryFromProperty(Configuration, String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Get the socket factory corresponding to the given proxy URI.
- getSortComparator() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the
RawComparator
comparator used to compare keys.
- getSortFinished() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getSortFinishTime() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Get sort finish time for the task,.
- getSortFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the finish time of the sort phase
- getSourceFileListing() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
File path (hdfs:// or file://) that contains the list of actual
files to copy
- getSourcePaths() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Getter for sourcePaths.
- getSpace(int) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- getSpaceConsumed() - 类 中的方法org.apache.hadoop.fs.ContentSummary
-
Retuns (disk) space consumed
- getSpaceQuota() - 类 中的方法org.apache.hadoop.fs.ContentSummary
-
Returns (disk) space quota
- getSpeculativeExecution() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Should speculative execution be used for this job?
- getSpilledRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getSplit() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- getSplitHosts(BlockLocation[], long, long, NetworkTopology) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
-
This function identifies and returns the hosts that contribute
most for a given split.
- getSplitIndex() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
-
- getSplitLocation() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitIndex
-
- getSplitLocation() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
-
- getSplitLocations() - 类 中的方法org.apache.hadoop.tools.rumen.TaskStartedEvent
-
Get the split locations, applicable for map tasks
- getSplits(int) - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino
-
Generate a list of prefixes to a given depth
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.examples.SleepJob.SleepInputFormat
-
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.examples.terasort.TeraInputFormat
-
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
-
Splits files returned by
FileInputFormat.listStatus(JobConf)
when
they're too big.
- getSplits(JobConf, int) - 接口 中的方法org.apache.hadoop.mapred.InputFormat
-
Logically split the set of input files for the job.
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputFormat
-
Build a CompositeInputSplit from the child InputFormats by assigning the
ith split from each child to the ith composite split.
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
-
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat
-
Logically split the set of input files for the job.
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.lib.DelegatingInputFormat
-
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.lib.NLineInputFormat
-
Logically splits the set of input files for the job, splits N lines
of the input as one split.
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.MultiFileInputFormat
-
已过时。
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.InputFormat
-
Logically split the set of input files for the job.
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
-
Logically split the set of input files for the job.
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
Logically split the set of input files for the job.
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingInputFormat
-
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Generate the list of files and make them into FileSplits.
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
-
Logically splits the set of input files for the job, splits N lines
of the input as one split.
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicInputFormat
-
Implementation of InputFormat::getSplits().
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.UniformSizeInputFormat
-
Implementation of InputFormat::getSplits().
- getSplitsForFile(FileStatus, Configuration, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
-
- getSplitter(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
-
- getSplitter(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.OracleDataDrivenDBInputFormat
-
- getSrcChecksum() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
-
Get the checksum of the source files from which Hadoop was
built.
- getSslConfigurationFile() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Get path where the ssl configuration file is present to use for hftps://
- getStackTrace() - 异常错误 中的方法org.apache.hadoop.security.authorize.AuthorizationException
-
- getStagingAreaDir() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Grab the jobtracker's view of the staging directory path where
job-specific files will be placed.
- getStagingAreaDir() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getStagingAreaDir() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getStagingDir(JobClient, Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
-
Initializes the staging directory and returns the path.
- getStamp() - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
-
Returns the current generation stamp
- getStart() - 类 中的方法org.apache.hadoop.mapred.FileSplit
-
The position of the first byte in the file to process.
- getStart() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
-
- getStart() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
-
- getStart() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
-
The position of the first byte in the file to process.
- getStartOffset() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- getStartOffset() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
-
- getStartOffset() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitIndex
-
- getStartOffset() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
-
- getStartOffsets() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
Returns an array containing the startoffsets of the files in the split
- getStartOffsets() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
Returns an array containing the start offsets of the files in the split
- getStartTime() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getStartTime() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getStartTime() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- getStartTime() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getStartTime() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
Get start time of task.
- getStartTime() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Get start time of the task.
- getStartTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getStartTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getStartTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the start time
- getStartTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskStartedEvent
-
Get the start time of the task
- getState() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- getState() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
- getState() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
The most recent state, reported by a
Reporter
.
- getState() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the state string
- getState() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the state string
- getState() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the state string
- getStatement() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat.DBRecordWriter
-
- getStatement() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- getStateString() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getStaticResolution(String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Retrieves the resolved name for the passed host.
- getStatistics() - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
已过时。
use
FileSystem.getAllStatistics()
instead
- getStatistics(String, Class<? extends FileSystem>) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Get the statistics for a particular file system
- getStats() - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Get a set of statistics about the filesystem.
- getStats() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getStatus() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getStatus() - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
-
Get the current
TaskTrackerStatus
of the TaskTracker
.
- getStatus() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptContext
-
Get the last set status message.
- getStatus() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
-
Get the status
- getStatus() - 类 中的方法org.apache.hadoop.tools.rumen.JobStatusChangedEvent
-
Get the event status
- getStatus() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
-
Get the status
- getStatusText(boolean) - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
-
Get upgradeStatus data as a text for reporting.
- getStorageDir(int) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
-
- getStorageDirType() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
Get storage directory type
- getStorageDirType() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirType
-
- getStorageID() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
- getStorageID() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataStorage
-
- getStorageInfo() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- getStorageInfo() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.FSDatasetMBean
-
Returns the storage id of the underlying storage
- getStoredBlock(long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
- getStoredBlock(long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
- getStr() - 类 中的方法org.apache.hadoop.mapred.join.Parser.StrToken
-
- getStr() - 类 中的方法org.apache.hadoop.mapred.join.Parser.Token
-
- getStrategy(Configuration, DistCpOptions) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
Returns the class that implements a copy strategy.
- getStreamingAddr(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getStreamingSocket() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter.SecureResources
-
- getString() - 类 中的静态方法org.apache.hadoop.hdfs.protocol.LayoutVersion
-
Gets formatted string that describes
LayoutVersion
information.
- getStringCollection(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the comma delimited values of the
name
property as
a collection of String
s.
- getStringCollection(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Returns a collection of strings.
- getStringDescriptionFor(long) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
- getStrings(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the comma delimited values of the
name
property as
an array of String
s.
- getStrings(String, String...) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the comma delimited values of the
name
property as
an array of String
s.
- getStrings(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Returns an arraylist of strings.
- getSubject() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Get the underlying subject from this ugi.
- getSubmissionTime() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the job submission time.
- getSubmissionTime() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getSubmitTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobInfoChangeEvent
-
Get the Job submit time
- getSubmitTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the submit time
- getSubmitTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getSuccessfulJobList() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
- getSuccessfulJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
- getSuccessfulMapAttemptCDFs() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getSuccessfulReduceAttemptCDF() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getSuccessfulTaskAttempt() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
Get the attempt ID that took this task to completion
- GetSuffix(int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- getSum() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.DoubleValueSum
-
- getSum() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueSum
-
- getSummaryJson() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getSummaryJson() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getSupportedCompressionAlgorithms() - 类 中的静态方法org.apache.hadoop.io.file.tfile.TFile
-
Get names of supported compression algorithms.
- getSwitch() - 枚举 中的方法org.apache.hadoop.tools.distcp2.DistCpOptionSwitch
-
Get Switch symbol
- getSymlink(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
This method checks to see if symlinks are to be create for the
localized cache files in the current working directory
Used by internal DistributedCache code.
- getSystemDir() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Grab the jobtracker system directory path where job-specific files are to be placed.
- getSystemDir() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getSystemDir() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getTableName() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- getTabSize(int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- getTag() - 类 中的方法org.apache.hadoop.contrib.utils.join.TaggedMapOutput
-
- getTag(String) - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
-
已过时。
Returns a tag object which is can be a String, Integer, Short or Byte.
- getTag(String) - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache.Record
-
Get the tag value
- getTagNames() - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
-
已过时。
Returns the set of tag names
- getTagsCopy() - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
-
已过时。
Returns a copy of this record's tags.
- getTargetPath() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Getter for the targetPath.
- getTargets() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockCommand
-
- getTask() - 类 中的方法org.apache.hadoop.mapred.JvmTask
-
- getTask(JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
Called upon startup by the child process, to fetch Task data.
- getTask(JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
-
Called when a child task process starts, to get its task.
- getTaskAttemptID() - 类 中的方法org.apache.hadoop.mapred.TaskAttemptContext
-
Get the taskAttemptID.
- getTaskAttemptId() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
Returns task id.
- getTaskAttemptID() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptContext
-
Get the unique name for this task attempt.
- getTaskAttemptId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the attempt id
- getTaskAttemptId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
-
Get the attempt id
- getTaskAttemptIDsPattern(String, Integer, Boolean, Integer, Integer) - 类 中的静态方法org.apache.hadoop.mapred.TaskAttemptID
-
已过时。
- getTaskAttemptInfo(TaskType, int, int) - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get
TaskAttemptInfo
for a given task-attempt, without regard to
impact of locality (e.g. not needed to make scheduling decisions).
- getTaskAttemptInfo(TaskType, int, int) - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
Get a
TaskAttemptInfo
with a TaskAttemptID
associated with
taskType, taskNumber, and taskAttemptNumber.
- getTaskAttemptLogDir(TaskAttemptID, String, String[]) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
Get attempt log directory path for the given attempt-id under randomly
selected mapred local directory.
- getTaskAttempts() - 类 中的方法org.apache.hadoop.mapred.JobHistory.Task
-
Returns all task attempts for this task.
- getTaskCompletionEvents(int, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getTaskCompletionEvents(JobID, int, int) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getTaskCompletionEvents(JobID, int, int) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getTaskCompletionEvents(int) - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get events indicating completion (success/failure) of component tasks.
- getTaskCompletionEvents(int) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Get events indicating completion (success/failure) of component tasks.
- getTaskController() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getTaskController() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
-
Get the taskController for deleting logs.
- getTaskDiagnostics(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Get the diagnostics for a given task
- getTaskDiagnostics(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
Returns the diagnostic information for a particular task in the given job.
- getTaskDiagnostics(TaskAttemptID) - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Gets the diagnostic messages for a given task attempt.
- getTaskDistributedCacheManager(JobID) - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
- getTaskFailures() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get the number of tasks that have failed on this tracker.
- getTaskID() - 类 中的方法org.apache.hadoop.mapred.Task
-
- getTaskID() - 类 中的方法org.apache.hadoop.mapred.TaskAttemptID
-
- getTaskId() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
已过时。
use
TaskCompletionEvent.getTaskAttemptId()
instead.
- getTaskId() - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
-
Getter/Setter methods for log4j.
- getTaskId() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
已过时。
use
TaskReport.getTaskID()
instead
- getTaskID() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
The id of the task.
- getTaskID() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getTaskID() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
-
Returns the
TaskID
object that this task attempt belongs to
- getTaskID() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the task ID
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the Task ID
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the task ID
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the task id
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
-
Get the task id
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
-
Get the task id
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
-
Get task id
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskStartedEvent
-
Get the task id
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskUpdatedEvent
-
Get the task ID
- getTaskIDsPattern(String, Integer, Boolean, Integer) - 类 中的静态方法org.apache.hadoop.mapred.TaskID
-
已过时。
- getTaskInfo(JobConf) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- getTaskInfo(TaskType, int) - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get
TaskInfo
for a given task.
- getTaskInfo() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptInfo
-
Get the
TaskInfo
for the given task-attempt.
- getTaskInfo(TaskType, int) - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getTaskInProgress(TaskID) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Return the TaskInProgress that matches the tipid.
- getTaskLogFile(TaskAttemptID, boolean, TaskLog.LogName) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
- getTaskLogLength(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
Get the desired maximum length of task's logs.
- getTaskLogsUrl(JobHistory.TaskAttempt) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory
-
Return the TaskLogsUrl of a particular TaskAttempt
- getTaskLogUrl(String, String, String) - 类 中的静态方法org.apache.hadoop.mapred.TaskLogServlet
-
Construct the taskLogUrl
- getTaskMemory() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
-
- getTaskMemoryManager() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getTaskOutputFilter(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.JobClient
-
Get the task output filter out of the JobConf.
- getTaskOutputFilter() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
已过时。
- getTaskOutputPath(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
Helper function to create the task's temporary output directory and
return the path to the task's output file.
- getTaskReports() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get the current tasks at the TaskTracker.
- getTaskRunTime() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
Returns time (in millisec) the task took to complete.
- getTasksInfoJson() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getTasksInfoJson() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
-
- getTaskStatus() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
Returns enum Status.SUCESS or Status.FAILURE.
- getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the task status
- getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the task status
- getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the task status
- getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
-
Get the task status
- getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
-
Get the task status
- getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
-
Get task status
- getTaskTracker(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getTaskTracker() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getTaskTrackerCount() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the number of active trackers in the cluster.
- getTaskTrackerHttp() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
http location of the tasktracker where this task ran.
- getTaskTrackerInstrumentation() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getTaskTrackerReportAddress() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
Return the port at which the tasktracker bound to
- getTaskTrackers() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the number of active task trackers in the cluster.
- getTaskTrackerStatus(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the task type
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the task type
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the task type
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the task type
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
-
Get the task type
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
-
Get the task type
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
-
Get task type
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskStartedEvent
-
Get the task type
- getTerm() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
-
Get the term.
- getText() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocTextAndOp
-
Get the text that represents a document.
- getText() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentID
-
The text of the document id.
- getThreadCount() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getThreadCount() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getThreads() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getThreads() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the number of threads.
- getThreadState() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
- getTimeout(Configuration) - 类 中的静态方法org.apache.hadoop.ipc.Client
-
The time after which a RPC will timeout.
- getTimestamp(Configuration, URI) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Returns mtime of a given cache file on hdfs.
- getTip(TaskID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Returns specified TaskInProgress, or null.
- getTmax(String) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
-
已过时。
- getTmpInputStreams(Block, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Returns handles to the block file and its metadata file
- getTmpInputStreams(Block, long, long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns an input stream at specified offset of the specified block
The block is still in the tmp directory and is not finalized
- getToken(int) - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- getToken(HttpServletRequest) - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Returns the
AuthenticationToken
for the request.
- getToken(Text) - 类 中的方法org.apache.hadoop.security.Credentials
-
Returns the Token object for the alias
- getTokenExpiryTime(DelegationTokenIdentifier) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
-
Returns expiry time of a token given its identifier.
- getTokenIdentifiers() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Get the set of TokenIdentifiers belonging to this UGI
- getTokenLifetime() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
-
- getTokens() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Obtain the collection of tokens associated with this user.
- getTokenServiceAddr(Token<?>) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
Decode the given token's service field into an InetAddress
- getTopologyPaths() - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Get the list of network topology paths for each of the hosts.
- getTotal() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getTotal() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets total raw bytes including non-dfs used space.
- getTotalBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getTotalBlocks() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the total numbers of blocks on the cluster.
- getTotalBytesRead() - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
-
Getter for the number of bytes read from this stream, since creation.
- getTotalCounters() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the counters for the job
- getTotalFiles() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getTotalFiles() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the total number of files on the cluster
- getTotalJobSubmissions() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the total number of job submissions in the cluster.
- getTotalLoad() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.FSClusterStats
-
an indication of the total load of the cluster.
- getTotalLoad() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Total number of connections.
- getTotalLoad() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Total Load on the FSNamesystem
- getTotalLogFileSize() - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
-
- getTotalMaps() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
-
Get the total number of maps
- getTotalMaps() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getTotalReduces() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
-
Get the total number of reduces
- getTotalReduces() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getTotalSleepTime() - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
-
Getter the total time spent in sleep.
- getTotalSubmissions() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getTrackerIdentifier() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Get the unique identifier (ie. timestamp) of this job tracker start.
- getTrackerName() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
- getTrackerName() - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
-
Get the unique identifier for the
TaskTracker
- getTrackerName() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the tracker name
- getTrackerPort() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getTrackingURL() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get the URL where some job progress information will be displayed.
- getTrackingURL() - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Get the URL where some job progress information will be displayed.
- getTrash() - 类 中的方法org.apache.hadoop.fs.FsShell
-
- getTTExpiryInterval() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the tasktracker expiry interval for the cluster
- getType() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
-
Get the type of the software component, which this object is upgrading.
- getType() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- getType() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.UpgradeObjectDatanode
-
- getType() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.UpgradeObjectNamenode
-
- getType() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
-
- getType() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
-
- getType() - 接口 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Op
-
- getType() - 类 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.TemporaryRedirectOp
-
- getType() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
-
- getType() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
-
- getType() - 类 中的方法org.apache.hadoop.mapred.join.Parser.Token
-
- getType() - 接口 中的方法org.apache.hadoop.security.authentication.server.AuthenticationHandler
-
Returns the authentication type of the authentication handler.
- getType() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
-
Returns the authentication mechanism of the token.
- getType() - 类 中的方法org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
-
Returns the authentication type of the authentication handler, 'kerberos'.
- getType() - 类 中的方法org.apache.hadoop.security.authentication.server.PseudoAuthenticationHandler
-
Returns the authentication type of the authentication handler, 'simple'.
- getType() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritable
-
Get the type code embedded in the first byte.
- getTypeID() - 类 中的方法org.apache.hadoop.record.meta.FieldTypeInfo
-
get the field's TypeID object
- getTypes() - 类 中的方法org.apache.hadoop.io.GenericWritable
-
Return all classes that may be wrapped.
- getTypeVal() - 类 中的方法org.apache.hadoop.record.meta.TypeID
-
Get the type value.
- getUGI(HttpServletRequest, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
Same as getUGI(null, request, conf).
- getUGI(ServletContext, HttpServletRequest, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
Get
UserGroupInformation
and possibly the delegation token out of
the request.
- getUGI(ServletContext, HttpServletRequest, Configuration, UserGroupInformation.AuthenticationMethod, boolean) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
Get
UserGroupInformation
and possibly the delegation token out of
the request.
- getUlimitMemoryCommand(int) - 类 中的静态方法org.apache.hadoop.util.Shell
-
Get the Unix command for setting the maximum virtual memory available
to a given child process.
- getUlimitMemoryCommand(Configuration) - 类 中的静态方法org.apache.hadoop.util.Shell
-
已过时。
- getUMask(Configuration) - 类 中的静态方法org.apache.hadoop.fs.permission.FsPermission
-
Get the user file creation mask (umask)
UMASK_LABEL
config param has umask value that is either symbolic
or octal.
- getUnderlyingProtocol() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
Return the underlying protocol that is used to talk to the namenode.
- getUnderlyingProtocol() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem.TokenManager
-
- getUnderlyingProtocol() - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem
-
Return the underlying protocol that is used to talk to the namenode.
- getUnderlyingProtocol() - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem.TokenManager
-
- getUnderReplicatedBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getUnderReplicatedBlocks() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Blocks under replicated
- getUnderReplicatedBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Returns count of blocks with one of more replica missing.
- getUnderReplicatedBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Returns count of blocks with one of more replica missing.
- getUniqueFile(TaskAttemptContext, String, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Generate a unique filename, based on the task id, name, and extension
- getUniqueItems() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
-
- getUniqueName(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
Helper function to generate a name that is unique for the task.
- getUnits(String) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
-
已过时。
- getUpgradePermission() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Return the default path permission when upgrading from releases with no
permissions (<=0.15) to releases with permissions (>=0.16)
- getUpgradeState() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- getUpgradeStatus() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
-
Upgrade status determines a percentage of the work done out of the total
amount required by the upgrade.
100% means that the upgrade is completed.
- getUpgradeStatus() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- getUpgradeStatus() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeObject
-
- getUpgradeStatus() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
-
Get upgrade upgradeStatus as a percentage of the total upgrade done.
- getUpgradeStatusReport(boolean) - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
-
Get status report for the upgrade.
- getUpgradeStatusReport(boolean) - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeObject
-
- getUpgradeStatusText() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- getUpgradeVersion() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- getUpperClause() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat.DataDrivenDBInputSplit
-
- getUri() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Returns a URI whose scheme and authority identify this FileSystem.
- getUri() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Returns a URI whose scheme and authority identify this FileSystem.
- getUri() - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
-
- getUri() - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
Returns the uri of this filesystem.
- getUri() - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- getUri() - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- getUri() - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
- getUri() - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
- getUri() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- getUri() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getUri(InetSocketAddress) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getUri() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getURIs(String, String) - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
get the uris of all the files/caches
- getURL() - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream.URLOpener
-
- getURL() - 类 中的方法org.apache.hadoop.mapred.JobProfile
-
Get the link to the web-ui for details of the job.
- getUrl() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
-
Get the subversion URL for the root Hadoop directory.
- getUsed() - 类 中的方法org.apache.hadoop.fs.DF
-
- getUsed() - 类 中的方法org.apache.hadoop.fs.DU
-
- getUsed() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Return the total size of all files in the filesystem.
- getUsed() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getUsed() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the used space by data nodes.
- getUsedMemory() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
已过时。
- getUseNewMapper() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Should the framework use the new context-object code for running
the mapper?
- getUseNewReducer() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Should the framework use the new context-object code for running
the reducer?
- getUser() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- getUser() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the reported username for this job.
- getUser() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Get the user for the job
- getUser() - 类 中的方法org.apache.hadoop.mapred.JobProfile
-
Get the user id.
- getUser() - 类 中的方法org.apache.hadoop.mapred.Task
-
Get the name of the user running the job/task.
- getUser() - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
-
Get the Ugi with the username encoded in the token identifier
- getUser() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
Get the username encoded in the token identifier
- getUser() - 类 中的方法org.apache.hadoop.security.token.TokenIdentifier
-
Get the Ugi with the username encoded in the token identifier
- getUser() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the user who ran the job.
- getUser() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getUser() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getUser() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
-
The user that compiled Hadoop.
- getUserAction() - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
-
Return user
FsAction
.
- getUserDir(String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
-
- getUserId() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- getUserLogCleaner() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
-
Get
UserLogCleaner
.
- getUserLogDir() - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
- getUserName() - 类 中的方法org.apache.hadoop.fs.permission.PermissionStatus
-
Return user name
- getUserName(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Get the user name from the job conf
- getUsername() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- getUserName() - 类 中的方法org.apache.hadoop.security.authentication.client.PseudoAuthenticator
-
Returns the current user name.
- getUserName() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
-
Returns the user name.
- getUserName() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Get the user's full principal name.
- getUserName() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the user name
- getUsersForNetgroup(String) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMapping
-
Calls JNI function to get users for a netgroup, since C functions
are not reentrant we need to make this synchronized (see
documentation for setnetgrent, getnetgrent and endnetgrent)
- getUsersForNetgroupCommand(String) - 类 中的静态方法org.apache.hadoop.util.Shell
-
a Unix command to get a given netgroup's user list
- getUserToGroupsMappingService() - 类 中的静态方法org.apache.hadoop.security.Groups
-
Get the groups being used to map user-to-groups.
- getUserToGroupsMappingService(Configuration) - 类 中的静态方法org.apache.hadoop.security.Groups
-
- getVal() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMax
-
- getVal() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMin
-
- getVal() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMax
-
- getVal() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMin
-
- getValByRegex(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
get keys matching the the regex
- getValidity() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Returns the validity time of the generated tokens.
- getValue(Configuration) - 类 中的方法org.apache.hadoop.hdfs.web.resources.BlockSizeParam
-
- getValue(Configuration) - 类 中的方法org.apache.hadoop.hdfs.web.resources.BufferSizeParam
-
- getValue() - 类 中的方法org.apache.hadoop.hdfs.web.resources.Param
-
- getValue(Configuration) - 类 中的方法org.apache.hadoop.hdfs.web.resources.ReplicationParam
-
- getValue(HttpContext) - 类 中的方法org.apache.hadoop.hdfs.web.resources.UserProvider
-
- getValue(BytesWritable) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Copy the value into BytesWritable.
- getValue(byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Copy value into user-supplied buffer.
- getValue(byte[], int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Copy value into user-supplied buffer.
- getValue() - 接口 中的方法org.apache.hadoop.io.SequenceFile.Sorter.RawKeyValueIterator
-
Gets the current raw value
- getValue() - 接口 中的方法org.apache.hadoop.mapred.RawKeyValueIterator
-
Gets the current raw value.
- getValue() - 类 中的方法org.apache.hadoop.mapreduce.Counter
-
What is the current value of this counter?
- getValue() - 枚举 中的方法org.apache.hadoop.mapreduce.JobStatus.State
-
- getValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
-
- getValue() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritable
-
Get the typed bytes as a Java object.
- getValue() - 类 中的方法org.apache.hadoop.util.DataChecksum
-
- getValue() - 枚举 中的方法org.apache.hadoop.util.ProcessTree.Signal
-
- getValue() - 类 中的方法org.apache.hadoop.util.PureJavaCrc32
- getValueClass() - 类 中的方法org.apache.hadoop.io.ArrayWritable
-
- getValueClass() - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
Returns the class of values in this file.
- getValueClass() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Returns the class of values in this file.
- getValueClass() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
-
Returns the class of values in this file.
- getValueClass() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
-
The class of value that must be passed to
SequenceFileRecordReader.next(Object, Object)
..
- getValueClassName() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Returns the name of the value class.
- getValueClassName() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
Retrieve the name of the value class for this SequenceFile.
- getValueClassName() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
Retrieve the name of the value class for this SequenceFile.
- getValueLength() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Get the length of the value. isValueLengthKnown() must be tested
true.
- getValues() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext
-
Iterate through the values for the current key, reusing the same value
object, which is stored in the context.
- getValueStream() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Stream access to value.
- getValueTypeID() - 类 中的方法org.apache.hadoop.record.meta.MapTypeID
-
get the TypeID of the map's value element
- getVectorSize() - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
-
- getVersion() - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
-
Get the version number of the entire index.
- getVersion() - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
-
- getVersion() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
-
Get the layout version of the upgrade object.
- getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
-
Get the layout version of the currently running upgrade.
- getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.BlockMetadataHeader
-
Get the version
- getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getVersion() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
-
Gets the version of Hadoop.
- getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getVersion() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the version of Hadoop.
- getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
- getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
-
- getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
-
- getVersion() - 类 中的方法org.apache.hadoop.io.VersionedWritable
-
Return the version number of the current implementation.
- getVersion() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getVersion() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getVersion() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getVersion() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
-
- getVersion() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
-
Get the Hadoop version.
- getVersionFile() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
File
VERSION
contains the following fields:
node type
layout version
namespaceID
fs state creation time
other fields specific for this node type
The version file is always written last during storage directory updates.
- getVersionTable() - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
Return a table containing version information.
- getVIntSize(long) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
Get the encoded length if an integer is stored in a variable-length format
- getVIntSize(long) - 类 中的静态方法org.apache.hadoop.record.Utils
-
Get the encoded length if an integer is stored in a variable-length format
- getVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxMemoryCalculatorPlugin
-
已过时。
Obtain the total size of the virtual memory present in the system.
- getVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Obtain the total size of the virtual memory present in the system.
- getVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.MemoryCalculatorPlugin
-
已过时。
Obtain the total size of the virtual memory present in the system.
- getVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain the total size of the virtual memory present in the system.
- getVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin.ProcResourceValues
-
Obtain the virtual memory size used by a current process tree.
- getVirtualMemoryUsage() - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Get the virtual memory usage.
- getVisibleLength() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSDataInputStream
-
- getVisibleLength(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- getVisibleLength(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns the specified block's visible length (has metadata for this)
- getVIVersion() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getVolumeInfo() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Returned information is a JSON representation of a map with
volume name as the key and value is a map of volume attribute
keys to its values
- getVolumeInfo() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
-
Gets the information of each volume on the Datanode.
- getWaitingJobList() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
- getWaitingJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
- getWarn() - 类 中的静态方法org.apache.hadoop.log.metrics.EventCounter
-
- getWarningText(FSNamesystem) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- getWebAppsPath() - 类 中的方法org.apache.hadoop.http.HttpServer
-
Get the pathname to the webapps files.
- getWeight() - 类 中的方法org.apache.hadoop.util.bloom.Key
-
- getWithWildcardGS() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- getWorkflowAdjacencies(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Get the workflow adjacencies from the job conf
The string returned is of the form "key"="value" "key"="value" ...
- getWorkflowAdjacencies() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the workflow adjacencies
- getWorkflowId() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the workflow Id
- getWorkflowName() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the workflow name
- getWorkflowNodeName() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the workflow node name
- getWorkflowTags() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the workflow tags
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Get the current working directory for the given file system
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Get the current working directory for the given file system
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
-
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
return the top level archive.
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the current working directory for the default file system.
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the current working directory for the default file system.
- getWorkingDirectory(Job) - 类 中的静态方法org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
-
Getter for the working directory.
- getWorkOutputPath(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
Get the
Path
to the task's temporary output directory
for the map-reduce job
Tasks' Side-Effect Files
Note: The following is valid only if the OutputCommitter
is FileOutputCommitter
.
- getWorkOutputPath(TaskInputOutputContext<?, ?, ?, ?>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Get the
Path
to the task's temporary output directory
for the map-reduce job
Tasks' Side-Effect Files
Some applications need to create/write-to side-files, which differ from
the actual job-outputs.
- getWorkPath() - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
-
Get the directory that the task should write results into
- getWrappedStream() - 类 中的方法org.apache.hadoop.fs.FSDataOutputStream
-
- getWriteOps() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Get the number of file system write operations such as create, append
rename etc.
- getXceiverCount() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
number of active connections
- getXceiverCount() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Number of concurrent xceivers per node.
- getXceiverCount() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
-
Returns an estimate of the number of Datanode threads
actively transferring blocks.
- getZlibCompressor(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
-
Return the appropriate implementation of the zlib compressor.
- getZlibCompressorType(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
-
Return the appropriate type of the zlib compressor.
- getZlibDecompressor(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
-
Return the appropriate implementation of the zlib decompressor.
- getZlibDecompressorType(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
-
Return the appropriate type of the zlib decompressor.
- GlobbedCopyListing - org.apache.hadoop.tools.distcp2中的类
-
GlobbedCopyListing implements the CopyListing interface, to create the copy
listing-file by "globbing" all specified source paths (wild-cards and all.)
- GlobbedCopyListing(Configuration, Credentials) - 类 的构造器org.apache.hadoop.tools.distcp2.GlobbedCopyListing
-
Constructor, to initialize the configuration.
- GlobFilter - org.apache.hadoop.metrics2.filter中的类
-
A glob pattern filter for metrics
- GlobFilter() - 类 的构造器org.apache.hadoop.metrics2.filter.GlobFilter
-
- GlobPattern - org.apache.hadoop.fs中的类
-
A class for POSIX glob pattern with brace expansions.
- GlobPattern(String) - 类 的构造器org.apache.hadoop.fs.GlobPattern
-
Construct the glob pattern object with a glob pattern string
- globStatus(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Return all the files that match filePattern and are not checksum
files.
- globStatus(Path, PathFilter) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Return an array of FileStatus objects whose path names match pathPattern
and is accepted by the user-supplied path filter.
- go() - 类 中的方法org.apache.hadoop.hdfs.tools.offlineImageViewer.OfflineImageViewer
-
Process image file.
- go() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
已过时。
use
StreamJob.run(String[])
instead.
- goodClassOrNull(Configuration, String, String) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
It may seem strange to silently switch behaviour when a String
is not a classname; the reason is simplified Usage:
-mapper [classname | program ]
instead of the explicit Usage:
[-mapper program | -javamapper classname], -mapper and -javamapper are mutually exclusive.
- GRANDFATHER_GENERATION_STAMP - 类 中的静态变量org.apache.hadoop.hdfs.protocol.Block
-
- graylistedTaskTrackers() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Get the statuses of the graylisted task trackers in the cluster.
- GREATER_ICOST - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
This constant is accessible by subclasses for historical purposes.
- Grep - org.apache.hadoop.examples中的类
-
- GroupParam - org.apache.hadoop.hdfs.web.resources中的类
-
Group parameter.
- GroupParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.GroupParam
-
Constructor.
- Groups - org.apache.hadoop.security中的类
-
A user-to-groups mapping service.
- Groups(Configuration) - 类 的构造器org.apache.hadoop.security.Groups
-
- groups - 类 中的变量org.apache.hadoop.tools.rumen.JhCounters
-
- GSet<K,E extends K> - org.apache.hadoop.hdfs.util中的接口
-
A
GSet
is set,
which supports the GSet.get(Object)
operation.
- GSetByHashMap<K,E extends K> - org.apache.hadoop.hdfs.util中的类
-
- GSetByHashMap(int, float) - 类 的构造器org.apache.hadoop.hdfs.util.GSetByHashMap
-
- GT_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- GzipCodec - org.apache.hadoop.io.compress中的类
-
This class creates gzip compressors/decompressors.
- GzipCodec() - 类 的构造器org.apache.hadoop.io.compress.GzipCodec
-
- GzipCodec.GzipOutputStream - org.apache.hadoop.io.compress中的类
-
A bridge that wraps around a DeflaterOutputStream to make it
a CompressionOutputStream.
- GzipCodec.GzipOutputStream(OutputStream) - 类 的构造器org.apache.hadoop.io.compress.GzipCodec.GzipOutputStream
-
- GzipCodec.GzipOutputStream(CompressorStream) - 类 的构造器org.apache.hadoop.io.compress.GzipCodec.GzipOutputStream
-
Allow children types to put a different type in here.
H
- Hadoop20JHParser - org.apache.hadoop.tools.rumen中的类
-
JobHistoryParser
to parse job histories for hadoop 0.20 (META=1).
- Hadoop20JHParser(InputStream) - 类 的构造器org.apache.hadoop.tools.rumen.Hadoop20JHParser
-
- Hadoop20JHParser(LineReader) - 类 的构造器org.apache.hadoop.tools.rumen.Hadoop20JHParser
-
- HADOOP_JETTY_LOGS_SERVE_ALIASES - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
Enable/Disable aliases serving from jetty
- HADOOP_RELAXED_VERSION_CHECK_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
- HADOOP_RELAXED_VERSION_CHECK_KEY - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
See src/core/core-default.xml
- HADOOP_SECURITY_AUTHENTICATION - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
See src/core/core-default.xml
- HADOOP_SECURITY_AUTHORIZATION - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
See src/core/core-default.xml
- HADOOP_SECURITY_GROUP_MAPPING - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
See src/core/core-default.xml
- HADOOP_SECURITY_INSTRUMENTATION_REQUIRES_ADMIN - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
See src/core/core-default.xml
- HADOOP_SECURITY_SERVICE_USER_NAME_KEY - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
See src/core/core-default.xml
- HADOOP_SECURITY_TOKEN_SERVICE_USE_IP - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
See src/core/core-default.xml
- HADOOP_SECURITY_TOKEN_SERVICE_USE_IP_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
- HADOOP_SECURITY_USE_WEAK_HTTP_CRYPTO_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
- HADOOP_SECURITY_USE_WEAK_HTTP_CRYPTO_KEY - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
- HADOOP_SKIP_VERSION_CHECK_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
- HADOOP_SKIP_VERSION_CHECK_KEY - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
See src/core/core-default.xml
- HADOOP_TOKEN_FILE_LOCATION - 类 中的静态变量org.apache.hadoop.security.UserGroupInformation
-
Environment variable pointing to the token cache file
- HadoopArchives - org.apache.hadoop.tools中的类
-
a archive creation utility.
- HadoopArchives(Configuration) - 类 的构造器org.apache.hadoop.tools.HadoopArchives
-
- HadoopLogsAnalyzer - org.apache.hadoop.tools.rumen中的类
-
已过时。
- HadoopLogsAnalyzer() - 类 的构造器org.apache.hadoop.tools.rumen.HadoopLogsAnalyzer
-
已过时。
- HadoopStreaming - org.apache.hadoop.streaming中的类
-
The main entrypoint.
- HadoopStreaming() - 类 的构造器org.apache.hadoop.streaming.HadoopStreaming
-
- HadoopVersionAnnotation - org.apache.hadoop中的注释类型
-
A package attribute that captures the version of Hadoop that was compiled.
- halfDigest() - 类 中的方法org.apache.hadoop.io.MD5Hash
-
Construct a half-sized version of this MD5.
- handle(Map<JobHistory.Keys, String>) - 类 中的方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
- handle(JobHistory.RecordTypes, Map<JobHistory.Keys, String>) - 接口 中的方法org.apache.hadoop.mapred.JobHistory.Listener
-
Callback method for history parser.
- handle(Callback[]) - 类 中的方法org.apache.hadoop.security.SaslRpcServer.SaslDigestCallbackHandler
- handle(Callback[]) - 类 中的方法org.apache.hadoop.security.SaslRpcServer.SaslGssCallbackHandler
- handleKind(Text) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.Renewer
-
- handleKind(Text) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem.TokenManager
-
- handleKind(Text) - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem.TokenManager
-
- handleKind(Text) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem.DtRenewer
-
- handleKind(Text) - 类 中的方法org.apache.hadoop.mapred.JobClient.Renewer
-
- handleKind(Text) - 类 中的方法org.apache.hadoop.security.token.Token.TrivialRenewer
-
- handleKind(Text) - 类 中的方法org.apache.hadoop.security.token.TokenRenewer
-
Does this renewer handle this kind of token?
- HardLink - org.apache.hadoop.fs中的类
-
Class for creating hardlinks.
- HardLink() - 类 的构造器org.apache.hadoop.fs.HardLink
-
- HardLink.LinkStats - org.apache.hadoop.fs中的类
-
HardLink statistics counters and methods.
- HardLink.LinkStats() - 类 的构造器org.apache.hadoop.fs.HardLink.LinkStats
-
- HardLink.OSType - org.apache.hadoop.fs中的枚举
-
- HarFileSystem - org.apache.hadoop.fs中的类
-
This is an implementation of the Hadoop Archive
Filesystem.
- HarFileSystem() - 类 的构造器org.apache.hadoop.fs.HarFileSystem
-
public construction of harfilesystem
- HarFileSystem(FileSystem) - 类 的构造器org.apache.hadoop.fs.HarFileSystem
-
Constructor to create a HarFileSystem with an
underlying filesystem.
- has(int) - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
-
Return true if tuple has an element at the position provided.
- hasAdministratorAccess(ServletContext, HttpServletRequest, HttpServletResponse) - 类 中的静态方法org.apache.hadoop.http.HttpServer
-
Does the user sending the HttpServletRequest has the administrator ACLs?
- hasChildren() - 类 中的方法org.apache.hadoop.tools.rumen.Node
-
Does this node have any children?
- hasEnoughResource() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Return true - if there are still valid volumes on the DataNode.
- hasEnoughResource() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
checks how many valid storage volumes are there in the DataNode
- HasFileDescriptor - org.apache.hadoop.fs中的接口
-
Having a FileDescriptor
- hash - 类 中的变量org.apache.hadoop.util.bloom.Filter
-
The hash function used to map a key to several positions in the vector.
- hash(Key) - 类 中的方法org.apache.hadoop.util.bloom.HashFunction
-
Hashes a specified key into several integers.
- Hash - org.apache.hadoop.util.hash中的类
-
This class represents a common API for hashing functions.
- Hash() - 类 的构造器org.apache.hadoop.util.hash.Hash
-
- hash(byte[]) - 类 中的方法org.apache.hadoop.util.hash.Hash
-
Calculate a hash using all bytes from the input argument, and
a seed of -1.
- hash(byte[], int) - 类 中的方法org.apache.hadoop.util.hash.Hash
-
Calculate a hash using all bytes from the input argument,
and a provided seed value.
- hash(byte[], int, int) - 类 中的方法org.apache.hadoop.util.hash.Hash
-
Calculate a hash using bytes from 0 to
length
, and
the provided seed value
- hash(byte[], int, int) - 类 中的方法org.apache.hadoop.util.hash.JenkinsHash
-
taken from hashlittle() -- hash a variable-length key into a 32-bit value
- hash(byte[], int, int) - 类 中的方法org.apache.hadoop.util.hash.MurmurHash
-
- HASH_COUNT - 类 中的静态变量org.apache.hadoop.io.BloomMapFile
-
- hashBytes(byte[], int, int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Compute hash for binary data.
- hashBytes(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Compute hash for binary data.
- hashCode() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentID
-
- hashCode() - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
-
- hashCode() - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.WordOffset
-
- hashCode() - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
-
- hashCode() - 类 中的方法org.apache.hadoop.fs.FileChecksum
- hashCode() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Returns a hash code value for the object, which is defined as
the hash code of the path name.
- hashCode() - 类 中的方法org.apache.hadoop.fs.Path
-
- hashCode() - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
- hashCode() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
- hashCode() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
- hashCode() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
- hashCode() - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
- hashCode() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeObject
-
- hashCode() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CheckpointSignature
-
- hashCode() - 类 中的方法org.apache.hadoop.hdfs.util.ByteArray
-
- hashCode() - 类 中的方法org.apache.hadoop.io.BinaryComparable
-
Return a hash of the bytes returned from {#getBytes()}.
- hashCode() - 类 中的方法org.apache.hadoop.io.BooleanWritable
-
- hashCode() - 类 中的方法org.apache.hadoop.io.BytesWritable
-
- hashCode() - 类 中的方法org.apache.hadoop.io.ByteWritable
-
- hashCode() - 类 中的方法org.apache.hadoop.io.DoubleWritable
-
- hashCode() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
- hashCode() - 类 中的方法org.apache.hadoop.io.file.tfile.Utils.Version
-
- hashCode() - 类 中的方法org.apache.hadoop.io.FloatWritable
-
- hashCode() - 类 中的方法org.apache.hadoop.io.IntWritable
-
- hashCode() - 类 中的方法org.apache.hadoop.io.LongWritable
-
- hashCode() - 类 中的方法org.apache.hadoop.io.MD5Hash
-
Returns a hash code value for this object.
- hashCode() - 类 中的方法org.apache.hadoop.io.NullWritable
-
- hashCode() - 类 中的方法org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry
-
- hashCode() - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
-
- hashCode() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
-
- hashCode() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
-
- hashCode() - 类 中的方法org.apache.hadoop.io.Text
-
- hashCode() - 类 中的方法org.apache.hadoop.io.UTF8
-
已过时。
- hashCode() - 类 中的方法org.apache.hadoop.io.VIntWritable
-
- hashCode() - 类 中的方法org.apache.hadoop.io.VLongWritable
-
- hashCode() - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
- hashCode() - 类 中的方法org.apache.hadoop.mapred.Counters
-
- hashCode() - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
-
- hashCode() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
-
- hashCode(byte[], int, int, int) - 类 中的方法org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner
-
- hashCode() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
- hashCode() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
- hashCode() - 类 中的方法org.apache.hadoop.mapreduce.Counter
-
- hashCode() - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
-
- hashCode() - 类 中的方法org.apache.hadoop.mapreduce.Counters
-
- hashCode() - 类 中的方法org.apache.hadoop.mapreduce.ID
-
- hashCode() - 类 中的方法org.apache.hadoop.mapreduce.JobID
-
- hashCode(byte[], int, int, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
-
- hashCode() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
-
- hashCode() - 类 中的方法org.apache.hadoop.mapreduce.TaskID
-
- hashCode() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsRecordImpl
-
- hashCode() - 类 中的方法org.apache.hadoop.metrics2.Metric
-
- hashCode() - 类 中的方法org.apache.hadoop.metrics2.MetricsTag
-
- hashCode() - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
-
- hashCode() - 类 中的方法org.apache.hadoop.net.StandardSocketFactory
-
- hashCode() - 类 中的方法org.apache.hadoop.record.Buffer
-
- hashCode() - 类 中的方法org.apache.hadoop.record.meta.FieldTypeInfo
-
We use a basic hashcode implementation, since this class will likely not
be used as a hashmap key
- hashCode() - 类 中的方法org.apache.hadoop.record.meta.MapTypeID
-
We use a basic hashcode implementation, since this class will likely not
be used as a hashmap key
- hashCode() - 类 中的方法org.apache.hadoop.record.meta.TypeID
-
We use a basic hashcode implementation, since this class will likely not
be used as a hashmap key
- hashCode() - 类 中的方法org.apache.hadoop.record.meta.VectorTypeID
-
We use a basic hashcode implementation, since this class will likely not
be used as a hashmap key
- hashCode() - 类 中的方法org.apache.hadoop.security.authentication.client.AuthenticatedURL.Token
-
Return the hashcode for the token.
- hashCode() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
- hashCode() - 类 中的方法org.apache.hadoop.security.token.Token
-
- hashCode() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Return the hash of the subject.
- hashCode() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
-
- hashCode() - 类 中的方法org.apache.hadoop.tools.rumen.Node
-
- hashCode() - 类 中的方法org.apache.hadoop.util.bloom.Key
-
- hashFromString(String, SecretKey) - 类 中的静态方法org.apache.hadoop.mapreduce.security.SecureShuffleUtils
-
Aux util to calculate hash of a String
- HashFunction - org.apache.hadoop.util.bloom中的类
-
Implements a hash object that returns a certain number of hashed values.
- HashFunction(int, int, int) - 类 的构造器org.apache.hadoop.util.bloom.HashFunction
-
Constructor.
- HashingDistributionPolicy - org.apache.hadoop.contrib.index.example中的类
-
Choose a shard for each insert or delete based on document id hashing.
- HashingDistributionPolicy() - 类 的构造器org.apache.hadoop.contrib.index.example.HashingDistributionPolicy
-
- HashPartitioner<K2,V2> - org.apache.hadoop.mapred.lib中的类
-
Partition keys by their
Object.hashCode()
.
- HashPartitioner() - 类 的构造器org.apache.hadoop.mapred.lib.HashPartitioner
-
- HashPartitioner<K,V> - org.apache.hadoop.mapreduce.lib.partition中的类
-
Partition keys by their
Object.hashCode()
.
- HashPartitioner() - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.HashPartitioner
-
- hashType - 类 中的变量org.apache.hadoop.util.bloom.Filter
-
Type of hashing function to use.
- hasKerberosCredentials() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
checks if logged in using kerberos
- hasMore() - 类 中的方法org.apache.hadoop.hdfs.protocol.DirectoryListing
-
Check if there are more entries that are left to be listed
- hasNext() - 类 中的方法org.apache.hadoop.contrib.utils.join.ArrayListBackedIterator
-
- hasNext() - 类 中的方法org.apache.hadoop.mapred.join.ArrayListBackedIterator
-
- hasNext() - 接口 中的方法org.apache.hadoop.mapred.join.ComposableRecordReader
-
Returns true if the stream is not empty, but provides no guarantee that
a call to next(K,V) will succeed.
- hasNext() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Return true if it is possible that this could emit more values.
- hasNext() - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader.JoinDelegationIterator
-
- hasNext() - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader.MultiFilterDelegationIterator
-
- hasNext() - 类 中的方法org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
-
- hasNext() - 接口 中的方法org.apache.hadoop.mapred.join.ResetableIterator
-
True if a call to next may return a value.
- hasNext() - 类 中的方法org.apache.hadoop.mapred.join.StreamBackedIterator
-
- hasNext() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
-
Return true if the RR- including the k,v pair stored in this object-
is exhausted.
- hasNext() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext.ValueIterator
-
- hasNext() - 类 中的方法org.apache.hadoop.metrics2.util.TryIterator
-
- hasRecovered() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Whether the JT has recovered upon restart
- hasRestarted() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Whether the JT has restarted
- hasSimpleInputSpecs_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- hasWildcard() - 类 中的方法org.apache.hadoop.fs.GlobPattern
-
- hbMakeCodeLengths(char[], int[], int, int) - 类 中的静态方法org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
This method is accessible by subclasses for historical purposes.
- HDFS_DELEGATION_KIND - 类 中的静态变量org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenIdentifier
-
- HDFSConcat - org.apache.hadoop.hdfs.tools中的类
-
- HDFSConcat() - 类 的构造器org.apache.hadoop.hdfs.tools.HDFSConcat
-
- HdfsConstants - org.apache.hadoop.hdfs.server.common中的接口
-
Some handy internal HDFS constants
- HdfsConstants.NodeType - org.apache.hadoop.hdfs.server.common中的枚举
-
Type of the node
- HdfsConstants.StartupOption - org.apache.hadoop.hdfs.server.common中的枚举
-
- HdfsFileStatus - org.apache.hadoop.hdfs.protocol中的类
-
Interface that represents the over the wire information for a file.
- HdfsFileStatus() - 类 的构造器org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
default constructor
- HdfsFileStatus(long, boolean, int, long, long, long, FsPermission, String, String, byte[]) - 类 的构造器org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Constructor
- HDFSMonitorThread - org.apache.hadoop.mapred中的类
-
- HDFSMonitorThread(Configuration, JobTracker, FileSystem) - 类 的构造器org.apache.hadoop.mapred.HDFSMonitorThread
-
- HDFSPolicyProvider - org.apache.hadoop.hdfs中的类
-
PolicyProvider
for HDFS protocols.
- HDFSPolicyProvider() - 类 的构造器org.apache.hadoop.hdfs.HDFSPolicyProvider
-
- HEADER - 类 中的静态变量org.apache.hadoop.ipc.Server
-
The first four bytes of Hadoop RPC connections
- HEADER_LEN - 类 中的静态变量org.apache.hadoop.util.DataChecksum
-
- headMap(WritableComparable) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- HEALTHY_STATUS - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.NamenodeFsck
-
- HeapSort - org.apache.hadoop.util中的类
-
An implementation of the core algorithm of HeapSort.
- HeapSort() - 类 的构造器org.apache.hadoop.util.HeapSort
-
- heartbeat(TaskTrackerStatus, boolean, boolean, boolean, short) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
The periodic heartbeat mechanism between the
TaskTracker
and
the JobTracker
.
- HEARTBEAT_INTERVAL - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
-
- height - 类 中的变量org.apache.hadoop.examples.dancing.Pentomino
-
- height - 类 中的静态变量org.apache.hadoop.mapred.TaskGraphServlet
-
height of the graph w/o margins
- hexchars - 类 中的静态变量org.apache.hadoop.record.Utils
-
- hexStringToByte(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Given a hexstring this will return the byte array corresponding to the
string
- HFTP_DATE_FORMAT - 类 中的静态变量org.apache.hadoop.hdfs.HftpFileSystem
-
- HFTP_TIMEZONE - 类 中的静态变量org.apache.hadoop.hdfs.HftpFileSystem
-
- HftpFileSystem - org.apache.hadoop.hdfs中的类
-
An implementation of a protocol for accessing filesystems over HTTP.
- HftpFileSystem() - 类 的构造器org.apache.hadoop.hdfs.HftpFileSystem
-
- HftpFileSystem.TokenManager - org.apache.hadoop.hdfs中的类
-
- HftpFileSystem.TokenManager() - 类 的构造器org.apache.hadoop.hdfs.HftpFileSystem.TokenManager
-
- HistoryEvent - org.apache.hadoop.tools.rumen中的接口
-
- hostName - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
HostName as suplied by the datanode during registration as its
name.
- HOSTNAME_PATTERN - 类 中的静态变量org.apache.hadoop.security.SecurityUtil
-
- HostsFileReader - org.apache.hadoop.util中的类
-
- HostsFileReader(String, String) - 类 的构造器org.apache.hadoop.util.HostsFileReader
-
- HsftpFileSystem - org.apache.hadoop.hdfs中的类
-
An implementation of a protocol for accessing filesystems over HTTPS.
- HsftpFileSystem() - 类 的构造器org.apache.hadoop.hdfs.HsftpFileSystem
-
- HsftpFileSystem.DummyHostnameVerifier - org.apache.hadoop.hdfs中的类
-
Dummy hostname verifier that is used to bypass hostname checking
- HsftpFileSystem.DummyHostnameVerifier() - 类 的构造器org.apache.hadoop.hdfs.HsftpFileSystem.DummyHostnameVerifier
-
- HsftpFileSystem.TokenManager - org.apache.hadoop.hdfs中的类
-
- HsftpFileSystem.TokenManager() - 类 的构造器org.apache.hadoop.hdfs.HsftpFileSystem.TokenManager
-
- HTML_TAIL - 类 中的静态变量org.apache.hadoop.util.ServletUtil
-
- htmlFooter() - 类 中的静态方法org.apache.hadoop.util.ServletUtil
-
HTML footer to be added in the jsps.
- HtmlQuoting - org.apache.hadoop.http中的类
-
This class is responsible for quoting HTML characters.
- HtmlQuoting() - 类 的构造器org.apache.hadoop.http.HtmlQuoting
-
- HTTP_HEADER_REPLY_URL_HASH - 类 中的静态变量org.apache.hadoop.mapreduce.security.SecureShuffleUtils
-
- HTTP_HEADER_URL_HASH - 类 中的静态变量org.apache.hadoop.mapreduce.security.SecureShuffleUtils
-
- HttpOpParam<E extends Enum<E> & HttpOpParam.Op> - org.apache.hadoop.hdfs.web.resources中的类
-
Http operation parameter.
- HttpOpParam.Op - org.apache.hadoop.hdfs.web.resources中的接口
-
Http operation interface.
- HttpOpParam.TemporaryRedirectOp - org.apache.hadoop.hdfs.web.resources中的类
-
Expects HTTP response 307 "Temporary Redirect".
- HttpOpParam.Type - org.apache.hadoop.hdfs.web.resources中的枚举
-
Http operation types
- HttpServer - org.apache.hadoop.http中的类
-
Create a Jetty embedded server to answer http requests.
- HttpServer(String, String, int, boolean) - 类 的构造器org.apache.hadoop.http.HttpServer
-
Same as this(name, bindAddress, port, findPort, null);
- HttpServer(String, String, int, boolean, Configuration) - 类 的构造器org.apache.hadoop.http.HttpServer
-
- HttpServer(String, String, int, boolean, Configuration, Connector) - 类 的构造器org.apache.hadoop.http.HttpServer
-
- HttpServer(String, String, int, boolean, Configuration, AccessControlList) - 类 的构造器org.apache.hadoop.http.HttpServer
-
Create a status server on the given port.
- HttpServer(String, String, int, boolean, Configuration, AccessControlList, Connector) - 类 的构造器org.apache.hadoop.http.HttpServer
-
- HttpServer.QuotingInputFilter - org.apache.hadoop.http中的类
-
A Servlet input filter that quotes all HTML active characters in the
parameter names and values.
- HttpServer.QuotingInputFilter() - 类 的构造器org.apache.hadoop.http.HttpServer.QuotingInputFilter
-
- HttpServer.QuotingInputFilter.RequestQuoter - org.apache.hadoop.http中的类
-
- HttpServer.QuotingInputFilter.RequestQuoter(HttpServletRequest) - 类 的构造器org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
-
- HttpServer.StackServlet - org.apache.hadoop.http中的类
-
A very simple servlet to serve up a text representation of the current
stack traces.
- HttpServer.StackServlet() - 类 的构造器org.apache.hadoop.http.HttpServer.StackServlet
-
- humanReadableInt(long) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Given an integer, return a string that is in an approximate, but human
readable format.
I
- ID - org.apache.hadoop.mapred中的类
-
A general identifier, which internally stores the id
as an integer.
- ID(int) - 类 的构造器org.apache.hadoop.mapred.ID
-
constructs an ID object from the given int
- ID() - 类 的构造器org.apache.hadoop.mapred.ID
-
- id() - 接口 中的方法org.apache.hadoop.mapred.join.ComposableRecordReader
-
Return the position in the collector this class occupies.
- id() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Return the position in the collector this class occupies.
- id - 类 中的变量org.apache.hadoop.mapred.join.Parser.Node
-
- id() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
-
Return the position in the collector this class occupies.
- ID - org.apache.hadoop.mapreduce中的类
-
A general identifier, which internally stores the id
as an integer.
- ID(int) - 类 的构造器org.apache.hadoop.mapreduce.ID
-
constructs an ID object from the given int
- ID() - 类 的构造器org.apache.hadoop.mapreduce.ID
-
- id - 类 中的变量org.apache.hadoop.mapreduce.ID
-
- ident - 类 中的变量org.apache.hadoop.mapred.join.Parser.Node
-
- IDENT_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- IdentifierResolver - org.apache.hadoop.streaming.io中的类
-
This class is used to resolve a string identifier into the required IO
classes.
- IdentifierResolver() - 类 的构造器org.apache.hadoop.streaming.io.IdentifierResolver
-
- IdentityLocalAnalysis - org.apache.hadoop.contrib.index.example中的类
-
Identity local analysis maps inputs directly into outputs.
- IdentityLocalAnalysis() - 类 的构造器org.apache.hadoop.contrib.index.example.IdentityLocalAnalysis
-
- IdentityMapper<K,V> - org.apache.hadoop.mapred.lib中的类
-
Implements the identity function, mapping inputs directly to outputs.
- IdentityMapper() - 类 的构造器org.apache.hadoop.mapred.lib.IdentityMapper
-
- IdentityReducer<K,V> - org.apache.hadoop.mapred.lib中的类
-
Performs no reduction, writing all input values directly to the output.
- IdentityReducer() - 类 的构造器org.apache.hadoop.mapred.lib.IdentityReducer
-
- idFormat - 类 中的静态变量org.apache.hadoop.mapreduce.JobID
-
- idFormat - 类 中的静态变量org.apache.hadoop.mapreduce.TaskID
-
- IDistributionPolicy - org.apache.hadoop.contrib.index.mapred中的接口
-
A distribution policy decides, given a document with a document id, which
one shard the request should be sent to if the request is an insert, and
which shard(s) the request should be sent to if the request is a delete.
- idWithinJob() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
- idx - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
- idx - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
- ifExists(String, Configuration) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
-
We search through all the configured dirs for the file's existence
and return true when we find
- ifmt(double) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- IIndexUpdater - org.apache.hadoop.contrib.index.mapred中的接口
-
A class implements an index updater interface should create a Map/Reduce job
configuration and run the Map/Reduce job to analyze documents and update
Lucene instances in parallel.
- ILLEGAL_ARGS - 类 中的静态变量org.apache.hadoop.hdfs.server.balancer.Balancer
-
- ILocalAnalysis<K extends WritableComparable,V extends Writable> - org.apache.hadoop.contrib.index.mapred中的接口
-
Application specific local analysis.
- image - 类 中的变量org.apache.hadoop.record.compiler.generated.Token
-
The string image of the token.
- implies(FsAction) - 枚举 中的方法org.apache.hadoop.fs.permission.FsAction
-
Return true if this action implies that action.
- in - 类 中的变量org.apache.hadoop.hdfs.ByteRangeInputStream
-
- in - 类 中的变量org.apache.hadoop.io.compress.CompressionInputStream
-
The input stream to be compressed.
- inBuf - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- inc(int) - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingInt
-
已过时。
Inc metrics for incr vlaue
- inc() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingInt
-
已过时。
Inc metrics by one
- inc(long) - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingLong
-
已过时。
Inc metrics for incr vlaue
- inc() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingLong
-
已过时。
Inc metrics by one
- inc(int, long) - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
-
已过时。
Increment the metrics for numOps operations
- inc(long) - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
-
已过时。
Increment the metrics for one operation
- incDfsUsed(long) - 类 中的方法org.apache.hadoop.fs.DU
-
Increase how much disk space we use.
- incLevel() - 类 中的方法org.apache.hadoop.hdfs.tools.offlineImageViewer.DepthCounter
-
- Include() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- INCLUDE_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- InconsistentFSStateException - org.apache.hadoop.hdfs.server.common中的异常错误
-
The exception is thrown when file system state is inconsistent
and is not recoverable.
- InconsistentFSStateException(File, String) - 异常错误 的构造器org.apache.hadoop.hdfs.server.common.InconsistentFSStateException
-
- InconsistentFSStateException(File, String, Throwable) - 异常错误 的构造器org.apache.hadoop.hdfs.server.common.InconsistentFSStateException
-
- incorporateCounters(JhCounters) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- incorporateCounters(JhCounters) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- incorporateCounters(JhCounters) - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTask
-
- incorporateCounters(JhCounters) - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTaskAttempt
-
incorporate event counters
- IncorrectVersionException - org.apache.hadoop.hdfs.server.common中的异常错误
-
The exception is thrown when external version does not match
current version of the appication.
- IncorrectVersionException(int, String) - 异常错误 的构造器org.apache.hadoop.hdfs.server.common.IncorrectVersionException
-
- IncorrectVersionException(int, String, int) - 异常错误 的构造器org.apache.hadoop.hdfs.server.common.IncorrectVersionException
-
- incr() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableCounter
-
Increment the metric value by 1.
- incr() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableCounterInt
-
- incr(int) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableCounterInt
-
Increment the value by a delta
- incr() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableCounterLong
-
- incr(long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableCounterLong
-
Increment the value by a delta
- incr() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGauge
-
Increment the value of the metric by 1
- incr() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeInt
-
- incr(int) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeInt
-
Increment by delta
- incr() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeLong
-
- incr(long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeLong
-
Increment by delta
- incr(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Increment a metric by name.
- incr(String, MetricMutableFactory) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Increment a metric by name.
- incr() - 接口 中的方法org.apache.hadoop.record.Index
-
- incrAllCounters(Counters) - 类 中的方法org.apache.hadoop.mapred.Counters
-
Increments multiple counters by their amounts in another Counters
instance.
- incrAllCounters(CounterGroup) - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
-
- incrAllCounters(Counters) - 类 中的方法org.apache.hadoop.mapreduce.Counters
-
Increments multiple counters by their amounts in another Counters
instance.
- incrAuthenticationFailures() - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
-
One authentication failure event
- incrAuthenticationSuccesses() - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
-
One authentication success event
- incrAuthorizationFailures() - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
-
One authorization failure event
- incrAuthorizationSuccesses() - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
-
One authorization success event
- incrBlocksGetLocalPathInfo() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- incrBlocksRead() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- incrBlocksRemoved(int) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- incrBlocksReplicated(int) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- incrBlocksVerified() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- incrBlocksWritten() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- incrBlockVerificationFailures() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- incrBytesRead(int) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- incrBytesWritten(int) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- incrCounter(Enum, long) - 类 中的方法org.apache.hadoop.mapred.Counters
-
Increments the specified counter by the specified amount, creating it if
it didn't already exist.
- incrCounter(String, String, long) - 类 中的方法org.apache.hadoop.mapred.Counters
-
Increments the specified counter by the specified amount, creating it if
it didn't already exist.
- incrCounter(Enum<?>, long) - 接口 中的方法org.apache.hadoop.mapred.Reporter
-
Increments the counter identified by the key, which can be of
any
Enum
type, by the specified amount.
- incrCounter(String, String, long) - 接口 中的方法org.apache.hadoop.mapred.Reporter
-
Increments the counter identified by the group and counter name
by the specified amount.
- incrCounter(Enum, long) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- incrCounter(String, String, long) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- increment(long) - 类 中的方法org.apache.hadoop.mapreduce.Counter
-
Increment this counter by the given value
- INCREMENT - 类 中的静态变量org.apache.hadoop.metrics.spi.MetricValue
-
已过时。
- incrementBytesRead(long) - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Increment the bytes read in the statistics
- incrementBytesWritten(long) - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Increment the bytes written in the statistics
- incrementLargeReadOps(int) - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Increment the number of large read operations
- incrementReadOps(int) - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Increment the number of read operations
- incrementWeight(double) - 类 中的方法org.apache.hadoop.util.bloom.Key
-
Increments the weight of this key with a specified value.
- incrementWeight() - 类 中的方法org.apache.hadoop.util.bloom.Key
-
Increments the weight of this key by one.
- incrementWriteOps(int) - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Increment the number of write operations
- incrFilesDeleted(int) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- incrMetric(String, int) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Increments the named metric by the specified value.
- incrMetric(String, long) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Increments the named metric by the specified value.
- incrMetric(String, short) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Increments the named metric by the specified value.
- incrMetric(String, byte) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Increments the named metric by the specified value.
- incrMetric(String, float) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Increments the named metric by the specified value.
- incrMetric(String, int) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Increments the named metric by the specified value.
- incrMetric(String, long) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Increments the named metric by the specified value.
- incrMetric(String, short) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Increments the named metric by the specified value.
- incrMetric(String, byte) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Increments the named metric by the specified value.
- incrMetric(String, float) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Increments the named metric by the specified value.
- incrNumAddBlockOps() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- incrNumCreateFileOps() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- incrNumDeleteFileOps() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- incrNumFileInfoOps() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- incrNumFilesAppended() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- incrNumFilesCreated() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- incrNumFilesInGetListingOps(int) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- incrNumFilesRenamed() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- incrNumGetBlockLocations() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- incrNumGetListingOps() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- incrReadsFromLocalClient() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- incrReadsFromRemoteClient() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- incrReceivedBytes(int) - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
-
Increment received bytes by count
- incrSentBytes(int) - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
-
Increment sent bytes by count
- incrTransactionsBatchedInSync() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- incrWritesFromLocalClient() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- incrWritesFromRemoteClient() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- Index - org.apache.hadoop.record中的接口
-
Interface that acts as an iterator for deserializing maps.
- INDEX_FILE_NAME - 类 中的静态变量org.apache.hadoop.io.MapFile
-
The name of the index file.
- IndexedSortable - org.apache.hadoop.util中的接口
-
Interface for collections capable of being sorted by
IndexedSorter
algorithms.
- IndexedSorter - org.apache.hadoop.util中的接口
-
Interface for sort algorithms accepting
IndexedSortable
items.
- IndexUpdateCombiner - org.apache.hadoop.contrib.index.mapred中的类
-
This combiner combines multiple intermediate forms into one intermediate
form.
- IndexUpdateCombiner() - 类 的构造器org.apache.hadoop.contrib.index.mapred.IndexUpdateCombiner
-
- IndexUpdateConfiguration - org.apache.hadoop.contrib.index.mapred中的类
-
This class provides the getters and the setters to a number of parameters.
- IndexUpdateConfiguration(Configuration) - 类 的构造器org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Constructor
- IndexUpdateMapper<K extends WritableComparable,V extends Writable> - org.apache.hadoop.contrib.index.mapred中的类
-
This class applies local analysis on a key-value pair and then convert the
result docid-operation pair to a shard-and-intermediate form pair.
- IndexUpdateMapper() - 类 的构造器org.apache.hadoop.contrib.index.mapred.IndexUpdateMapper
-
- IndexUpdateOutputFormat - org.apache.hadoop.contrib.index.mapred中的类
-
The record writer of this output format simply puts a message in an output
path when a shard update is done.
- IndexUpdateOutputFormat() - 类 的构造器org.apache.hadoop.contrib.index.mapred.IndexUpdateOutputFormat
-
- IndexUpdatePartitioner - org.apache.hadoop.contrib.index.mapred中的类
-
This partitioner class puts the values of the same key - in this case the
same shard - in the same partition.
- IndexUpdatePartitioner() - 类 的构造器org.apache.hadoop.contrib.index.mapred.IndexUpdatePartitioner
-
- IndexUpdater - org.apache.hadoop.contrib.index.mapred中的类
-
An implementation of an index updater interface which creates a Map/Reduce
job configuration and run the Map/Reduce job to analyze documents and update
Lucene instances in parallel.
- IndexUpdater() - 类 的构造器org.apache.hadoop.contrib.index.mapred.IndexUpdater
-
- IndexUpdateReducer - org.apache.hadoop.contrib.index.mapred中的类
-
This reducer applies to a shard the changes for it.
- IndexUpdateReducer() - 类 的构造器org.apache.hadoop.contrib.index.mapred.IndexUpdateReducer
-
- infoPort - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeID
-
- init(Shard[]) - 类 中的方法org.apache.hadoop.contrib.index.example.HashingDistributionPolicy
-
- init(Shard[]) - 类 中的方法org.apache.hadoop.contrib.index.example.RoundRobinDistributionPolicy
-
- init(Shard[]) - 接口 中的方法org.apache.hadoop.contrib.index.mapred.IDistributionPolicy
-
Initialization.
- init() - 类 中的方法org.apache.hadoop.fs.FsShell
-
- init(DaemonContext) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter
-
- init(FilterConfig) - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter
-
- init(FilterConfig) - 类 中的方法org.apache.hadoop.http.lib.StaticUserWebFilter.StaticUserFilter
-
- init() - 类 中的方法org.apache.hadoop.jmx.JMXJsonServlet
-
Initialize this servlet.
- init(JobConf) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Connect to the default
JobTracker
.
- init(JobTracker, JobConf, String, long) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory
-
Initialize JobHistory files.
- init(ServletConfig) - 类 中的方法org.apache.hadoop.mapred.RawHistoryFileServlet
-
- init(String, ContextFactory) - 类 中的方法org.apache.hadoop.metrics.file.FileContext
-
已过时。
- init(String, ContextFactory) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
-
已过时。
- init(String, ContextFactory) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext31
-
- init(String, String) - 类 中的静态方法org.apache.hadoop.metrics.jvm.JvmMetrics
-
已过时。
- init(String, String, String) - 类 中的静态方法org.apache.hadoop.metrics.jvm.JvmMetrics
-
已过时。
- init(String, ContextFactory) - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
-
已过时。
Initialize this context.
- init(String, ContextFactory) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Initializes the context.
- init(String, ContextFactory) - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
-
已过时。
- init(String, ContextFactory) - 类 中的方法org.apache.hadoop.metrics.spi.NoEmitMetricsContext
-
已过时。
- init(String, ContextFactory) - 类 中的方法org.apache.hadoop.metrics.spi.NullContextWithUpdateThread
-
已过时。
- init(String) - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
Initialized the metrics system with a prefix.
- init(SubsetConfiguration) - 类 中的方法org.apache.hadoop.metrics2.MetricsFilter
-
- init(SubsetConfiguration) - 接口 中的方法org.apache.hadoop.metrics2.MetricsPlugin
-
Initialize the plugin
- init(SubsetConfiguration) - 类 中的方法org.apache.hadoop.metrics2.sink.FileSink
-
- init(SubsetConfiguration) - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
-
- init(FilterConfig) - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Initializes the authentication filter.
- init(Properties) - 接口 中的方法org.apache.hadoop.security.authentication.server.AuthenticationHandler
-
Initializes the authentication handler instance.
- init(Properties) - 类 中的方法org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
-
Initializes the authentication handler instance.
- init(Properties) - 类 中的方法org.apache.hadoop.security.authentication.server.PseudoAuthenticationHandler
-
Initializes the authentication handler instance.
- init(FilterConfig) - 类 中的方法org.apache.hadoop.security.Krb5AndCertsSslSocketConnector.Krb5SslFilter
-
- init(Configuration) - 类 中的静态方法org.apache.hadoop.security.SaslRpcServer
-
- init() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- init() - 类 中的方法org.apache.hadoop.streaming.StreamXmlRecordReader
-
- init(Path, Configuration) - 类 中的方法org.apache.hadoop.tools.rumen.DefaultOutputter
-
- init(Path, Configuration) - 接口 中的方法org.apache.hadoop.tools.rumen.Outputter
-
Initialize the
Outputter
to a specific path.
- initDelegationToken() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- initDelegationToken() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- inited() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Check if the job has been initialized.
- initFilter(FilterContainer, Configuration) - 类 中的方法org.apache.hadoop.http.FilterInitializer
-
Initialize a Filter to a FilterContainer.
- initFilter(FilterContainer, Configuration) - 类 中的方法org.apache.hadoop.http.lib.StaticUserWebFilter
-
- initFilter(FilterContainer, Configuration) - 类 中的方法org.apache.hadoop.security.AuthenticationFilterInitializer
-
Initializes Alfredo AuthenticationFilter.
- initHTML(ServletResponse, String) - 类 中的静态方法org.apache.hadoop.util.ServletUtil
-
Initial HTML header
- initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Called after a new FileSystem instance is constructed.
- initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Called after a new FileSystem instance is constructed.
- initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
-
- initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
Initialize a Har filesystem per har archive.
- initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- initialize(URI, Configuration) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
-
- initialize(URI) - 类 中的方法org.apache.hadoop.fs.s3.MigrationTool
-
- initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.s3.S3Credentials
-
- initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
- initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
- initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem
-
- initialize(Configuration, FSClusterStats, NetworkTopology) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
-
Used to setup a BlockPlacementPolicy object.
- initialize(Configuration, FSClusterStats, NetworkTopology) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
-
Used to setup a BlockPlacementPolicy object.
- initialize(Configuration, FSClusterStats, NetworkTopology) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyWithNodeGroup
-
- initialize(URI, Configuration) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- initialize(JobConf, JobID, Reporter, boolean) - 类 中的方法org.apache.hadoop.mapred.Task
-
- initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
- initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader
-
- initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
-
- initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.LineRecordReader
-
- initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
- initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
-
- initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
-
- initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.RecordReader
-
Called once at initialization.
- initialize(String) - 枚举 中的静态方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
Common static convenience method to initialize the metrics system
- initialize(Subject, CallbackHandler, Map<String, ?>, Map<String, ?>) - 类 中的方法org.apache.hadoop.security.UserGroupInformation.HadoopLoginModule
-
- initialize(PipeMapRed) - 类 中的方法org.apache.hadoop.streaming.io.InputWriter
-
Initializes the InputWriter.
- initialize(PipeMapRed) - 类 中的方法org.apache.hadoop.streaming.io.OutputReader
-
Initializes the OutputReader.
- initialize(PipeMapRed) - 类 中的方法org.apache.hadoop.streaming.io.RawBytesInputWriter
-
- initialize(PipeMapRed) - 类 中的方法org.apache.hadoop.streaming.io.RawBytesOutputReader
-
- initialize(PipeMapRed) - 类 中的方法org.apache.hadoop.streaming.io.TextInputWriter
-
- initialize(PipeMapRed) - 类 中的方法org.apache.hadoop.streaming.io.TextOutputReader
-
- initialize(PipeMapRed) - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesInputWriter
-
- initialize(PipeMapRed) - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesOutputReader
-
- initialize(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicRecordReader
-
Implementation for RecordReader::initialize().
- initialize(int) - 类 中的方法org.apache.hadoop.util.PriorityQueue
-
Subclass constructors must call this.
- initializeAttemptDirs(String, String, String) - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.Localizer
-
Create taskDirs on all the disks.
- initializeJob(String, String, Path, Path, TaskUmbilicalProtocol, InetSocketAddress) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
-
This routine initializes the local file system for running a job.
- initializeJob(String, String, Path, Path, TaskUmbilicalProtocol, InetSocketAddress) - 类 中的方法org.apache.hadoop.mapred.TaskController
-
Create all of the directories necessary for the job to start and download
all of the job and private distributed cache files.
- initializeJobLogDir() - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
-
Create job log directory and set appropriate permissions for the directory.
- initializePieces() - 类 中的方法org.apache.hadoop.examples.dancing.OneSidedPentomino
-
Define the one sided pieces.
- initializePieces() - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino
-
Fill in the pieces list.
- initializeTables(LoggedDiscreteCDF) - 类 中的方法org.apache.hadoop.tools.rumen.CDFRandomGenerator
-
- initializeUpgrade() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- initializeUserDirs(String) - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.Localizer
-
Initialize the local directories for a particular user on this TT.
- initJob(JobInProgress) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- initNextRecordReader() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
Get the record reader for the next chunk in this CombineFileSplit.
- initNextRecordReader() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
Get the record reader for the next chunk in this CombineFileSplit.
- initTasks() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Construct the splits, etc.
- injectToken(HttpURLConnection, AuthenticatedURL.Token) - 类 中的静态方法org.apache.hadoop.security.authentication.client.AuthenticatedURL
-
Helper method that injects an authentication token to send with a connection.
- InMemoryFileSystem - org.apache.hadoop.fs中的类
-
已过时。
- InMemoryFileSystem() - 类 的构造器org.apache.hadoop.fs.InMemoryFileSystem
-
已过时。
- InMemoryFileSystem(URI, Configuration) - 类 的构造器org.apache.hadoop.fs.InMemoryFileSystem
-
已过时。
- InnerJoinRecordReader<K extends WritableComparable> - org.apache.hadoop.mapred.join中的类
-
Full inner join.
- INode - org.apache.hadoop.fs.s3中的类
-
Holds file metadata including type (regular file, or directory),
and the list of blocks that are pointers to the data.
- INode(INode.FileType, Block[]) - 类 的构造器org.apache.hadoop.fs.s3.INode
-
- inodeExists(Path) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
-
- Input() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- INPUT_BOUNDING_QUERY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
Input query to get the max and min values of the jdbc.input.query
- INPUT_CLASS_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
-
Class name implementing DBWritable which will hold input tuples
- INPUT_CLASS_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
Class name implementing DBWritable which will hold input tuples
- INPUT_CONDITIONS_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
-
WHERE clause in the input SELECT statement
- INPUT_CONDITIONS_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
WHERE clause in the input SELECT statement
- INPUT_COUNT_QUERY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
-
Input query to get the count of records
- INPUT_COUNT_QUERY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
Input query to get the count of records
- INPUT_FIELD_NAMES_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
-
Field names in the Input table
- INPUT_FIELD_NAMES_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
Field names in the Input table
- INPUT_FORMAT_CLASS_ATTR - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
-
- INPUT_ORDER_BY_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
-
ORDER BY clause in the input SELECT statement
- INPUT_ORDER_BY_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
ORDER BY clause in the input SELECT statement
- INPUT_QUERY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
-
Whole input query, exluding LIMIT...OFFSET
- INPUT_QUERY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
Whole input query, exluding LIMIT...OFFSET
- input_stream - 类 中的变量org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- INPUT_TABLE_NAME_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
-
Input table name
- INPUT_TABLE_NAME_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
Input table name
- InputBuffer - org.apache.hadoop.io中的类
-
A reusable
InputStream
implementation that reads from an in-memory
buffer.
- InputBuffer() - 类 的构造器org.apache.hadoop.io.InputBuffer
-
Constructs a new empty buffer.
- inputCounter - 类 中的变量org.apache.hadoop.mapred.Task.CombinerRunner
-
- InputDemuxer - org.apache.hadoop.tools.rumen中的接口
-
InputDemuxer
dem-ultiplexes the input files into individual input
streams.
- inputFile - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
-
- inputFile - 类 中的变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
-
- InputFormat<K,V> - org.apache.hadoop.mapred中的接口
-
InputFormat
describes the input-specification for a
Map-Reduce job.
- InputFormat<K,V> - org.apache.hadoop.mapreduce中的类
-
InputFormat
describes the input-specification for a
Map-Reduce job.
- InputFormat() - 类 的构造器org.apache.hadoop.mapreduce.InputFormat
-
- inputFormatSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- InputSampler<K,V> - org.apache.hadoop.mapred.lib中的类
-
Utility for collecting samples and writing a partition file for
TotalOrderPartitioner
.
- InputSampler(JobConf) - 类 的构造器org.apache.hadoop.mapred.lib.InputSampler
-
- InputSampler<K,V> - org.apache.hadoop.mapreduce.lib.partition中的类
-
Utility for collecting samples and writing a partition file for
TotalOrderPartitioner
.
- InputSampler(Configuration) - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.InputSampler
-
- InputSampler.IntervalSampler<K,V> - org.apache.hadoop.mapred.lib中的类
-
Sample from s splits at regular intervals.
- InputSampler.IntervalSampler(double) - 类 的构造器org.apache.hadoop.mapred.lib.InputSampler.IntervalSampler
-
Create a new IntervalSampler sampling all splits.
- InputSampler.IntervalSampler(double, int) - 类 的构造器org.apache.hadoop.mapred.lib.InputSampler.IntervalSampler
-
Create a new IntervalSampler.
- InputSampler.IntervalSampler<K,V> - org.apache.hadoop.mapreduce.lib.partition中的类
-
Sample from s splits at regular intervals.
- InputSampler.IntervalSampler(double) - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.InputSampler.IntervalSampler
-
Create a new IntervalSampler sampling all splits.
- InputSampler.IntervalSampler(double, int) - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.InputSampler.IntervalSampler
-
Create a new IntervalSampler.
- InputSampler.RandomSampler<K,V> - org.apache.hadoop.mapred.lib中的类
-
Sample from random points in the input.
- InputSampler.RandomSampler(double, int) - 类 的构造器org.apache.hadoop.mapred.lib.InputSampler.RandomSampler
-
Create a new RandomSampler sampling all splits.
- InputSampler.RandomSampler(double, int, int) - 类 的构造器org.apache.hadoop.mapred.lib.InputSampler.RandomSampler
-
Create a new RandomSampler.
- InputSampler.RandomSampler<K,V> - org.apache.hadoop.mapreduce.lib.partition中的类
-
Sample from random points in the input.
- InputSampler.RandomSampler(double, int) - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.InputSampler.RandomSampler
-
Create a new RandomSampler sampling all splits.
- InputSampler.RandomSampler(double, int, int) - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.InputSampler.RandomSampler
-
Create a new RandomSampler.
- InputSampler.Sampler<K,V> - org.apache.hadoop.mapred.lib中的接口
-
Interface to sample using an
InputFormat
.
- InputSampler.Sampler<K,V> - org.apache.hadoop.mapreduce.lib.partition中的接口
-
Interface to sample using an
InputFormat
.
- InputSampler.SplitSampler<K,V> - org.apache.hadoop.mapred.lib中的类
-
Samples the first n records from s splits.
- InputSampler.SplitSampler(int) - 类 的构造器org.apache.hadoop.mapred.lib.InputSampler.SplitSampler
-
Create a SplitSampler sampling all splits.
- InputSampler.SplitSampler(int, int) - 类 的构造器org.apache.hadoop.mapred.lib.InputSampler.SplitSampler
-
Create a new SplitSampler.
- InputSampler.SplitSampler<K,V> - org.apache.hadoop.mapreduce.lib.partition中的类
-
Samples the first n records from s splits.
- InputSampler.SplitSampler(int) - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.InputSampler.SplitSampler
-
Create a SplitSampler sampling all splits.
- InputSampler.SplitSampler(int, int) - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.InputSampler.SplitSampler
-
Create a new SplitSampler.
- inputSpecs_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- InputSplit - org.apache.hadoop.mapred中的接口
-
InputSplit
represents the data to be processed by an
individual Mapper
.
- InputSplit - org.apache.hadoop.mapreduce中的类
-
InputSplit
represents the data to be processed by an
individual Mapper
.
- InputSplit() - 类 的构造器org.apache.hadoop.mapreduce.InputSplit
-
- inputStream - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- inputTag - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
-
- InputWriter<K,V> - org.apache.hadoop.streaming.io中的类
-
Abstract base for classes that write the client's input.
- InputWriter() - 类 的构造器org.apache.hadoop.streaming.io.InputWriter
-
- inReaderSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- INSERT - 类 中的静态变量org.apache.hadoop.contrib.index.mapred.DocumentAndOp.Op
-
- insert(T) - 类 中的方法org.apache.hadoop.util.PriorityQueue
-
Adds element to the PriorityQueue in log(size) time if either
the PriorityQueue is not full, or not lessThan(element, top()).
- insertRange(int, List<LocatedBlock>) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
-
- instantiateDataNode(String[], Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Instantiate a single datanode object.
- instantiateDataNode(String[], Configuration, SecureDataNodeStarter.SecureResources) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Instantiate a single datanode object.
- INT - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
-
- INT_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- IntegerSplitter - org.apache.hadoop.mapreduce.lib.db中的类
-
Implement DBSplitter over integer values.
- IntegerSplitter() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.IntegerSplitter
-
- InterDatanodeProtocol - org.apache.hadoop.hdfs.server.protocol中的接口
-
An inter-datanode protocol for updating generation stamp
- InterfaceAudience - org.apache.hadoop.classification中的类
-
Annotation to inform users of a package, class or method's intended audience.
- InterfaceAudience.LimitedPrivate - org.apache.hadoop.classification中的注释类型
-
Intended only for the project(s) specified in the annotation.
- InterfaceAudience.Private - org.apache.hadoop.classification中的注释类型
-
Intended for use only within Hadoop itself.
- InterfaceAudience.Public - org.apache.hadoop.classification中的注释类型
-
Intended for use by any project or application.
- InterfaceStability - org.apache.hadoop.classification中的类
-
Annotation to inform users of how much to rely on a particular package,
class or method not changing over time.
- InterfaceStability() - 类 的构造器org.apache.hadoop.classification.InterfaceStability
-
- InterfaceStability.Evolving - org.apache.hadoop.classification中的注释类型
-
Evolving, but can break compatibility at minor release (i.e. m.x)
- InterfaceStability.Stable - org.apache.hadoop.classification中的注释类型
-
Can evolve while retaining compatibility for minor release boundaries.;
can break compatibility only at major release (ie. at m.0).
- InterfaceStability.Unstable - org.apache.hadoop.classification中的注释类型
-
No guarantee is provided as to reliability or stability across any
level of release granularity.
- IntermediateForm - org.apache.hadoop.contrib.index.mapred中的类
-
An intermediate form for one or more parsed Lucene documents and/or
delete terms.
- IntermediateForm() - 类 的构造器org.apache.hadoop.contrib.index.mapred.IntermediateForm
-
Constructor
- IntSumReducer<Key> - org.apache.hadoop.mapreduce.lib.reduce中的类
-
- IntSumReducer() - 类 的构造器org.apache.hadoop.mapreduce.lib.reduce.IntSumReducer
-
- IntTypeID - 类 中的静态变量org.apache.hadoop.record.meta.TypeID
-
- IntWritable - org.apache.hadoop.io中的类
-
A WritableComparable for ints.
- IntWritable() - 类 的构造器org.apache.hadoop.io.IntWritable
-
- IntWritable(int) - 类 的构造器org.apache.hadoop.io.IntWritable
-
- IntWritable.Comparator - org.apache.hadoop.io中的类
-
A Comparator optimized for IntWritable.
- IntWritable.Comparator() - 类 的构造器org.apache.hadoop.io.IntWritable.Comparator
-
- INVALID_ARGUMENT - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- INVALID_BLOCK - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
-
- INVALID_HASH - 类 中的静态变量org.apache.hadoop.util.hash.Hash
-
Constant to denote invalid hash type.
- invalidate(Block[]) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
We're informed that a block is no longer valid.
- invalidate(Block[]) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Invalidates the specified blocks
- InvalidBlockTokenException - org.apache.hadoop.hdfs.security.token.block中的异常错误
-
Access token verification failed.
- InvalidBlockTokenException() - 异常错误 的构造器org.apache.hadoop.hdfs.security.token.block.InvalidBlockTokenException
-
- InvalidBlockTokenException(String) - 异常错误 的构造器org.apache.hadoop.hdfs.security.token.block.InvalidBlockTokenException
-
- InvalidFileTypeException - org.apache.hadoop.mapred中的异常错误
-
Used when file type differs from the desired file type. like
getting a file when a directory is expected.
- InvalidFileTypeException() - 异常错误 的构造器org.apache.hadoop.mapred.InvalidFileTypeException
-
- InvalidFileTypeException(String) - 异常错误 的构造器org.apache.hadoop.mapred.InvalidFileTypeException
-
- InvalidInputException - org.apache.hadoop.mapred中的异常错误
-
This class wraps a list of problems with the input, so that the user
can get a list of problems together instead of finding and fixing them one
by one.
- InvalidInputException(List<IOException>) - 异常错误 的构造器org.apache.hadoop.mapred.InvalidInputException
-
Create the exception with the given list.
- InvalidInputException - org.apache.hadoop.mapreduce.lib.input中的异常错误
-
This class wraps a list of problems with the input, so that the user
can get a list of problems together instead of finding and fixing them one
by one.
- InvalidInputException(List<IOException>) - 异常错误 的构造器org.apache.hadoop.mapreduce.lib.input.InvalidInputException
-
Create the exception with the given list.
- InvalidJobConfException - org.apache.hadoop.mapred中的异常错误
-
This exception is thrown when jobconf misses some mendatory attributes
or value of some attributes is invalid.
- InvalidJobConfException() - 异常错误 的构造器org.apache.hadoop.mapred.InvalidJobConfException
-
- InvalidJobConfException(String) - 异常错误 的构造器org.apache.hadoop.mapred.InvalidJobConfException
-
- InvalidJobConfException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.mapred.InvalidJobConfException
-
- InvalidJobConfException(Throwable) - 异常错误 的构造器org.apache.hadoop.mapred.InvalidJobConfException
-
- InverseMapper<K,V> - org.apache.hadoop.mapred.lib中的类
-
A
Mapper
that swaps keys and values.
- InverseMapper() - 类 的构造器org.apache.hadoop.mapred.lib.InverseMapper
-
- InverseMapper<K,V> - org.apache.hadoop.mapreduce.lib.map中的类
-
A
Mapper
that swaps keys and values.
- InverseMapper() - 类 的构造器org.apache.hadoop.mapreduce.lib.map.InverseMapper
-
- invoke(String, Object[], String[]) - 类 中的方法org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
-
已过时。
- IO_COMPRESSION_CODEC_SNAPPY_BUFFERSIZE_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
Default value for IO_COMPRESSION_CODEC_SNAPPY_BUFFERSIZE_KEY
- IO_COMPRESSION_CODEC_SNAPPY_BUFFERSIZE_KEY - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
Internal buffer size for Snappy compressor/decompressors
- IO_EXCEPTION - 类 中的静态变量org.apache.hadoop.hdfs.server.balancer.Balancer
-
- IO_NATIVE_LIB_AVAILABLE_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
Default value for IO_NATIVE_LIB_AVAILABLE_KEY
- IO_NATIVE_LIB_AVAILABLE_KEY - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
- ioSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- IOUtils - org.apache.hadoop.io中的类
-
An utility class for I/O related functionality.
- IOUtils() - 类 的构造器org.apache.hadoop.io.IOUtils
-
- IOUtils.NullOutputStream - org.apache.hadoop.io中的类
-
/dev/null of OutputStreams.
- IOUtils.NullOutputStream() - 类 的构造器org.apache.hadoop.io.IOUtils.NullOutputStream
-
- IPC_CLIENT_CONNECT_MAX_RETRIES_DEFAULT - 类 中的静态变量org.apache.hadoop.ipc.Client
-
- IPC_CLIENT_CONNECT_MAX_RETRIES_KEY - 类 中的静态变量org.apache.hadoop.ipc.Client
-
- IPC_CLIENT_FALLBACK_TO_SIMPLE_AUTH_ALLOWED_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
- IPC_CLIENT_FALLBACK_TO_SIMPLE_AUTH_ALLOWED_KEY - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
- IPC_SERVER_RPC_READ_THREADS_DEFAULT - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
- IPC_SERVER_RPC_READ_THREADS_KEY - 类 中的静态变量org.apache.hadoop.fs.CommonConfigurationKeys
-
- ipcPort - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeID
-
- ipcServer - 类 中的变量org.apache.hadoop.hdfs.server.datanode.DataNode
-
- is203LayoutVersion(int) - 类 中的静态方法org.apache.hadoop.hdfs.server.common.Storage
-
- isAbsolute() - 类 中的方法org.apache.hadoop.fs.Path
-
True if the directory of this path is absolute.
- isAbsolute() - 类 中的方法org.apache.hadoop.metrics.spi.MetricValue
-
已过时。
- isAlive - 类 中的变量org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
-
- isAlive(String) - 类 中的静态方法org.apache.hadoop.util.ProcessTree
-
Is the process with PID pid still alive?
- isAlive() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Is the root-process alive?
- isAllAllowed() - 类 中的方法org.apache.hadoop.security.authorize.AccessControlList
-
- isAnyProcessInTreeAlive() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Is any of the subprocesses in the process-tree alive?
- isAsyncBlockReportReady() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- isAsyncBlockReportReady() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
- isAvailable() - 类 中的静态方法org.apache.hadoop.io.compress.snappy.LoadSnappy
-
Returns if Snappy native library is loaded.
- isAvailable() - 类 中的静态方法org.apache.hadoop.io.nativeio.NativeIO
-
Return true if the JNI-based native IO extensions are available.
- isAvailable() - 类 中的静态方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Checks if the ProcfsBasedProcessTree is available on this system.
- isBlacklisted(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Whether the tracker is blacklisted or not
- isBlockCompressed() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Returns true if records are block-compressed.
- isBlockFilename(File) - 类 中的静态方法org.apache.hadoop.hdfs.protocol.Block
-
- isBlockIncluded(long) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
Is specified blockId included in this BlockTokenIdentifier?
- isBlockTokenEnabled() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
-
- isCached(String) - 类 中的方法org.apache.hadoop.security.NetgroupCache
-
- isChecksumFile(Path) - 类 中的静态方法org.apache.hadoop.fs.ChecksumFileSystem
-
Return true iff file is a checksum file name.
- isComplete() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Check if the job is finished or not.
- isComplete() - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Check if the job is finished or not.
- isCompleted() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- isCompleted() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- isCompressed() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Returns true if values are compressed.
- isContextValid(String) - 类 中的静态方法org.apache.hadoop.fs.LocalDirAllocator
-
Method to check whether a context is valid
- isConversionNeeded(Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
-
- isConversionNeeded(Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataStorage
-
- isConversionNeeded(Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
- isCorrupt() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- isCygwin() - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- isDecommissioned() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Returns true if the node has been decommissioned.
- isDecommissionInProgress() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Returns true if the node is in the process of being decommissioned
- isDir() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Is this a directory?
- isDir() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Is this a directory?
- isDirectory(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
已过时。
Use getFileStatus() instead
- isDirectory(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
已过时。
- isDirectory() - 类 中的方法org.apache.hadoop.fs.s3.INode
-
- isDirectory(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
已过时。
Use getHdfsFileStatus() instead
- isEmpty() - 类 中的方法org.apache.hadoop.io.MapWritable
- isEmpty() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- isEmptyLocalName() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Check if the local name is empty
- isEnabled(Configuration, Log) - 类 中的静态方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
Is WebHDFS enabled in conf?
- isExpired() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
-
Returns if the token has expired.
- isFile(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
True iff the named path is a regular file.
- isFile(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
已过时。
- isFile() - 类 中的方法org.apache.hadoop.fs.s3.INode
-
- isFile(Path) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
- isFileClosed(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Close status of a file
- isFileClosed(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Get the close status of a file
- isFileClosed(String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Get the close status of a file
- isFileClosed(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Get the close status of a file
- isFinalized() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
-
Is current upgrade finalized.
- isFromKeytab() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Is this user logged in from a keytab file?
- isGoodTarget(DatanodeDescriptor, long, int, boolean, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
-
Determine if a node is a good target.
- isGraylisted(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Whether the tracker is graylisted or not
- isHealthy(URI) - 类 中的静态方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Is the HDFS healthy?
- isHealthy() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- isHealthy() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
-
- isIdle() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
Is this task tracker idle?
- isIdleAndClean() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
Is this task tracker idle and clean?
- isIncluded(int) - 类 中的方法org.apache.hadoop.conf.Configuration.IntegerRanges
-
Is the given value in the set of ranges
- isIncrement() - 类 中的方法org.apache.hadoop.metrics.spi.MetricValue
-
已过时。
- isInSafeMode() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Is the cluster currently in safe mode?
- isInSafeMode() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- isInstrumentationAccessAllowed(ServletContext, HttpServletRequest, HttpServletResponse) - 类 中的静态方法org.apache.hadoop.http.HttpServer
-
Checks the user has privileges to access to instrumentation servlets.
- isJobComplete() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
Returns true if the status is for a completed job.
- isJobDirValid(Path, FileSystem) - 类 中的静态方法org.apache.hadoop.mapred.JobClient
-
Checks if the job directory is clean and has all the required components
for (re) starting the job
- isLoaded() - 类 中的静态方法org.apache.hadoop.io.compress.snappy.LoadSnappy
-
Returns if Snappy native library is loaded.
- isLocalHadoop() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- isLocalJobTracker(JobConf) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- isLockSupported(int) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
-
Check whether underlying file system supports file locking.
- isLoginKeytabBased() - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
-
Did the login happen via keytab
- isManaged(Token<?>) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.Renewer
-
- isManaged(Token<?>) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem.TokenManager
-
- isManaged(Token<?>) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem.DtRenewer
-
- isManaged(Token<?>) - 类 中的方法org.apache.hadoop.mapred.JobClient.Renewer
-
- isManaged() - 类 中的方法org.apache.hadoop.security.token.Token
-
Is this token managed so that it can be renewed or cancelled?
- isManaged(Token<?>) - 类 中的方法org.apache.hadoop.security.token.Token.TrivialRenewer
-
- isManaged(Token<?>) - 类 中的方法org.apache.hadoop.security.token.TokenRenewer
-
Is the given token managed?
- isMap() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
-
Returns whether this TaskAttemptID is a map ID
- isMap() - 类 中的方法org.apache.hadoop.mapreduce.TaskID
-
Returns whether this TaskID is a map ID
- isMapTask() - 类 中的方法org.apache.hadoop.mapred.Task
-
- isMapTask() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
- isMonitoring() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
-
已过时。
Returns true if monitoring is currently in progress.
- isMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Returns true if monitoring is currently in progress.
- isMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
-
已过时。
Return true if all subcontexts are monitoring.
- isMultiNamedOutput(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Returns if a named output is multiple.
- isNativeCodeLoaded() - 类 中的静态方法org.apache.hadoop.util.NativeCodeLoader
-
Check if native-hadoop code is loaded for this platform.
- isNativeSnappyLoaded(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.SnappyCodec
-
Are the native snappy libraries loaded & initialized?
- isNativeZlibLoaded(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
-
Check if native-zlib code is loaded & initialized correctly and
can be loaded for this job.
- isNegativeVInt(byte) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
Given the first byte of a vint/vlong, determine the sign
- isNodeGroupAware() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- isNodeGroupAware() - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Check if network topology is aware of NodeGroup
- isNodeGroupAware() - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
-
Check if network topology is aware of NodeGroup
- isOfType(Storage.StorageDirType) - 接口 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirType
-
- IsolationRunner - org.apache.hadoop.mapred中的类
-
IsolationRunner is intended to facilitate debugging by re-running a specific
task, given left-over task files for a (typically failed) past job.
- IsolationRunner() - 类 的构造器org.apache.hadoop.mapred.IsolationRunner
-
- isOnSameNodeGroup(Node, Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Return false directly as not aware of NodeGroup, to be override in sub-class
- isOnSameNodeGroup(Node, Node) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
-
Check if two nodes are on the same node group (hypervisor) The
assumption here is: each nodes are leaf nodes.
- isOnSameRack(Node, Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Check if two nodes are on the same rack
- isOnSameRack(Node, Node) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
-
- isOpen() - 类 中的方法org.apache.hadoop.net.SocketInputStream
-
- isOpen() - 类 中的方法org.apache.hadoop.net.SocketOutputStream
-
- isOriginalTGT(String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
- isProcessGroupAlive(String) - 类 中的静态方法org.apache.hadoop.util.ProcessTree
-
Is the process group with still alive?
- isQueueEmpty() - 类 中的方法org.apache.hadoop.mapred.CleanupQueue
-
- isRandomSecret() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Returns if a random secret is being used.
- isReady() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- isReady() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- isReservedForOldRelease() - 枚举 中的方法org.apache.hadoop.hdfs.protocol.LayoutVersion.Feature
-
- isRunning() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
is secretMgr running
- isSameParents(Node, Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Compare the parents of each node for equality
To be overridden in subclasses for specific NetworkTopology
implementations, as alternative to overriding the full
NetworkTopology.isOnSameRack(Node, Node)
method.
- isSecurityEnabled() - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
-
Determine if UserGroupInformation is using Kerberos to determine
user identities or is relying on simple authentication
- isSegmentsFile(String) - 类 中的静态方法org.apache.hadoop.contrib.index.lucene.LuceneUtil
-
Check if the file is a segments_N file
- isSegmentsGenFile(String) - 类 中的静态方法org.apache.hadoop.contrib.index.lucene.LuceneUtil
-
Check if the file is the segments.gen file
- isSet() - 类 中的方法org.apache.hadoop.security.authentication.client.AuthenticatedURL.Token
-
Returns if a token from the server has been set.
- isSetsidAvailable - 类 中的静态变量org.apache.hadoop.util.ProcessTree
-
- isSkipping() - 类 中的方法org.apache.hadoop.mapred.Task
-
Is Task in skipping mode.
- isSorted() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Is the TFile sorted?
- isSplitable(FileSystem, Path) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
-
Is the given filename splitable?
- isSplitable(FileSystem, Path) - 类 中的方法org.apache.hadoop.mapred.KeyValueTextInputFormat
-
- isSplitable(FileSystem, Path) - 类 中的方法org.apache.hadoop.mapred.TextInputFormat
-
- isSplitable(JobContext, Path) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
- isSplitable(JobContext, Path) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Is the given filename splitable?
- isSplitable(JobContext, Path) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueTextInputFormat
-
- isSplitable(JobContext, Path) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.TextInputFormat
-
- isStale(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Check if the datanode is in stale state.
- isSuccess() - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
-
Check if this ack contains error status
- isSuccessful() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Check if the job completed successfully.
- isSuccessful() - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Check if the job completed successfully.
- isSupportSparseMetrics() - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
-
- isTaskMemoryManagerEnabled() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
Is the TaskMemoryManager Enabled on this system?
- isTimedOut() - 类 中的方法org.apache.hadoop.util.Shell
-
To check if the passed script to shell command executor timed out or
not.
- isUnderConstruction() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
-
Return ture if file was under construction when
this LocatedBlocks was constructed, false otherwise.
- isUpgradeCompleted() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- isUpgradeFinalized() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- isUpgradeFinalized() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Checks if upgrade is finalized.
- isUserAllowed(UserGroupInformation) - 类 中的方法org.apache.hadoop.security.authorize.AccessControlList
-
- isValidBlock(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Check whether the given block is a valid one.
- isValidBlock(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Is the block valid?
- isValidName(String) - 类 中的静态方法org.apache.hadoop.hdfs.DFSUtil
-
Whether the pathname is valid.
- isValidSubnet(String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
- isValueLengthKnown() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Check whether it is safe to call getValueLength().
- isWriteable(Class<?>, Type, Annotation[], MediaType) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.OpenEntity.Writer
-
- iterator() - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get an
Iterator
to go through the list of String
key-value pairs in the configuration.
- iterator() - 类 中的方法org.apache.hadoop.hdfs.util.GSetByHashMap
-
- iterator() - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
-
- iterator() - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
- iterator() - 类 中的方法org.apache.hadoop.mapred.Counters
-
- iterator() - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
-
Return an iterator over the elements in this tuple.
- iterator() - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
-
- iterator() - 类 中的方法org.apache.hadoop.mapreduce.Counters
-
- iterator() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext.ValueIterable
-
- iterator() - 类 中的方法org.apache.hadoop.util.CyclicIteration
J
- jar_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- JarBuilder - org.apache.hadoop.streaming中的类
-
This class is the main class for generating job.jar
for Hadoop Streaming jobs.
- JarBuilder() - 类 的构造器org.apache.hadoop.streaming.JarBuilder
-
- JavaSerialization - org.apache.hadoop.io.serializer中的类
-
An experimental
Serialization
for Java Serializable
classes.
- JavaSerialization() - 类 的构造器org.apache.hadoop.io.serializer.JavaSerialization
-
- JavaSerializationComparator<T extends Serializable & Comparable<T>> - org.apache.hadoop.io.serializer中的类
-
A
RawComparator
that uses a JavaSerialization
Deserializer
to deserialize objects that are then compared via
their Comparable
interfaces.
- JavaSerializationComparator() - 类 的构造器org.apache.hadoop.io.serializer.JavaSerializationComparator
-
- JBoolean - org.apache.hadoop.record.compiler中的类
-
- JBoolean() - 类 的构造器org.apache.hadoop.record.compiler.JBoolean
-
Creates a new instance of JBoolean
- JBuffer - org.apache.hadoop.record.compiler中的类
-
Code generator for "buffer" type.
- JBuffer() - 类 的构造器org.apache.hadoop.record.compiler.JBuffer
-
Creates a new instance of JBuffer
- JByte - org.apache.hadoop.record.compiler中的类
-
Code generator for "byte" type.
- JByte() - 类 的构造器org.apache.hadoop.record.compiler.JByte
-
- jc - 类 中的变量org.apache.hadoop.mapred.join.CompositeRecordReader
-
- jc - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
- jc_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- JDouble - org.apache.hadoop.record.compiler中的类
-
- JDouble() - 类 的构造器org.apache.hadoop.record.compiler.JDouble
-
Creates a new instance of JDouble
- JENKINS_HASH - 类 中的静态变量org.apache.hadoop.util.hash.Hash
-
Constant to denote
JenkinsHash
.
- JenkinsHash - org.apache.hadoop.util.hash中的类
-
Produces 32-bit hash for hash table lookup.
- JenkinsHash() - 类 的构造器org.apache.hadoop.util.hash.JenkinsHash
-
- JField<T> - org.apache.hadoop.record.compiler中的类
-
A thin wrappper around record field.
- JField(String, T) - 类 的构造器org.apache.hadoop.record.compiler.JField
-
Creates a new instance of JField
- JFile - org.apache.hadoop.record.compiler中的类
-
Container for the Hadoop Record DDL.
- JFile(String, ArrayList<JFile>, ArrayList<JRecord>) - 类 的构造器org.apache.hadoop.record.compiler.JFile
-
Creates a new instance of JFile
- JFloat - org.apache.hadoop.record.compiler中的类
-
- JFloat() - 类 的构造器org.apache.hadoop.record.compiler.JFloat
-
Creates a new instance of JFloat
- JhCounter - org.apache.hadoop.tools.rumen中的类
-
- JhCounter() - 类 的构造器org.apache.hadoop.tools.rumen.JhCounter
-
- JhCounterGroup - org.apache.hadoop.tools.rumen中的类
-
- JhCounterGroup() - 类 的构造器org.apache.hadoop.tools.rumen.JhCounterGroup
-
- JhCounters - org.apache.hadoop.tools.rumen中的类
-
- JIFFY_LENGTH_IN_MILLIS - 类 中的静态变量org.apache.hadoop.util.ProcfsBasedProcessTree
-
- JInt - org.apache.hadoop.record.compiler中的类
-
Code generator for "int" type
- JInt() - 类 的构造器org.apache.hadoop.record.compiler.JInt
-
Creates a new instance of JInt
- jj_nt - 类 中的变量org.apache.hadoop.record.compiler.generated.Rcc
-
- jjFillToken() - 类 中的方法org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- jjnewLexState - 类 中的静态变量org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- jjstrLiteralImages - 类 中的静态变量org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- JLong - org.apache.hadoop.record.compiler中的类
-
Code generator for "long" type
- JLong() - 类 的构造器org.apache.hadoop.record.compiler.JLong
-
Creates a new instance of JLong
- JMap - org.apache.hadoop.record.compiler中的类
-
- JMap(JType, JType) - 类 的构造器org.apache.hadoop.record.compiler.JMap
-
Creates a new instance of JMap
- JMXJsonServlet - org.apache.hadoop.jmx中的类
-
Provides Read only web access to JMX.
- JMXJsonServlet() - 类 的构造器org.apache.hadoop.jmx.JMXJsonServlet
-
- JniBasedUnixGroupsMapping - org.apache.hadoop.security中的类
-
A JNI-based implementation of
GroupMappingServiceProvider
that invokes libC calls to get the group
memberships of a given user.
- JniBasedUnixGroupsMapping() - 类 的构造器org.apache.hadoop.security.JniBasedUnixGroupsMapping
-
- JniBasedUnixGroupsMappingWithFallback - org.apache.hadoop.security中的类
-
- JniBasedUnixGroupsMappingWithFallback() - 类 的构造器org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback
-
- JniBasedUnixGroupsNetgroupMapping - org.apache.hadoop.security中的类
-
A JNI-based implementation of
GroupMappingServiceProvider
that invokes libC calls to get the group
memberships of a given user.
- JniBasedUnixGroupsNetgroupMapping() - 类 的构造器org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMapping
-
- JniBasedUnixGroupsNetgroupMappingWithFallback - org.apache.hadoop.security中的类
-
- JniBasedUnixGroupsNetgroupMappingWithFallback() - 类 的构造器org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMappingWithFallback
-
- job - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
-
- job - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
-
- Job - org.apache.hadoop.mapred.jobcontrol中的类
-
This class encapsulates a MapReduce job and its dependency.
- Job(JobConf, ArrayList<Job>) - 类 的构造器org.apache.hadoop.mapred.jobcontrol.Job
-
Construct a job.
- Job(JobConf) - 类 的构造器org.apache.hadoop.mapred.jobcontrol.Job
-
Construct a job.
- job - 类 中的变量org.apache.hadoop.mapred.Task.CombinerRunner
-
- Job - org.apache.hadoop.mapreduce中的类
-
The job submitter's view of the Job.
- Job() - 类 的构造器org.apache.hadoop.mapreduce.Job
-
- Job(Configuration) - 类 的构造器org.apache.hadoop.mapreduce.Job
-
- Job(Configuration, String) - 类 的构造器org.apache.hadoop.mapreduce.Job
-
- JOB - 类 中的静态变量org.apache.hadoop.mapreduce.JobID
-
- Job.JobState - org.apache.hadoop.mapreduce中的枚举
-
- Job20LineHistoryEventEmitter - org.apache.hadoop.tools.rumen中的类
-
- JOB_ACL_MODIFY_JOB - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
-
- JOB_ACL_VIEW_JOB - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
-
- JOB_CANCEL_DELEGATION_TOKEN - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
-
- JOB_DIR_PERMISSION - 类 中的静态变量org.apache.hadoop.mapreduce.JobSubmissionFiles
-
- JOB_FILE_PERMISSION - 类 中的静态变量org.apache.hadoop.mapreduce.JobSubmissionFiles
-
- JOB_LOCAL_CTXT - 类 中的静态变量org.apache.hadoop.mapred.JobLocalizer
-
- JOB_NAME_TRIM_LENGTH - 类 中的静态变量org.apache.hadoop.mapred.JobHistory
-
- JOB_NAMENODES - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
-
- JOB_TOKEN_HDFS_FILE - 类 中的静态变量org.apache.hadoop.mapreduce.security.TokenCache
-
file name used on HDFS for generated job token
- JOB_TOKENS_FILENAME - 类 中的静态变量org.apache.hadoop.mapreduce.security.TokenCache
-
conf setting for job tokens cache file name
- JobACL - org.apache.hadoop.mapreduce中的枚举
-
Job related ACLs
- jobACLNeeded - 枚举 中的变量org.apache.hadoop.mapred.Operation
-
- JobBase - org.apache.hadoop.contrib.utils.join中的类
-
A common base implementing some statics collecting mechanisms that are
commonly used in a typical map/reduce job.
- JobBase() - 类 的构造器org.apache.hadoop.contrib.utils.join.JobBase
-
- JobBuilder - org.apache.hadoop.tools.rumen中的类
-
JobBuilder
builds one job.
- JobBuilder(String) - 类 的构造器org.apache.hadoop.tools.rumen.JobBuilder
-
- jobCleanup - 类 中的变量org.apache.hadoop.mapred.Task
-
- JobClient - org.apache.hadoop.mapred中的类
-
JobClient
is the primary interface for the user-job to interact
with the JobTracker
.
- JobClient() - 类 的构造器org.apache.hadoop.mapred.JobClient
-
Create a job client.
- JobClient(JobConf) - 类 的构造器org.apache.hadoop.mapred.JobClient
-
Build a job client with the given
JobConf
, and connect to the
default JobTracker
.
- JobClient(InetSocketAddress, Configuration) - 类 的构造器org.apache.hadoop.mapred.JobClient
-
Build a job client, connect to the indicated job tracker.
- JobClient.Renewer - org.apache.hadoop.mapred中的类
-
- JobClient.Renewer() - 类 的构造器org.apache.hadoop.mapred.JobClient.Renewer
-
- JobClient.TaskStatusFilter - org.apache.hadoop.mapred中的枚举
-
- JobCompletedEvent - org.apache.hadoop.mapreduce.server.tasktracker.userlogs中的类
-
This is an
UserLogEvent
sent when the job completes
- JobCompletedEvent(JobID, long, int) - 类 的构造器org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JobCompletedEvent
-
Create the event for job completion.
- JobConf - org.apache.hadoop.mapred中的类
-
A map/reduce job configuration.
- JobConf() - 类 的构造器org.apache.hadoop.mapred.JobConf
-
Construct a map/reduce job configuration.
- JobConf(Class) - 类 的构造器org.apache.hadoop.mapred.JobConf
-
Construct a map/reduce job configuration.
- JobConf(Configuration) - 类 的构造器org.apache.hadoop.mapred.JobConf
-
Construct a map/reduce job configuration.
- JobConf(Configuration, Class) - 类 的构造器org.apache.hadoop.mapred.JobConf
-
Construct a map/reduce job configuration.
- JobConf(String) - 类 的构造器org.apache.hadoop.mapred.JobConf
-
Construct a map/reduce configuration.
- JobConf(Path) - 类 的构造器org.apache.hadoop.mapred.JobConf
-
Construct a map/reduce configuration.
- JobConf(boolean) - 类 的构造器org.apache.hadoop.mapred.JobConf
-
A new map/reduce configuration where the behavior of reading from the
default resources can be turned off.
- jobConf_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- JobConfigurable - org.apache.hadoop.mapred中的接口
-
That what may be configured.
- JobConfigurationParser - org.apache.hadoop.tools.rumen中的类
-
JobConfigurationParser
parses the job configuration xml file, and
extracts configuration properties.
- JobConfigurationParser() - 类 的构造器org.apache.hadoop.tools.rumen.JobConfigurationParser
-
- JobConfPropertyNames - org.apache.hadoop.tools.rumen中的枚举
-
- JobContext - org.apache.hadoop.mapred中的类
-
- jobContext - 类 中的变量org.apache.hadoop.mapred.Task
-
- JobContext - org.apache.hadoop.mapreduce中的类
-
A read-only view of the job that is provided to the tasks while they
are running.
- JobContext(Configuration, JobID) - 类 的构造器org.apache.hadoop.mapreduce.JobContext
-
- JobControl - org.apache.hadoop.mapred.jobcontrol中的类
-
This class encapsulates a set of MapReduce jobs and its dependency.
- JobControl(String) - 类 的构造器org.apache.hadoop.mapred.jobcontrol.JobControl
-
Construct a job control for a group of jobs.
- JobControl - org.apache.hadoop.mapreduce.lib.jobcontrol中的类
-
This class encapsulates a set of MapReduce jobs and its dependency.
- JobControl(String) - 类 的构造器org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
Construct a job control for a group of jobs.
- JobControl.ThreadState - org.apache.hadoop.mapreduce.lib.jobcontrol中的枚举
-
- JobEndNotifier - org.apache.hadoop.mapred中的类
-
- JobEndNotifier() - 类 的构造器org.apache.hadoop.mapred.JobEndNotifier
-
- JobFinishedEvent - org.apache.hadoop.tools.rumen中的类
-
Event to record successful completion of job
- JobFinishedEvent(JobID, long, int, int, int, int, Counters, Counters, Counters) - 类 的构造器org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Create an event to record successful job completion
- JobHistory - org.apache.hadoop.mapred中的类
-
Provides methods for writing to and reading from job history.
- JobHistory() - 类 的构造器org.apache.hadoop.mapred.JobHistory
-
- JobHistory.HistoryCleaner - org.apache.hadoop.mapred中的类
-
Delete history files older than one month.
- JobHistory.HistoryCleaner() - 类 的构造器org.apache.hadoop.mapred.JobHistory.HistoryCleaner
-
- JobHistory.JobInfo - org.apache.hadoop.mapred中的类
-
Helper class for logging or reading back events related to job start, finish or failure.
- JobHistory.JobInfo(String) - 类 的构造器org.apache.hadoop.mapred.JobHistory.JobInfo
-
Create new JobInfo
- JobHistory.Keys - org.apache.hadoop.mapred中的枚举
-
Job history files contain key="value" pairs, where keys belong to this enum.
- JobHistory.Listener - org.apache.hadoop.mapred中的接口
-
Callback interface for reading back log events from JobHistory.
- JobHistory.MapAttempt - org.apache.hadoop.mapred中的类
-
Helper class for logging or reading back events related to start, finish or failure of
a Map Attempt on a node.
- JobHistory.MapAttempt() - 类 的构造器org.apache.hadoop.mapred.JobHistory.MapAttempt
-
- JobHistory.RecordTypes - org.apache.hadoop.mapred中的枚举
-
Record types are identifiers for each line of log in history files.
- JobHistory.ReduceAttempt - org.apache.hadoop.mapred中的类
-
Helper class for logging or reading back events related to start, finish or failure of
a Map Attempt on a node.
- JobHistory.ReduceAttempt() - 类 的构造器org.apache.hadoop.mapred.JobHistory.ReduceAttempt
-
- JobHistory.Task - org.apache.hadoop.mapred中的类
-
Helper class for logging or reading back events related to Task's start, finish or failure.
- JobHistory.Task() - 类 的构造器org.apache.hadoop.mapred.JobHistory.Task
-
- JobHistory.TaskAttempt - org.apache.hadoop.mapred中的类
-
Base class for Map and Reduce TaskAttempts.
- JobHistory.TaskAttempt() - 类 的构造器org.apache.hadoop.mapred.JobHistory.TaskAttempt
-
- JobHistory.Values - org.apache.hadoop.mapred中的枚举
-
This enum contains some of the values commonly used by history log events.
- JOBHISTORY_FILENAME_REGEX - 类 中的静态变量org.apache.hadoop.mapred.JobHistory
-
- JobHistoryParser - org.apache.hadoop.tools.rumen中的接口
-
JobHistoryParser
defines the interface of a Job History file parser.
- JobHistoryParserFactory - org.apache.hadoop.tools.rumen中的类
-
JobHistoryParserFactory
is a singleton class that attempts to
determine the version of job history and return a proper parser.
- JobHistoryParserFactory() - 类 的构造器org.apache.hadoop.tools.rumen.JobHistoryParserFactory
-
- JobHistoryParserFactory.VersionDetector - org.apache.hadoop.tools.rumen中的枚举
-
- JobHistoryServer - org.apache.hadoop.mapred中的类
-
JobHistoryServer
is responsible for servicing all job history
related requests from client.
- JobHistoryServer(JobConf) - 类 的构造器org.apache.hadoop.mapred.JobHistoryServer
-
Starts job history server as a independent process
* Initializes ACL Manager
* Starts a webapp to service history requests
- JobHistoryServer(JobConf, ACLsManager, HttpServer) - 类 的构造器org.apache.hadoop.mapred.JobHistoryServer
-
Starts job history server as a embedded server within job tracker
* Starts a webapp to service history requests
- JobHistoryUtils - org.apache.hadoop.tools.rumen中的类
-
- JobHistoryUtils() - 类 的构造器org.apache.hadoop.tools.rumen.JobHistoryUtils
-
- JobID - org.apache.hadoop.mapred中的类
-
JobID represents the immutable and unique identifier for
the job.
- JobID(String, int) - 类 的构造器org.apache.hadoop.mapred.JobID
-
Constructs a JobID object
- JobID() - 类 的构造器org.apache.hadoop.mapred.JobID
-
- JobID - org.apache.hadoop.mapreduce中的类
-
JobID represents the immutable and unique identifier for
the job.
- JobID(String, int) - 类 的构造器org.apache.hadoop.mapreduce.JobID
-
Constructs a JobID object
- JobID() - 类 的构造器org.apache.hadoop.mapreduce.JobID
-
- jobId_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- JOBID_REGEX - 类 中的静态变量org.apache.hadoop.mapreduce.JobID
-
- jobInfo() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- JobInfoChangeEvent - org.apache.hadoop.tools.rumen中的类
-
Event to record changes in the submit and launch time of
a job
- JobInfoChangeEvent(JobID, long, long) - 类 的构造器org.apache.hadoop.tools.rumen.JobInfoChangeEvent
-
Create a event to record the submit and launch time of a job
- JobInitedEvent - org.apache.hadoop.tools.rumen中的类
-
Event to record the initialization of a job
- JobInitedEvent(JobID, long, int, int, String) - 类 的构造器org.apache.hadoop.tools.rumen.JobInitedEvent
-
Create an event to record job initialization
- JobInProgress - org.apache.hadoop.mapred中的类
-
JobInProgress maintains all the info for keeping
a Job on the straight and narrow.
- JobInProgress(JobID, JobConf, JobTracker) - 类 的构造器org.apache.hadoop.mapred.JobInProgress
-
Create an almost empty JobInProgress, which can be used only for tests
- JobInProgress.Counter - org.apache.hadoop.mapred中的枚举
-
- JobLocalizer - org.apache.hadoop.mapred中的类
-
Internal class responsible for initializing the job, not intended for users.
- JobLocalizer(JobConf, String, String) - 类 的构造器org.apache.hadoop.mapred.JobLocalizer
-
- JobLocalizer(JobConf, String, String, String...) - 类 的构造器org.apache.hadoop.mapred.JobLocalizer
-
- JobPriority - org.apache.hadoop.mapred中的枚举
-
Used to describe the priority of the running job.
- JobPriorityChangeEvent - org.apache.hadoop.tools.rumen中的类
-
Event to record the change of priority of a job
- JobPriorityChangeEvent(JobID, JobPriority) - 类 的构造器org.apache.hadoop.tools.rumen.JobPriorityChangeEvent
-
Generate an event to record changes in Job priority
- JobProfile - org.apache.hadoop.mapred中的类
-
A JobProfile is a MapReduce primitive.
- JobProfile() - 类 的构造器org.apache.hadoop.mapred.JobProfile
-
Construct an empty
JobProfile
.
- JobProfile(String, JobID, String, String, String) - 类 的构造器org.apache.hadoop.mapred.JobProfile
-
Construct a
JobProfile
the userid, jobid,
job config-file, job-details url and job name.
- JobProfile(String, JobID, String, String, String, String) - 类 的构造器org.apache.hadoop.mapred.JobProfile
-
Construct a
JobProfile
the userid, jobid,
job config-file, job-details url and job name.
- JobProfile(String, String, String, String, String) - 类 的构造器org.apache.hadoop.mapred.JobProfile
-
已过时。
use JobProfile(String, JobID, String, String, String) instead
- JobQueueInfo - org.apache.hadoop.mapred中的类
-
Class that contains the information regarding the Job Queues which are
maintained by the Hadoop Map/Reduce framework.
- JobQueueInfo() - 类 的构造器org.apache.hadoop.mapred.JobQueueInfo
-
- JobQueueInfo(String, String) - 类 的构造器org.apache.hadoop.mapred.JobQueueInfo
-
Construct a new JobQueueInfo object using the queue name and the
scheduling information passed.
- jobRunStateForCleanup - 类 中的变量org.apache.hadoop.mapred.Task
-
- jobSetup - 类 中的变量org.apache.hadoop.mapred.Task
-
- JobSplit - org.apache.hadoop.mapreduce.split中的类
-
This class groups the fundamental classes associated with
reading/writing splits.
- JobSplit() - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit
-
- JobSplit.SplitMetaInfo - org.apache.hadoop.mapreduce.split中的类
-
This represents the meta information about the task split.
- JobSplit.SplitMetaInfo() - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
-
- JobSplit.SplitMetaInfo(String[], long, long) - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
-
- JobSplit.SplitMetaInfo(InputSplit, long) - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
-
- JobSplit.TaskSplitIndex - org.apache.hadoop.mapreduce.split中的类
-
This represents the meta information about the task split that the
task gets
- JobSplit.TaskSplitIndex() - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitIndex
-
- JobSplit.TaskSplitIndex(String, long) - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitIndex
-
- JobSplit.TaskSplitMetaInfo - org.apache.hadoop.mapreduce.split中的类
-
This represents the meta information about the task split that the
JobTracker creates
- JobSplit.TaskSplitMetaInfo() - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
-
- JobSplit.TaskSplitMetaInfo(JobSplit.TaskSplitIndex, String[], long) - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
-
- JobSplit.TaskSplitMetaInfo(InputSplit, long) - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
-
- JobSplit.TaskSplitMetaInfo(String[], long, long) - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
-
- JobSplitWriter - org.apache.hadoop.mapreduce.split中的类
-
The class that is used by the Job clients to write splits (both the meta
and the raw bytes parts)
- JobSplitWriter() - 类 的构造器org.apache.hadoop.mapreduce.split.JobSplitWriter
-
- JobStartedEvent - org.apache.hadoop.mapreduce.server.tasktracker.userlogs中的类
-
This is an
UserLogEvent
sent when the job starts.
- JobStartedEvent(JobID) - 类 的构造器org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JobStartedEvent
-
Create the event to inform the job has started.
- JobStatus - org.apache.hadoop.mapred中的类
-
Describes the current status of a job.
- JobStatus() - 类 的构造器org.apache.hadoop.mapred.JobStatus
-
- JobStatus(JobID, float, float, float, int) - 类 的构造器org.apache.hadoop.mapred.JobStatus
-
Create a job status object for a given jobid.
- JobStatus(JobID, float, float, int) - 类 的构造器org.apache.hadoop.mapred.JobStatus
-
Create a job status object for a given jobid.
- JobStatus(JobID, float, float, float, int, JobPriority) - 类 的构造器org.apache.hadoop.mapred.JobStatus
-
Create a job status object for a given jobid.
- JobStatus(JobID, float, float, float, float, int, JobPriority) - 类 的构造器org.apache.hadoop.mapred.JobStatus
-
Create a job status object for a given jobid.
- JobStatus - org.apache.hadoop.mapreduce中的类
-
Describes the current status of a job.
- JobStatus() - 类 的构造器org.apache.hadoop.mapreduce.JobStatus
-
- JobStatus.State - org.apache.hadoop.mapreduce中的枚举
-
Current state of the job
- JobStatusChangedEvent - org.apache.hadoop.tools.rumen中的类
-
Event to record the change of status for a job
- JobStatusChangedEvent(JobID, String) - 类 的构造器org.apache.hadoop.tools.rumen.JobStatusChangedEvent
-
Create an event to record the change in the Job Status
- jobsToComplete() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get the jobs that are not completed and not failed.
- jobsToComplete() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- jobsToComplete() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- JobStory - org.apache.hadoop.tools.rumen中的接口
-
JobStory
represents the runtime information available for a
completed Map-Reduce job.
- JobStoryProducer - org.apache.hadoop.tools.rumen中的接口
-
JobStoryProducer
produces the sequence of JobStory
's.
- JobSubmissionFiles - org.apache.hadoop.mapreduce中的类
-
A utility to manage job submission files.
- JobSubmissionFiles() - 类 的构造器org.apache.hadoop.mapreduce.JobSubmissionFiles
-
- jobSubmit(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Submit a job to the Map-Reduce framework.
- JobSubmittedEvent - org.apache.hadoop.tools.rumen中的类
-
Event to record the submission of a job
- JobSubmittedEvent(JobID, String, String, long, String) - 类 的构造器org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
- JobSubmittedEvent(JobID, String, String, long, String, Map<JobACL, AccessControlList>) - 类 的构造器org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
- JobSubmittedEvent(JobID, String, String, long, String, Map<JobACL, AccessControlList>, String, String, String, String, String) - 类 的构造器org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
- JobSubmittedEvent(JobID, String, String, long, String, Map<JobACL, AccessControlList>, String, String, String, String, String, String) - 类 的构造器org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Create an event to record job submission
- JobTokenIdentifier - org.apache.hadoop.mapreduce.security.token中的类
-
The token identifier for job token
- JobTokenIdentifier() - 类 的构造器org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
-
Default constructor
- JobTokenIdentifier(Text) - 类 的构造器org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
-
Create a job token identifier from a jobid
- JobTokenIdentifier.Renewer - org.apache.hadoop.mapreduce.security.token中的类
-
- JobTokenIdentifier.Renewer() - 类 的构造器org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier.Renewer
-
- JobTokenSecretManager - org.apache.hadoop.mapreduce.security.token中的类
-
SecretManager for job token.
- JobTokenSecretManager() - 类 的构造器org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
-
Default constructor
- JobTokenSelector - org.apache.hadoop.mapreduce.security.token中的类
-
Look through tokens to find the first job token that matches the service
and return it.
- JobTokenSelector() - 类 的构造器org.apache.hadoop.mapreduce.security.token.JobTokenSelector
-
- JobTraceReader - org.apache.hadoop.tools.rumen中的类
-
Reading JSON-encoded job traces and produce
LoggedJob
instances.
- JobTraceReader(Path, Configuration) - 类 的构造器org.apache.hadoop.tools.rumen.JobTraceReader
-
Constructor.
- JobTraceReader(InputStream) - 类 的构造器org.apache.hadoop.tools.rumen.JobTraceReader
-
Constructor.
- JobTracker - org.apache.hadoop.mapred中的类
-
JobTracker is the central location for submitting and
tracking MR jobs in a network environment.
- JobTracker.IllegalStateException - org.apache.hadoop.mapred中的异常错误
-
A client tried to submit a job before the Job Tracker was ready.
- JobTracker.IllegalStateException(String) - 异常错误 的构造器org.apache.hadoop.mapred.JobTracker.IllegalStateException
-
- JobTracker.SafeModeAction - org.apache.hadoop.mapred中的枚举
-
JobTracker SafeMode
- JobTracker.State - org.apache.hadoop.mapred中的枚举
-
- JobTrackerMXBean - org.apache.hadoop.mapred中的接口
-
The MXBean interface for JobTrackerInfo
- JobTrackerNotYetInitializedException - org.apache.hadoop.mapred中的异常错误
-
This exception is thrown when the JobTracker is still initializing and
not yet operational.
- JobTrackerNotYetInitializedException() - 异常错误 的构造器org.apache.hadoop.mapred.JobTrackerNotYetInitializedException
-
- JobUnsuccessfulCompletionEvent - org.apache.hadoop.tools.rumen中的类
-
Event to record Failed and Killed completion of jobs
- JobUnsuccessfulCompletionEvent(JobID, long, int, int, String) - 类 的构造器org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
-
Create an event to record unsuccessful completion (killed/failed) of jobs
- Join - org.apache.hadoop.examples中的类
-
This is the trivial map/reduce program that does absolutely nothing
other than use the framework to fragment and sort the input values.
- Join() - 类 的构造器org.apache.hadoop.examples.Join
-
- join() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Wait for service to finish.
- join() - 类 中的方法org.apache.hadoop.http.HttpServer
-
- join() - 类 中的方法org.apache.hadoop.ipc.Server
-
Wait for the server to be stopped.
- join() - 类 中的方法org.apache.hadoop.mapred.JobHistoryServer
-
- join(CharSequence, Iterable<String>) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Concatenates strings, using a separator.
- join(CharSequence, String[]) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Concatenates strings, using a separator.
- join(CharSequence, Object[]) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Concatenates objects, using a separator.
- JoinRecordReader<K extends WritableComparable> - org.apache.hadoop.mapred.join中的类
-
Base class for Composite joins returning Tuples of arbitrary Writables.
- JoinRecordReader(int, JobConf, int, Class<? extends WritableComparator>) - 类 的构造器org.apache.hadoop.mapred.join.JoinRecordReader
-
- JoinRecordReader.JoinDelegationIterator - org.apache.hadoop.mapred.join中的类
-
Since the JoinCollector is effecting our operation, we need only
provide an iterator proxy wrapping its operation.
- JoinRecordReader.JoinDelegationIterator() - 类 的构造器org.apache.hadoop.mapred.join.JoinRecordReader.JoinDelegationIterator
-
- JRecord - org.apache.hadoop.record.compiler中的类
-
- JRecord(String, ArrayList<JField<JType>>) - 类 的构造器org.apache.hadoop.record.compiler.JRecord
-
Creates a new instance of JRecord
- JsonObjectMapperWriter<T> - org.apache.hadoop.tools.rumen中的类
-
Simple wrapper around
JsonGenerator
to write objects in JSON format.
- JsonObjectMapperWriter(OutputStream, boolean) - 类 的构造器org.apache.hadoop.tools.rumen.JsonObjectMapperWriter
-
- JsonUtil - org.apache.hadoop.hdfs.web中的类
-
JSON Utilities
- JsonUtil() - 类 的构造器org.apache.hadoop.hdfs.web.JsonUtil
-
- JspHelper - org.apache.hadoop.hdfs.server.namenode中的类
-
- JspHelper() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- JString - org.apache.hadoop.record.compiler中的类
-
- JString() - 类 的构造器org.apache.hadoop.record.compiler.JString
-
Creates a new instance of JString
- JT_KEYTAB_FILE - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
-
- JT_USER_NAME - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
-
- JType - org.apache.hadoop.record.compiler中的类
-
Abstract Base class for all types supported by Hadoop Record I/O.
- JType() - 类 的构造器org.apache.hadoop.record.compiler.JType
-
- JVector - org.apache.hadoop.record.compiler中的类
-
- JVector(JType) - 类 的构造器org.apache.hadoop.record.compiler.JVector
-
Creates a new instance of JVector
- jvmContext - 类 中的变量org.apache.hadoop.mapred.Task
-
- JvmFinishedEvent - org.apache.hadoop.mapreduce.server.tasktracker.userlogs中的类
-
This is an
UserLogEvent
sent when the jvm finishes.
- JvmFinishedEvent(JVMInfo) - 类 的构造器org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JvmFinishedEvent
-
Create the event to inform that the jvm has finished.
- JVMInfo - org.apache.hadoop.mapreduce.server.tasktracker中的类
-
- JVMInfo(File, List<Task>) - 类 的构造器org.apache.hadoop.mapreduce.server.tasktracker.JVMInfo
-
- JvmMetrics - org.apache.hadoop.metrics.jvm中的类
-
已过时。
in favor of
org.apache.hadoop.metrics2
usage.
- JvmMetricsSource - org.apache.hadoop.metrics2.source中的类
-
- JvmTask - org.apache.hadoop.mapred中的类
-
- JvmTask(Task, boolean) - 类 的构造器org.apache.hadoop.mapred.JvmTask
-
- JvmTask() - 类 的构造器org.apache.hadoop.mapred.JvmTask
-
K
- KerberosAuthenticationHandler - org.apache.hadoop.security.authentication.server中的类
-
The
KerberosAuthenticationHandler
implements the Kerberos SPNEGO authentication mechanism for HTTP.
- KerberosAuthenticationHandler() - 类 的构造器org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
-
- KerberosAuthenticator - org.apache.hadoop.security.authentication.client中的类
-
The
KerberosAuthenticator
implements the Kerberos SPNEGO authentication sequence.
- KerberosAuthenticator() - 类 的构造器org.apache.hadoop.security.authentication.client.KerberosAuthenticator
-
- KerberosInfo - org.apache.hadoop.security中的注释类型
-
Indicates Kerberos related information to be used
- KerberosName - org.apache.hadoop.security中的类
-
This class implements parsing and handling of Kerberos principal names.
- KerberosName(String) - 类 的构造器org.apache.hadoop.security.KerberosName
-
Create a name from the full Kerberos principal name.
- KerberosName.BadFormatString - org.apache.hadoop.security中的异常错误
-
- KerberosName.NoMatchingRule - org.apache.hadoop.security中的异常错误
-
- KerberosUgiAuthenticator - org.apache.hadoop.hdfs.web中的类
-
Use UserGroupInformation as a fallback authenticator
if the server does not use Kerberos SPNEGO HTTP authentication.
- KerberosUgiAuthenticator() - 类 的构造器org.apache.hadoop.hdfs.web.KerberosUgiAuthenticator
-
- KerberosUtil - org.apache.hadoop.security.authentication.util中的类
-
- KerberosUtil() - 类 的构造器org.apache.hadoop.security.authentication.util.KerberosUtil
-
- key() - 类 中的方法org.apache.hadoop.io.ArrayFile.Reader
-
Returns the key associated with the most recent call to
ArrayFile.Reader.seek(long)
, ArrayFile.Reader.next(Writable)
, or ArrayFile.Reader.get(long,Writable)
.
- key() - 接口 中的方法org.apache.hadoop.mapred.join.ComposableRecordReader
-
Return the key this RecordReader would supply on a call to next(K,V)
- key(K) - 接口 中的方法org.apache.hadoop.mapred.join.ComposableRecordReader
-
Clone the key at the head of this RecordReader into the object provided.
- key() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Return the key for the current join or the value at the top of the
RecordReader heap.
- key(K) - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Clone the key at the top of this RR into the given object.
- key() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
-
Return the key at the head of this RR.
- key(K) - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
-
Clone the key at the head of this RR into the object supplied.
- Key - org.apache.hadoop.util.bloom中的类
-
The general behavior of a key that must be stored in a filter.
- Key() - 类 的构造器org.apache.hadoop.util.bloom.Key
-
default constructor - use with readFields
- Key(byte[]) - 类 的构造器org.apache.hadoop.util.bloom.Key
-
Constructor.
- Key(byte[], double) - 类 的构造器org.apache.hadoop.util.bloom.Key
-
Constructor.
- KEY_CLASS - 类 中的静态变量org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
-
- KEY_VALUE_SEPERATOR - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
-
- KeyFieldBasedComparator<K,V> - org.apache.hadoop.mapred.lib中的类
-
This comparator implementation provides a subset of the features provided
by the Unix/GNU Sort.
- KeyFieldBasedComparator() - 类 的构造器org.apache.hadoop.mapred.lib.KeyFieldBasedComparator
-
- KeyFieldBasedComparator<K,V> - org.apache.hadoop.mapreduce.lib.partition中的类
-
This comparator implementation provides a subset of the features provided
by the Unix/GNU Sort.
- KeyFieldBasedComparator() - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
-
- KeyFieldBasedPartitioner<K2,V2> - org.apache.hadoop.mapred.lib中的类
-
Defines a way to partition keys based on certain key fields (also see
KeyFieldBasedComparator
.
- KeyFieldBasedPartitioner() - 类 的构造器org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner
-
- KeyFieldBasedPartitioner<K2,V2> - org.apache.hadoop.mapreduce.lib.partition中的类
-
Defines a way to partition keys based on certain key fields (also see
KeyFieldBasedComparator
.
- KeyFieldBasedPartitioner() - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
-
- keySerializer - 类 中的变量org.apache.hadoop.io.SequenceFile.Writer
-
- keySet() - 类 中的方法org.apache.hadoop.io.MapWritable
- keySet() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- KEYTAB - 类 中的静态变量org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
-
Constant for the configuration property that indicates the keytab file path.
- KeyUpdateCommand - org.apache.hadoop.hdfs.server.protocol中的类
-
- KeyUpdateCommand(ExportedBlockKeys) - 类 的构造器org.apache.hadoop.hdfs.server.protocol.KeyUpdateCommand
-
- KeyValueLineRecordReader - org.apache.hadoop.mapred中的类
-
This class treats a line in the input as a key/value pair separated by a
separator character.
- KeyValueLineRecordReader(Configuration, FileSplit) - 类 的构造器org.apache.hadoop.mapred.KeyValueLineRecordReader
-
- KeyValueLineRecordReader - org.apache.hadoop.mapreduce.lib.input中的类
-
This class treats a line in the input as a key/value pair separated by a
separator character.
- KeyValueLineRecordReader(Configuration) - 类 的构造器org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
-
- KeyValueTextInputFormat - org.apache.hadoop.mapred中的类
-
An
InputFormat
for plain text files.
- KeyValueTextInputFormat() - 类 的构造器org.apache.hadoop.mapred.KeyValueTextInputFormat
-
- KeyValueTextInputFormat - org.apache.hadoop.mapreduce.lib.input中的类
-
An
InputFormat
for plain text files.
- KeyValueTextInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.KeyValueTextInputFormat
-
- kids - 类 中的变量org.apache.hadoop.mapred.join.CompositeRecordReader
-
- kill() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Kill the job and all its component tasks.
- KILLED - 类 中的静态变量org.apache.hadoop.mapred.JobStatus
-
- killJob(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- killJob(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- killJob() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Kill the running job.
- killJob() - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Kill the running job.
- killJob() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- killProcess(String, ProcessTree.Signal) - 类 中的静态方法org.apache.hadoop.util.ProcessTree
-
Sends signal to process, forcefully terminating the process.
- killProcessGroup(String, ProcessTree.Signal) - 类 中的静态方法org.apache.hadoop.util.ProcessTree
-
Sends signal to all process belonging to same process group,
forcefully terminating the process group.
- killTask(TaskAttemptID, boolean) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- killTask(TaskAttemptID, boolean) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- killTask(TaskAttemptID, boolean) - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Kill indicated task attempt.
- killTask(String, boolean) - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
已过时。
Applications should rather use
RunningJob.killTask(TaskAttemptID, boolean)
- killTask(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Kill indicated task attempt.
- kind - 类 中的变量org.apache.hadoop.record.compiler.generated.Token
-
An integer that describes the kind of this token.
- KIND_NAME - 类 中的静态变量org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
-
- KosmosFileSystem - org.apache.hadoop.fs.kfs中的类
-
A FileSystem backed by KFS.
- KosmosFileSystem() - 类 的构造器org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- KRB5_CIPHER_SUITES - 类 中的静态变量org.apache.hadoop.security.Krb5AndCertsSslSocketConnector
-
- KRB5_FILTER - 类 中的静态变量org.apache.hadoop.http.HttpServer
-
- Krb5AndCertsSslSocketConnector - org.apache.hadoop.security中的类
-
Extend Jetty's
SslSocketConnector
to optionally also provide
Kerberos5ized SSL sockets.
- Krb5AndCertsSslSocketConnector() - 类 的构造器org.apache.hadoop.security.Krb5AndCertsSslSocketConnector
-
- Krb5AndCertsSslSocketConnector(Krb5AndCertsSslSocketConnector.MODE) - 类 的构造器org.apache.hadoop.security.Krb5AndCertsSslSocketConnector
-
- Krb5AndCertsSslSocketConnector.Krb5SslFilter - org.apache.hadoop.security中的类
-
Filter that takes the Kerberos principal identified in the
Krb5AndCertsSslSocketConnector
and provides it the to the servlet
at runtime, setting the principal and short name.
- Krb5AndCertsSslSocketConnector.Krb5SslFilter() - 类 的构造器org.apache.hadoop.security.Krb5AndCertsSslSocketConnector.Krb5SslFilter
-
- Krb5AndCertsSslSocketConnector.MODE - org.apache.hadoop.security中的枚举
-
L
- largestNumOfValues - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
-
- LAST_PRE_UPGRADE_LAYOUT_VERSION - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
-
- LAST_UPGRADABLE_HADOOP_VERSION - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
-
- LAST_UPGRADABLE_LAYOUT_VERSION - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
-
- lastKey() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- lastUpdate - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
- launchTask(String, String, String, List<String>, List<String>, File, String, String) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
-
Create all of the directories for the task and launches the child jvm.
- launchTask(String, String, String, List<String>, List<String>, File, String, String) - 类 中的方法org.apache.hadoop.mapred.TaskController
-
Create all of the directories for the task and launches the child jvm.
- launchTaskForJob(TaskTracker.TaskInProgress, JobConf, TaskTracker.RunningJob) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- LAYOUT_VERSION - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
-
- LAYOUT_VERSIONS_203 - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
-
Layout versions of 203 release
- LayoutVersion - org.apache.hadoop.hdfs.protocol中的类
-
This class tracks changes in the layout version of HDFS.
- LayoutVersion() - 类 的构造器org.apache.hadoop.hdfs.protocol.LayoutVersion
-
- layoutVersion - 类 中的变量org.apache.hadoop.hdfs.server.common.StorageInfo
-
- LayoutVersion.Feature - org.apache.hadoop.hdfs.protocol中的枚举
-
Enums for features that change the layout version.
- LazyOutputFormat<K,V> - org.apache.hadoop.mapreduce.lib.output中的类
-
A Convenience class that creates output lazily.
- LazyOutputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.LazyOutputFormat
-
- LBRACE_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- lDirAlloc - 类 中的变量org.apache.hadoop.mapred.Task
-
- LEASE_HARDLIMIT_PERIOD - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
-
- LEASE_RECOVER_PERIOD - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
-
- LEASE_SOFTLIMIT_PERIOD - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
-
- LeaseExpiredException - org.apache.hadoop.hdfs.server.namenode中的异常错误
-
The lease that was being used to create this file has expired.
- LeaseExpiredException(String) - 异常错误 的构造器org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException
-
- leaseManager - 类 中的变量org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- LeaseManager - org.apache.hadoop.hdfs.server.namenode中的类
-
LeaseManager does the lease housekeeping for writing on files.
- LENGTH - 类 中的静态变量org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
-
- LengthParam - org.apache.hadoop.hdfs.web.resources中的类
-
Length parameter.
- LengthParam(Long) - 类 的构造器org.apache.hadoop.hdfs.web.resources.LengthParam
-
Constructor.
- LengthParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.LengthParam
-
Constructor.
- LESSER_ICOST - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
This constant is accessible by subclasses for historical purposes.
- lessThan(Object, Object) - 类 中的方法org.apache.hadoop.util.PriorityQueue
-
Determines the ordering of objects in this priority queue.
- level - 类 中的变量org.apache.hadoop.net.NodeBase
-
- LexicalError(boolean, int, int, int, String, char) - 错误 中的静态方法org.apache.hadoop.record.compiler.generated.TokenMgrError
-
Returns a detailed message for the Error when it is thrown by the
token manager to indicate a lexical error.
- lexStateNames - 类 中的静态变量org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- LightWeightGSet<K,E extends K> - org.apache.hadoop.hdfs.util中的类
-
A low memory footprint
GSet
implementation,
which uses an array for storing the elements
and linked lists for collision resolution.
- LightWeightGSet(int) - 类 的构造器org.apache.hadoop.hdfs.util.LightWeightGSet
-
- LightWeightGSet.LinkedElement - org.apache.hadoop.hdfs.util中的接口
-
Elements of
LightWeightGSet
.
- limitDecimalTo2(double) - 类 中的静态方法org.apache.hadoop.fs.FsShell
-
已过时。
Consider using
StringUtils.limitDecimalTo2(double)
instead.
- limitDecimalTo2(double) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
- line - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- LineDocInputFormat - org.apache.hadoop.contrib.index.example中的类
-
An InputFormat for LineDoc for plain text files where each line is a doc.
- LineDocInputFormat() - 类 的构造器org.apache.hadoop.contrib.index.example.LineDocInputFormat
-
- LineDocLocalAnalysis - org.apache.hadoop.contrib.index.example中的类
-
Convert LineDocTextAndOp to DocumentAndOp as required by ILocalAnalysis.
- LineDocLocalAnalysis() - 类 的构造器org.apache.hadoop.contrib.index.example.LineDocLocalAnalysis
-
- LineDocRecordReader - org.apache.hadoop.contrib.index.example中的类
-
A simple RecordReader for LineDoc for plain text files where each line is a
doc.
- LineDocRecordReader(Configuration, FileSplit) - 类 的构造器org.apache.hadoop.contrib.index.example.LineDocRecordReader
-
Constructor
- LineDocTextAndOp - org.apache.hadoop.contrib.index.example中的类
-
This class represents an operation.
- LineDocTextAndOp() - 类 的构造器org.apache.hadoop.contrib.index.example.LineDocTextAndOp
-
Constructor
- LineReader - org.apache.hadoop.util中的类
-
A class that provides a line reader from an input stream.
- LineReader(InputStream) - 类 的构造器org.apache.hadoop.util.LineReader
-
Create a line reader that reads from the given stream using the
default buffer-size (64k).
- LineReader(InputStream, int) - 类 的构造器org.apache.hadoop.util.LineReader
-
Create a line reader that reads from the given stream using the
given buffer-size.
- LineReader(InputStream, Configuration) - 类 的构造器org.apache.hadoop.util.LineReader
-
Create a line reader that reads from the given stream using the
io.file.buffer.size
specified in the given
Configuration
.
- LineReader(InputStream, byte[]) - 类 的构造器org.apache.hadoop.util.LineReader
-
Create a line reader that reads from the given stream using the
default buffer-size, and using a custom delimiter of array of
bytes.
- LineReader(InputStream, int, byte[]) - 类 的构造器org.apache.hadoop.util.LineReader
-
Create a line reader that reads from the given stream using the
given buffer-size, and using a custom delimiter of array of
bytes.
- LineReader(InputStream, Configuration, byte[]) - 类 的构造器org.apache.hadoop.util.LineReader
-
Create a line reader that reads from the given stream using the
io.file.buffer.size
specified in the given
Configuration
, and using a custom delimiter of array of
bytes.
- LineRecordReader - org.apache.hadoop.mapred中的类
-
Treats keys as offset in file and value as line.
- LineRecordReader(Configuration, FileSplit) - 类 的构造器org.apache.hadoop.mapred.LineRecordReader
-
- LineRecordReader(InputStream, long, long, int) - 类 的构造器org.apache.hadoop.mapred.LineRecordReader
-
- LineRecordReader(InputStream, long, long, Configuration) - 类 的构造器org.apache.hadoop.mapred.LineRecordReader
-
- LineRecordReader - org.apache.hadoop.mapreduce.lib.input中的类
-
Treats keys as offset in file and value as line.
- LineRecordReader() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.LineRecordReader
-
- LineRecordReader.LineReader - org.apache.hadoop.mapred中的类
-
已过时。
Use
LineReader
instead.
- LineRecordReader.LineReader(InputStream, Configuration) - 类 的构造器org.apache.hadoop.mapred.LineRecordReader.LineReader
-
已过时。
- LINES_PER_MAP - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
-
- LINK_URI - 类 中的静态变量org.apache.hadoop.streaming.StreamJob
-
- linkStats - 类 中的变量org.apache.hadoop.fs.HardLink
-
- LinuxMemoryCalculatorPlugin - org.apache.hadoop.util中的类
-
已过时。
Use
LinuxResourceCalculatorPlugin
instead
- LinuxMemoryCalculatorPlugin() - 类 的构造器org.apache.hadoop.util.LinuxMemoryCalculatorPlugin
-
已过时。
- LinuxResourceCalculatorPlugin - org.apache.hadoop.util中的类
-
Plugin to calculate resource information on Linux systems.
- LinuxResourceCalculatorPlugin() - 类 的构造器org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
- LinuxResourceCalculatorPlugin(String, String, String, long) - 类 的构造器org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Constructor which allows assigning the /proc/ directories.
- list() - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
-
- list(File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
A wrapper for
File.list()
.
- listDeepSubPaths(Path) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
-
- listener - 类 中的变量org.apache.hadoop.http.HttpServer
-
- listFiles(File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
A wrapper for
File.listFiles()
.
- listJobConfProperties() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
Prints out the jobconf properties on stdout
when verbose is specified.
- listPaths(String, byte[]) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Get a partial listing of the indicated directory
Recommend to use HdfsFileStatus.EMPTY_NAME as startAfter
if the application wants to fetch a listing starting from
the first entry in the directory
- ListPathsServlet - org.apache.hadoop.hdfs.server.namenode中的类
-
Obtain meta-information about a filesystem.
- ListPathsServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.ListPathsServlet
-
- listStatus(Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
List the statuses of the files/directories in the given path if the path is
a directory.
- listStatus(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
List the statuses of the files/directories in the given path if the path is
a directory.
- listStatus(Path, PathFilter) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Filter files/directories in the given path using the user-supplied path
filter.
- listStatus(Path[]) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Filter files/directories in the given list of paths using default
path filter.
- listStatus(Path[], PathFilter) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Filter files/directories in the given list of paths using user-supplied
path filter.
- listStatus(Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
List files in a directory.
- listStatus(Path) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
-
- listStatus(Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
liststatus returns the children of a directory
after looking up the index files.
- listStatus(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- listStatus(Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- listStatus(Path) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
- listStatus(Path) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
If
f
is a file, this method will make a single call to S3.
- listStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
List all the entries of a directory
Note that this operation is not atomic for a large directory.
- listStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- listStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- listStatus(JobConf) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
-
List input directories.
- listStatus(JobConf) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFormat
-
- listStatus(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
List input directories.
- listStatus(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFormat
-
- listSubPaths(Path) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
-
- ljustify(String, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- lmthread - 类 中的变量org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- load(Configuration, String, Class<K>) - 类 中的静态方法org.apache.hadoop.io.DefaultStringifier
-
Restores the object from the configuration.
- loadArray(Configuration, String, Class<K>) - 类 中的静态方法org.apache.hadoop.io.DefaultStringifier
-
Restores the array of objects from the configuration.
- loadSecretManagerState(DataInputStream) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
-
Load SecretManager state from fsimage.
- LoadSnappy - org.apache.hadoop.io.compress.snappy中的类
-
Determines if Snappy native library is available and loads it if available.
- LoadSnappy() - 类 的构造器org.apache.hadoop.io.compress.snappy.LoadSnappy
-
- loadTokens(String, Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
-
load job token from a file
- LoadTypedBytes - org.apache.hadoop.streaming中的类
-
Utility program that reads typed bytes from standard input and stores them in
a sequence file for which the path is given as an argument.
- LoadTypedBytes(Configuration) - 类 的构造器org.apache.hadoop.streaming.LoadTypedBytes
-
- LoadTypedBytes() - 类 的构造器org.apache.hadoop.streaming.LoadTypedBytes
-
- LOCAL_MAX_MAPS - 类 中的静态变量org.apache.hadoop.mapred.LocalJobRunner
-
- LocalDirAllocator - org.apache.hadoop.fs中的类
-
An implementation of a round-robin scheme for disk allocation for creating
files.
- LocalDirAllocator(String) - 类 的构造器org.apache.hadoop.fs.LocalDirAllocator
-
Create an allocator object
- LocalFileSystem - org.apache.hadoop.fs中的类
-
Implement the FileSystem API for the checksumed local filesystem.
- LocalFileSystem() - 类 的构造器org.apache.hadoop.fs.LocalFileSystem
-
- LocalFileSystem(FileSystem) - 类 的构造器org.apache.hadoop.fs.LocalFileSystem
-
- localHadoop_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- localizeBin(String) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- localizeConfiguration(JobConf) - 类 中的方法org.apache.hadoop.mapred.Task
-
Localize the given JobConf to be specific for this task.
- localizeJobFiles(JobID, JobConf, Path, TaskUmbilicalProtocol) - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
-
- localizeJobFiles(JobID, JobConf, Path, Path, TaskUmbilicalProtocol) - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
-
- Localizer - org.apache.hadoop.mapreduce.server.tasktracker中的类
-
NOTE: This class is internal only and not intended for users!!
- Localizer(FileSystem, String[]) - 类 的构造器org.apache.hadoop.mapreduce.server.tasktracker.Localizer
-
Create a Localizer instance
- LocalJobRunner - org.apache.hadoop.mapred中的类
-
Implements MapReduce locally, in-process, for debugging.
- LocalJobRunner(JobConf) - 类 的构造器org.apache.hadoop.mapred.LocalJobRunner
-
- localRunnerNotification(JobConf, JobStatus) - 类 中的静态方法org.apache.hadoop.mapred.JobEndNotifier
-
- localStorage - 类 中的变量org.apache.hadoop.mapred.TaskController
-
- LocatedBlock - org.apache.hadoop.hdfs.protocol中的类
-
A LocatedBlock is a pair of Block, DatanodeInfo[]
objects.
- LocatedBlock() - 类 的构造器org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- LocatedBlock(Block, DatanodeInfo[]) - 类 的构造器org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- LocatedBlock(Block, DatanodeInfo[], long) - 类 的构造器org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- LocatedBlock(Block, DatanodeInfo[], long, boolean) - 类 的构造器org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- locatedBlockCount() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
-
Get number of located blocks.
- LocatedBlocks - org.apache.hadoop.hdfs.protocol中的类
-
Collection of blocks with their locations and the file length.
- LocatedBlocks(long, List<LocatedBlock>, boolean) - 类 的构造器org.apache.hadoop.hdfs.protocol.LocatedBlocks
-
- locatedBlocks2Locations(LocatedBlocks) - 类 中的静态方法org.apache.hadoop.hdfs.DFSUtil
-
Convert a LocatedBlocks to BlockLocations[]
- location - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
- location - 类 中的变量org.apache.hadoop.net.NodeBase
-
- lock(Path, boolean) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
已过时。
- lock() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
Lock storage to provide exclusive access.
- LOG - 类 中的静态变量org.apache.hadoop.contrib.index.main.UpdateIndex
-
- LOG - 类 中的静态变量org.apache.hadoop.contrib.index.mapred.IndexUpdater
-
- LOG - 类 中的静态变量org.apache.hadoop.contrib.utils.join.JobBase
-
- LOG - 类 中的静态变量org.apache.hadoop.fs.FileSystem
-
- LOG - 类 中的静态变量org.apache.hadoop.fs.FSInputChecker
-
- LOG - 类 中的静态变量org.apache.hadoop.fs.ftp.FTPFileSystem
-
- LOG - 类 中的静态变量org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
- LOG - 类 中的静态变量org.apache.hadoop.hdfs.DFSClient
-
- LOG - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientDatanodeProtocol
-
- LOG - 类 中的静态变量org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
-
- LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
-
- LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.datanode.DataNode
-
- LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.datanode.web.resources.DatanodeWebHdfsMethods
-
- LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.FSEditLog
-
- LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.LeaseManager
-
- LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.MetaRecoveryContext
-
- LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.NameNode
-
- LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.NamenodeFsck
-
- LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
-
- LOG - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
-
- LOG - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.InterDatanodeProtocol
-
- LOG - 类 中的静态变量org.apache.hadoop.hdfs.tools.offlineImageViewer.OfflineImageViewer
-
- LOG - 类 中的静态变量org.apache.hadoop.hdfs.util.LightWeightGSet
-
- LOG - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.ExceptionHandler
-
- LOG - 类 中的静态变量org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- LOG - 类 中的静态变量org.apache.hadoop.http.HttpServer
-
- LOG - 类 中的静态变量org.apache.hadoop.io.compress.CompressionCodecFactory
-
- LOG - 类 中的静态变量org.apache.hadoop.io.retry.RetryUtils
-
- LOG - 类 中的静态变量org.apache.hadoop.ipc.Client
-
- LOG - 类 中的静态变量org.apache.hadoop.ipc.Server
-
- LOG - 类 中的静态变量org.apache.hadoop.mapred.CleanupQueue
-
- log(Log) - 类 中的方法org.apache.hadoop.mapred.Counters
-
Logs the current counter values.
- LOG - 类 中的静态变量org.apache.hadoop.mapred.FileInputFormat
-
- LOG - 类 中的静态变量org.apache.hadoop.mapred.FileOutputCommitter
-
- LOG - 类 中的静态变量org.apache.hadoop.mapred.HDFSMonitorThread
-
- LOG - 类 中的静态变量org.apache.hadoop.mapred.JobHistory
-
- LOG - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
-
- LOG - 类 中的静态变量org.apache.hadoop.mapred.lib.FieldSelectionMapReduce
-
- LOG - 类 中的静态变量org.apache.hadoop.mapred.LocalJobRunner
-
- LOG - 类 中的静态变量org.apache.hadoop.mapred.pipes.Submitter
-
- LOG - 类 中的静态变量org.apache.hadoop.mapred.ShuffleExceptionTracker
-
- LOG - 类 中的静态变量org.apache.hadoop.mapred.TaskController
-
- LOG - 类 中的静态变量org.apache.hadoop.mapred.TaskTracker
-
- LOG - 类 中的静态变量org.apache.hadoop.mapred.TaskTrackerStatus
-
- LOG - 类 中的静态变量org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionMapper
-
- LOG - 类 中的静态变量org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionReducer
-
- LOG - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter
-
- LOG - 类 中的静态变量org.apache.hadoop.metrics.MetricsUtil
-
已过时。
- LOG - 类 中的变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
-
- LOG - 类 中的变量org.apache.hadoop.metrics2.sink.ganglia.GangliaSink30
-
- LOG - 类 中的变量org.apache.hadoop.metrics2.sink.ganglia.GangliaSink31
-
- LOG - 类 中的静态变量org.apache.hadoop.net.DNS
-
- LOG - 类 中的静态变量org.apache.hadoop.net.NetworkTopology
-
- LOG - 类 中的静态变量org.apache.hadoop.security.SaslInputStream
-
- LOG - 类 中的静态变量org.apache.hadoop.security.SaslRpcClient
-
- LOG - 类 中的静态变量org.apache.hadoop.security.SaslRpcServer
-
- LOG - 类 中的静态变量org.apache.hadoop.security.SecurityUtil
-
- LOG - 类 中的静态变量org.apache.hadoop.security.token.Token
-
- LOG - 类 中的静态变量org.apache.hadoop.streaming.PipeMapRed
-
- LOG - 类 中的静态变量org.apache.hadoop.streaming.StreamBaseRecordReader
-
- LOG - 类 中的静态变量org.apache.hadoop.streaming.StreamJob
-
- LOG - 类 中的静态变量org.apache.hadoop.tools.DistCp
-
- LOG - 类 中的静态变量org.apache.hadoop.util.Shell
-
- Logalyzer - org.apache.hadoop.tools中的类
-
Logalyzer: A utility tool for archiving and analyzing hadoop logs.
- Logalyzer() - 类 的构造器org.apache.hadoop.tools.Logalyzer
-
- Logalyzer.LogComparator - org.apache.hadoop.tools中的类
-
A WritableComparator optimized for UTF8 keys of the logs.
- Logalyzer.LogComparator() - 类 的构造器org.apache.hadoop.tools.Logalyzer.LogComparator
-
- Logalyzer.LogRegexMapper<K extends WritableComparable> - org.apache.hadoop.tools中的类
-
A
Mapper
that extracts text matching a regular expression.
- Logalyzer.LogRegexMapper() - 类 的构造器org.apache.hadoop.tools.Logalyzer.LogRegexMapper
-
- logCloseFile(String, INodeFile) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSEditLog
-
Add close lease record to edit log.
- logFailed(JobID, long, int, int, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Logs job failed event.
- logFailed(TaskAttemptID, long, String, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
-
- logFailed(TaskAttemptID, long, String, String, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
-
Log task attempt failed event.
- logFailed(TaskAttemptID, long, String, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
-
- logFailed(TaskAttemptID, long, String, String, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
-
Log failed reduce task attempt.
- logFailed(TaskID, String, long, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.Task
-
Log job failed event.
- logFailed(TaskID, String, long, String, TaskAttemptID) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.Task
-
- logFinished(JobID, long, int, int, int, int, Counters, Counters, Counters) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Log job finished. closes the job file in history.
- logFinished(TaskAttemptID, long, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
-
- logFinished(TaskAttemptID, long, String, String, String, Counters) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
-
Log finish time of map task attempt.
- logFinished(TaskAttemptID, long, long, long, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
-
- logFinished(TaskAttemptID, long, long, long, String, String, String, Counters) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
-
Log finished event of this task.
- logFinished(TaskID, String, long, Counters) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.Task
-
Log finish time of task.
- LoggedDiscreteCDF - org.apache.hadoop.tools.rumen中的类
-
A
LoggedDiscreteCDF
is a discrete approximation of a cumulative
distribution function, with this class set up to meet the requirements of the
Jackson JSON parser/generator.
- LoggedDiscreteCDF() - 类 的构造器org.apache.hadoop.tools.rumen.LoggedDiscreteCDF
-
- LoggedJob - org.apache.hadoop.tools.rumen中的类
-
A
LoggedDiscreteCDF
is a representation of an hadoop job, with the
details of this class set up to meet the requirements of the Jackson JSON
parser/generator.
- LoggedJob.JobPriority - org.apache.hadoop.tools.rumen中的枚举
-
- LoggedJob.JobType - org.apache.hadoop.tools.rumen中的枚举
-
- LoggedLocation - org.apache.hadoop.tools.rumen中的类
-
A
LoggedLocation
is a representation of a point in an hierarchical
network, represented as a series of membership names, broadest first.
- LoggedLocation() - 类 的构造器org.apache.hadoop.tools.rumen.LoggedLocation
-
- LoggedNetworkTopology - org.apache.hadoop.tools.rumen中的类
-
A
LoggedNetworkTopology
represents a tree that in turn represents a
hierarchy of hosts.
- LoggedNetworkTopology() - 类 的构造器org.apache.hadoop.tools.rumen.LoggedNetworkTopology
-
- LoggedSingleRelativeRanking - org.apache.hadoop.tools.rumen中的类
-
A
LoggedSingleRelativeRanking
represents an X-Y coordinate of a
single point in a discrete CDF.
- LoggedSingleRelativeRanking() - 类 的构造器org.apache.hadoop.tools.rumen.LoggedSingleRelativeRanking
-
- LoggedTask - org.apache.hadoop.tools.rumen中的类
-
A
LoggedTask
represents a [hadoop] task that is part of a hadoop job.
- LoggedTaskAttempt - org.apache.hadoop.tools.rumen中的类
-
A
LoggedTaskAttempt
represents an attempt to run an hadoop task in a
hadoop job.
- login(Configuration, String, String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
If a keytab has been provided, login as that user.
- login(Configuration, String, String, String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
If a keytab has been provided, login as that user.
- login() - 类 中的方法org.apache.hadoop.security.UserGroupInformation.HadoopLoginModule
-
- logInited(JobID, long, int, int) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Logs launch time of job.
- loginUserFromKeytab(String, String) - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
-
Log a user in from a keytab file.
- loginUserFromKeytabAndReturnUGI(String, String) - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
-
Log a user in from a keytab file.
- logJobInfo(JobID, long, long, int) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
已过时。
Use
JobHistory.JobInfo.logJobInfo(JobID, long, long)
instead.
- logJobInfo(JobID, long, long) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
- logJobPriority(JobID, JobPriority) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Log job's priority.
- logKilled(JobID, long, int, int) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Logs job killed event.
- logKilled(TaskAttemptID, long, String, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
-
- logKilled(TaskAttemptID, long, String, String, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
-
Log task attempt killed event.
- logKilled(TaskAttemptID, long, String, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
-
- logKilled(TaskAttemptID, long, String, String, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
-
Log killed reduce task attempt.
- LogLevel - org.apache.hadoop.log中的类
-
Change log level in runtime.
- LogLevel() - 类 的构造器org.apache.hadoop.log.LogLevel
-
- LogLevel.Servlet - org.apache.hadoop.log中的类
-
A servlet implementation
- LogLevel.Servlet() - 类 的构造器org.apache.hadoop.log.LogLevel.Servlet
-
- logMkDir(String, INode) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSEditLog
-
Add create directory record to edit log
- logOpenFile(String, INodeFileUnderConstruction) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSEditLog
-
Add open lease record to edit log.
- logout() - 类 中的方法org.apache.hadoop.security.UserGroupInformation.HadoopLoginModule
-
- logOutput(String) - 类 中的方法org.apache.hadoop.mapred.TaskController
-
- logSpec() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJobBase
-
- logStarted(JobID, long, int, int) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
- logStarted(JobID) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Logs job as running
- logStarted(TaskAttemptID, long, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
-
- logStarted(TaskAttemptID, long, String, int, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
-
已过时。
- logStarted(TaskAttemptID, long, String, int, String, Locality, Avataar) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.MapAttempt
-
Log start time of this map task attempt.
- logStarted(TaskAttemptID, long, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
-
- logStarted(TaskAttemptID, long, String, int, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
-
已过时。
- logStarted(TaskAttemptID, long, String, int, String, Locality, Avataar) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.ReduceAttempt
-
Log start time of Reduce task attempt.
- logStarted(TaskID, String, long, String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.Task
-
Log start time of task (TIP).
- logSubmitted(JobID, JobConf, String, long) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
已过时。
- logSubmitted(JobID, JobConf, String, long, boolean) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
- logSync() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSEditLog
-
- logThreadInfo(Log, String, long) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
-
Log the current thread stacks at INFO level.
- logUpdateMasterKey(DelegationKey) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
-
Call namesystem to update editlogs for new master key.
- logUpdateMasterKey(DelegationKey) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Log the updateMasterKey operation to edit logs
- logUpdateMasterKey(DelegationKey) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
- logUpdates(TaskID, long) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.Task
-
Update the finish time of task.
- LONG - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
-
- LONG_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- LONG_VALUE_MAX - 类 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
-
- LONG_VALUE_MIN - 类 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
-
- LONG_VALUE_SUM - 类 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
-
- LongSumReducer<K> - org.apache.hadoop.mapred.lib中的类
-
A
Reducer
that sums long values.
- LongSumReducer() - 类 的构造器org.apache.hadoop.mapred.lib.LongSumReducer
-
- LongSumReducer<KEY> - org.apache.hadoop.mapreduce.lib.reduce中的类
-
- LongSumReducer() - 类 的构造器org.apache.hadoop.mapreduce.lib.reduce.LongSumReducer
-
- LongTypeID - 类 中的静态变量org.apache.hadoop.record.meta.TypeID
-
- LongValueMax - org.apache.hadoop.mapred.lib.aggregate中的类
-
This class implements a value aggregator that maintain the maximum of
a sequence of long values.
- LongValueMax() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.LongValueMax
-
the default constructor
- LongValueMin - org.apache.hadoop.mapred.lib.aggregate中的类
-
This class implements a value aggregator that maintain the minimum of
a sequence of long values.
- LongValueMin() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.LongValueMin
-
the default constructor
- LongValueSum - org.apache.hadoop.mapred.lib.aggregate中的类
-
This class implements a value aggregator that sums up
a sequence of long values.
- LongValueSum() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.LongValueSum
-
the default constructor
- LongWritable - org.apache.hadoop.io中的类
-
A WritableComparable for longs.
- LongWritable() - 类 的构造器org.apache.hadoop.io.LongWritable
-
- LongWritable(long) - 类 的构造器org.apache.hadoop.io.LongWritable
-
- LongWritable.Comparator - org.apache.hadoop.io中的类
-
A Comparator optimized for LongWritable.
- LongWritable.Comparator() - 类 的构造器org.apache.hadoop.io.LongWritable.Comparator
-
- LongWritable.DecreasingComparator - org.apache.hadoop.io中的类
-
A decreasing Comparator optimized for LongWritable.
- LongWritable.DecreasingComparator() - 类 的构造器org.apache.hadoop.io.LongWritable.DecreasingComparator
-
- lowerBound(byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
-
Move the cursor to the first entry whose key is greater than or equal
to the input key.
- lowerBound(byte[], int, int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
-
Move the cursor to the first entry whose key is greater than or equal
to the input key.
- lowerBound(List<? extends T>, T, Comparator<? super T>) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
-
Lower bound binary search.
- lowerBound(List<? extends Comparable<? super T>>, T) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
-
Lower bound binary search.
- LT_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- LuceneUtil - org.apache.hadoop.contrib.index.lucene中的类
-
This class copies some methods from Lucene's SegmentInfos since that class
is not public.
- LuceneUtil() - 类 的构造器org.apache.hadoop.contrib.index.lucene.LuceneUtil
-
M
- MachineNode - org.apache.hadoop.tools.rumen中的类
-
MachineNode
represents the configuration of a cluster node.
- MachineNode.Builder - org.apache.hadoop.tools.rumen中的类
-
Builder for a NodeInfo object
- MachineNode.Builder(String, int) - 类 的构造器org.apache.hadoop.tools.rumen.MachineNode.Builder
-
Start building a new NodeInfo object.
- machineNodes - 类 中的变量org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.conf.Configuration
-
For debugging.
- main(String[]) - 类 中的静态方法org.apache.hadoop.contrib.index.main.UpdateIndex
-
The main() method
- main(String[]) - 类 中的静态方法org.apache.hadoop.contrib.utils.join.DataJoinJob
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.AggregateWordCount
-
The main driver for word count map/reduce program.
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.AggregateWordHistogram
-
The main driver for word count map/reduce program.
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.dancing.DistributedPentomino
-
Launch the solver on 9x10 board and the one sided pentominos.
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.dancing.OneSidedPentomino
-
Solve the 3x30 puzzle.
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.dancing.Pentomino
-
Solve the 6x10 pentomino puzzle.
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.dancing.Sudoku
-
Solves a set of sudoku puzzles.
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.DBCountPageView
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.ExampleDriver
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.Grep
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.Join
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.MultiFileWordCount
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.PiEstimator
-
main method for running it as a stand alone command.
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.RandomTextWriter
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.RandomWriter
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.SecondarySort
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.SleepJob
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.Sort
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.terasort.TeraGen
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.terasort.TeraSort
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.terasort.TeraValidate
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.examples.WordCount
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.fs.DF
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.fs.DU
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.fs.FsShell
-
main() has some simple utility methods
- main(String[]) - 类 中的静态方法org.apache.hadoop.fs.s3.MigrationTool
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.fs.Trash
-
Run an emptier.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hdfs.server.balancer.Balancer
-
Run a balancer
- main(String[]) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
-
main() has some simple utility methods.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DelegationTokenFetcher
-
Command-line interface
- main(String[]) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
main() has some simple utility methods.
- main(String[]) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DFSck
-
- main(String...) - 类 中的静态方法org.apache.hadoop.hdfs.tools.HDFSConcat
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.hdfs.tools.offlineImageViewer.OfflineImageViewer
-
Entry point to command-line-driven operation.
- main(String[]) - 类 中的静态方法org.apache.hadoop.http.HtmlQuoting
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.io.compress.CompressionCodecFactory
-
A little test program.
- main(String[]) - 类 中的静态方法org.apache.hadoop.io.file.tfile.TFile
-
Dumping the TFile information.
- main(String[]) - 类 中的静态方法org.apache.hadoop.io.MapFile
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.log.LogLevel
-
A command line implementation
- main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.IsolationRunner
-
Run a single task.
- main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.JobClient
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.JobHistoryServer
-
Start job history server as an independent process
- main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.JobLocalizer
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
-
Start the JobTracker process.
- main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
-
create and run an Aggregate based map/reduce job.
- main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.lib.InputSampler
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Submit a pipes job based on the command line arguments.
- main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.TaskLogsTruncater
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
-
Start the TaskTracker, point toward the indicated JobTracker
- main(String[]) - 类 中的静态方法org.apache.hadoop.mapred.tools.MRAdmin
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.InputSampler
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.record.compiler.generated.Rcc
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.security.KerberosName
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
-
A test method to print out the current user's UGI.
- main(String[]) - 类 中的静态方法org.apache.hadoop.streaming.DumpTypedBytes
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.streaming.HadoopStreaming
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.streaming.JarBuilder
-
Test program
- main(String[]) - 类 中的静态方法org.apache.hadoop.streaming.LoadTypedBytes
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.streaming.PathFinder
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.tools.DistCh
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.tools.DistCp
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.tools.distcp2.DistCp
-
Main function of the DistCp program.
- main(String[]) - 类 中的静态方法org.apache.hadoop.tools.HadoopArchives
-
the main functions
- main(String[]) - 类 中的静态方法org.apache.hadoop.tools.Logalyzer
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.tools.rumen.HadoopLogsAnalyzer
-
已过时。
- main(String[]) - 类 中的静态方法org.apache.hadoop.tools.rumen.TraceBuilder
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.util.hash.JenkinsHash
-
Compute the hash of the specified file
- main(String[]) - 类 中的静态方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Test the
LinuxResourceCalculatorPlugin
- main(String[]) - 类 中的静态方法org.apache.hadoop.util.PlatformName
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.util.PrintJarMainClass
-
- main(String[]) - 类 中的静态方法org.apache.hadoop.util.RunJar
-
Run a Hadoop job jar.
- main(String[]) - 类 中的静态方法org.apache.hadoop.util.VersionInfo
-
- makeClassLoader(ClassLoader) - 类 中的方法org.apache.hadoop.filecache.TaskDistributedCacheManager
-
Creates a class loader that includes the designated
files and archives.
- makeCompactString() - 类 中的方法org.apache.hadoop.mapred.Counters
-
Convert a counters object into a single line that is easy to parse.
- makeComparator(String) - 类 中的静态方法org.apache.hadoop.io.file.tfile.TFile
-
Make a raw comparator from a string name.
- makeEscapedCompactString() - 类 中的方法org.apache.hadoop.mapred.Counters.Counter
-
Returns the compact stringified version of the counter in the format
[(actual-name)(display-name)(value)]
- makeEscapedCompactString() - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
Returns the compact stringified version of the group in the format
{(actual-name)(display-name)(value)[][][]} where [] are compact strings for the
counters within.
- makeEscapedCompactString() - 类 中的方法org.apache.hadoop.mapred.Counters
-
Represent the counter in a textual format that can be converted back to
its object form
- makeInstance(String[], Configuration, SecureDataNodeStarter.SecureResources) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Make an instance of DataNode after ensuring that at least one of the
given data directories (and their parent directories, if necessary)
can be created.
- makeJavaCommand(Class, String[]) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- makeLock(String) - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
-
- makeQualified(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Make sure that a path specifies a FileSystem.
- makeQualified(Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Make sure that a path specifies a FileSystem.
- makeQualified(Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
- makeQualified(FileSystem) - 类 中的方法org.apache.hadoop.fs.Path
-
Returns a qualified path object.
- makeQualified(URI, Path) - 类 中的方法org.apache.hadoop.fs.Path
-
Returns a qualified path object.
- makeShellPath(String) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Convert a os-native filename to a path that works for the shell.
- makeShellPath(File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Convert a os-native filename to a path that works for the shell.
- makeShellPath(File, boolean) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Convert a os-native filename to a path that works for the shell.
- makeSocketAddr(String, int) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Create a socket address with the given host and port.
- map(DocumentID, DocumentAndOp, OutputCollector<DocumentID, DocumentAndOp>, Reporter) - 类 中的方法org.apache.hadoop.contrib.index.example.IdentityLocalAnalysis
-
- map(DocumentID, LineDocTextAndOp, OutputCollector<DocumentID, DocumentAndOp>, Reporter) - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocLocalAnalysis
-
- map(K, V, OutputCollector<Shard, IntermediateForm>, Reporter) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateMapper
-
Map a key-value pair to a shard-and-intermediate form pair.
- map(Object, Object, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
-
- map(Object, Object, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
-
- map(WritableComparable, Text, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.examples.dancing.DistributedPentomino.PentMap
-
Break the prefix string into moves (a sequence of integer row ids that
will be selected for each column in order).
- map(MultiFileWordCount.WordOffset, Text, OutputCollector<Text, LongWritable>, Reporter) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MapClass
-
- map(LongWritable, LongWritable, OutputCollector<BooleanWritable, LongWritable>, Reporter) - 类 中的方法org.apache.hadoop.examples.PiEstimator.PiMapper
-
Map method.
- map(LongWritable, Text, Mapper<LongWritable, Text, SecondarySort.IntPair, IntWritable>.Context) - 类 中的方法org.apache.hadoop.examples.SecondarySort.MapClass
-
- map(IntWritable, IntWritable, OutputCollector<IntWritable, NullWritable>, Reporter) - 类 中的方法org.apache.hadoop.examples.SleepJob
-
- map(LongWritable, NullWritable, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.examples.terasort.TeraGen.SortGenMapper
-
- map(Object, Text, Mapper<Object, Text, Text, IntWritable>.Context) - 类 中的方法org.apache.hadoop.examples.WordCount.TokenizerMapper
-
- map(K1, V1, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorCombiner
-
Do nothing.
- map(K1, V1, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorMapper
-
the map function.
- map(K1, V1, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorReducer
-
Do nothing.
- map(Object, Object, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.ChainMapper
-
Chains the
map(...)
- map(K1, V1, OutputCollector<K2, V2>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.DelegatingMapper
-
- map(K, V, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.FieldSelectionMapReduce
-
The identify function.
- map(K, V, OutputCollector<K, V>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.IdentityMapper
-
The identify function.
- map(K, V, OutputCollector<V, K>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.InverseMapper
-
The inverse function.
- map(K, Text, OutputCollector<Text, LongWritable>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.RegexMapper
-
- map(K, Text, OutputCollector<Text, LongWritable>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.TokenCountMapper
-
- map(K1, V1, OutputCollector<K2, V2>, Reporter) - 接口 中的方法org.apache.hadoop.mapred.Mapper
-
Maps a single input key/value pair into an intermediate key/value pair.
- map(K, V, Mapper<K, V, Text, Text>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionMapper
-
The identify function.
- map(K, V, Mapper<K, V, V, K>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.map.InverseMapper
-
The inverse function.
- map(Object, Text, Mapper<Object, Text, Text, IntWritable>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.map.TokenCounterMapper
-
- map(KEYIN, VALUEIN, Mapper<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Mapper
-
Called once for each key/value pair in the input split.
- Map() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- MAP - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
-
- map(Object, Object, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.streaming.PipeMapper
-
- map(Text, FileStatus, Mapper<Text, FileStatus, Text, Text>.Context) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.CopyMapper
-
Implementation of the Mapper<>::map().
- map(K, Text, OutputCollector<Text, LongWritable>, Reporter) - 类 中的方法org.apache.hadoop.tools.Logalyzer.LogRegexMapper
-
- MAP_CLASS_ATTR - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
-
- MAP_OUTPUT_KEY_VALUE_SPEC - 类 中的静态变量org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
-
- MAP_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- MapAttempt20LineHistoryEventEmitter - org.apache.hadoop.tools.rumen中的类
-
- MapAttempt20LineHistoryEventEmitter() - 类 的构造器org.apache.hadoop.tools.rumen.MapAttempt20LineHistoryEventEmitter
-
- MapAttemptFinishedEvent - org.apache.hadoop.tools.rumen中的类
-
Event to record successful completion of a map attempt
- MapAttemptFinishedEvent(TaskAttemptID, TaskType, String, long, long, String, String, Counters) - 类 的构造器org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Create an event for successful completion of map attempts
- mapCmd_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- MapContext<KEYIN,VALUEIN,KEYOUT,VALUEOUT> - org.apache.hadoop.mapreduce中的类
-
The context that is given to the
Mapper
.
- MapContext(Configuration, TaskAttemptID, RecordReader<KEYIN, VALUEIN>, RecordWriter<KEYOUT, VALUEOUT>, OutputCommitter, StatusReporter, InputSplit) - 类 的构造器org.apache.hadoop.mapreduce.MapContext
-
- mapDebugSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- MapFile - org.apache.hadoop.io中的类
-
A file-based map from keys to values.
- MapFile() - 类 的构造器org.apache.hadoop.io.MapFile
-
- MapFile.Reader - org.apache.hadoop.io中的类
-
Provide access to an existing map.
- MapFile.Reader(FileSystem, String, Configuration) - 类 的构造器org.apache.hadoop.io.MapFile.Reader
-
Construct a map reader for the named map.
- MapFile.Reader(FileSystem, String, WritableComparator, Configuration) - 类 的构造器org.apache.hadoop.io.MapFile.Reader
-
Construct a map reader for the named map using the named comparator.
- MapFile.Reader(FileSystem, String, WritableComparator, Configuration, boolean) - 类 的构造器org.apache.hadoop.io.MapFile.Reader
-
Hook to allow subclasses to defer opening streams until further
initialization is complete.
- MapFile.Writer - org.apache.hadoop.io中的类
-
Writes a new map.
- MapFile.Writer(Configuration, FileSystem, String, Class<? extends WritableComparable>, Class) - 类 的构造器org.apache.hadoop.io.MapFile.Writer
-
Create the named map for keys of the named class.
- MapFile.Writer(Configuration, FileSystem, String, Class<? extends WritableComparable>, Class, SequenceFile.CompressionType, Progressable) - 类 的构造器org.apache.hadoop.io.MapFile.Writer
-
Create the named map for keys of the named class.
- MapFile.Writer(Configuration, FileSystem, String, Class<? extends WritableComparable>, Class, SequenceFile.CompressionType, CompressionCodec, Progressable) - 类 的构造器org.apache.hadoop.io.MapFile.Writer
-
Create the named map for keys of the named class.
- MapFile.Writer(Configuration, FileSystem, String, Class<? extends WritableComparable>, Class, SequenceFile.CompressionType) - 类 的构造器org.apache.hadoop.io.MapFile.Writer
-
Create the named map for keys of the named class.
- MapFile.Writer(Configuration, FileSystem, String, WritableComparator, Class) - 类 的构造器org.apache.hadoop.io.MapFile.Writer
-
Create the named map using the named key comparator.
- MapFile.Writer(Configuration, FileSystem, String, WritableComparator, Class, SequenceFile.CompressionType) - 类 的构造器org.apache.hadoop.io.MapFile.Writer
-
Create the named map using the named key comparator.
- MapFile.Writer(Configuration, FileSystem, String, WritableComparator, Class, SequenceFile.CompressionType, Progressable) - 类 的构造器org.apache.hadoop.io.MapFile.Writer
-
Create the named map using the named key comparator.
- MapFile.Writer(Configuration, FileSystem, String, WritableComparator, Class, SequenceFile.CompressionType, CompressionCodec, Progressable) - 类 的构造器org.apache.hadoop.io.MapFile.Writer
-
Create the named map using the named key comparator.
- MapFileOutputFormat - org.apache.hadoop.mapred中的类
-
An
OutputFormat
that writes MapFile
s.
- MapFileOutputFormat() - 类 的构造器org.apache.hadoop.mapred.MapFileOutputFormat
-
- mapOutputFile - 类 中的变量org.apache.hadoop.mapred.Task
-
- mapOutputLost(TaskAttemptID, String) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
A completed map task's output has been lost.
- Mapper<K1,V1,K2,V2> - org.apache.hadoop.mapred中的接口
-
Maps input key/value pairs to a set of intermediate key/value pairs.
- Mapper<KEYIN,VALUEIN,KEYOUT,VALUEOUT> - org.apache.hadoop.mapreduce中的类
-
Maps input key/value pairs to a set of intermediate key/value pairs.
- Mapper() - 类 的构造器org.apache.hadoop.mapreduce.Mapper
-
- Mapper.Context - org.apache.hadoop.mapreduce中的类
-
- Mapper.Context(Configuration, TaskAttemptID, RecordReader<KEYIN, VALUEIN>, RecordWriter<KEYOUT, VALUEOUT>, OutputCommitter, StatusReporter, InputSplit) - 类 的构造器org.apache.hadoop.mapreduce.Mapper.Context
-
- mapProgress() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- mapProgress() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get the progress of the job's map-tasks, as a float between 0.0
and 1.0.
- mapProgress() - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Get the progress of the job's map-tasks, as a float between 0.0
and 1.0.
- MAPRED_CLUSTER_MAP_MEMORY_MB_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
-
- MAPRED_CLUSTER_MAX_MAP_MEMORY_MB_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
-
- MAPRED_CLUSTER_MAX_REDUCE_MEMORY_MB_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
-
- MAPRED_CLUSTER_REDUCE_MEMORY_MB_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
-
- MAPRED_HISTORY_SERVER_EMBEDDED - 类 中的静态变量org.apache.hadoop.mapred.JobHistoryServer
-
- MAPRED_HISTORY_SERVER_HTTP_ADDRESS - 类 中的静态变量org.apache.hadoop.mapred.JobHistoryServer
-
- MAPRED_JOB_MAP_MEMORY_MB_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
- MAPRED_JOB_REDUCE_MEMORY_MB_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
- MAPRED_LOCAL_DIR_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
Property name for the configuration property mapred.local.dir
- MAPRED_MAP_TASK_ENV - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
Configuration key to set the maximum virutal memory available to the
map tasks.
- MAPRED_MAP_TASK_JAVA_OPTS - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
Configuration key to set the java command line options for the map tasks.
- MAPRED_MAP_TASK_ULIMIT - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
Configuration key to set the maximum virutal memory available to the
map tasks (in kilo-bytes).
- MAPRED_REDUCE_TASK_ENV - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
Configuration key to set the maximum virutal memory available to the
reduce tasks.
- MAPRED_REDUCE_TASK_JAVA_OPTS - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
Configuration key to set the java command line options for the reduce tasks.
- MAPRED_REDUCE_TASK_ULIMIT - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
Configuration key to set the maximum virutal memory available to the
reduce tasks (in kilo-bytes).
- MAPRED_TASK_DEFAULT_MAXVMEM_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
已过时。
- MAPRED_TASK_ENV - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
- MAPRED_TASK_JAVA_OPTS - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
- MAPRED_TASK_MAXPMEM_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
已过时。
- MAPRED_TASK_MAXVMEM_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
- MAPRED_TASK_ULIMIT - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
- mapRedFinished() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
-
- MAPREDUCE_CLIENT_RETRY_POLICY_ENABLED_DEFAULT - 类 中的静态变量org.apache.hadoop.mapred.JobClient
-
- MAPREDUCE_CLIENT_RETRY_POLICY_ENABLED_KEY - 类 中的静态变量org.apache.hadoop.mapred.JobClient
-
- MAPREDUCE_CLIENT_RETRY_POLICY_SPEC_DEFAULT - 类 中的静态变量org.apache.hadoop.mapred.JobClient
-
- MAPREDUCE_CLIENT_RETRY_POLICY_SPEC_KEY - 类 中的静态变量org.apache.hadoop.mapred.JobClient
-
- MAPREDUCE_DELEGATION_KIND - 类 中的静态变量org.apache.hadoop.mapreduce.security.token.delegation.DelegationTokenIdentifier
-
- MAPREDUCE_JOBEND_NOTIFICATION_TIMEOUT_DEFAULT - 类 中的静态变量org.apache.hadoop.mapred.JobEndNotifier
-
- MAPREDUCE_RECOVER_JOB - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
- MapReduceBase - org.apache.hadoop.mapred中的类
-
- MapReduceBase() - 类 的构造器org.apache.hadoop.mapred.MapReduceBase
-
- MapReducePolicyProvider - org.apache.hadoop.mapred中的类
-
PolicyProvider
for Map-Reduce protocols.
- MapReducePolicyProvider() - 类 的构造器org.apache.hadoop.mapred.MapReducePolicyProvider
-
- MapRunnable<K1,V1,K2,V2> - org.apache.hadoop.mapred中的接口
-
Expert: Generic interface for
Mapper
s.
- MapRunner<K1,V1,K2,V2> - org.apache.hadoop.mapred中的类
-
Default
MapRunnable
implementation.
- MapRunner() - 类 的构造器org.apache.hadoop.mapred.MapRunner
-
- MapTaskAttemptInfo - org.apache.hadoop.tools.rumen中的类
-
MapTaskAttemptInfo
represents the information with regard to a
map task attempt.
- MapTaskAttemptInfo(TaskStatus.State, TaskInfo, long) - 类 的构造器org.apache.hadoop.tools.rumen.MapTaskAttemptInfo
-
- MapTaskCompletionEventsUpdate - org.apache.hadoop.mapred中的类
-
A class that represents the communication between the tasktracker and child
tasks w.r.t the map task completion events.
- MapTaskCompletionEventsUpdate() - 类 的构造器org.apache.hadoop.mapred.MapTaskCompletionEventsUpdate
-
- MapTaskCompletionEventsUpdate(TaskCompletionEvent[], boolean) - 类 的构造器org.apache.hadoop.mapred.MapTaskCompletionEventsUpdate
-
- MapTypeID - org.apache.hadoop.record.meta中的类
-
Represents typeID for a Map
- MapTypeID(TypeID, TypeID) - 类 的构造器org.apache.hadoop.record.meta.MapTypeID
-
- MapWritable - org.apache.hadoop.io中的类
-
A Writable Map.
- MapWritable() - 类 的构造器org.apache.hadoop.io.MapWritable
-
Default constructor.
- MapWritable(MapWritable) - 类 的构造器org.apache.hadoop.io.MapWritable
-
Copy constructor.
- mark(int) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
- mark(int) - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
-
- mark(int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
- mark(int) - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
-
- markBlockAsCorrupt(Block, DatanodeInfo) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Mark the block belonging to datanode as corrupt
- markJobLogsForDeletion(long, int, JobID) - 类 中的方法org.apache.hadoop.mapred.UserLogCleaner
-
Adds job user-log directory to cleanup thread to delete logs after user-log
retain hours.
- markSupported() - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
- markSupported() - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
-
- markSupported() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
We definitely don't support marks
- markSupported() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
-
- markSupported() - 类 中的方法org.apache.hadoop.security.SaslInputStream
-
Tests if this input stream supports the
mark
and
reset
methods, which it does not.
- matches(CharSequence) - 类 中的方法org.apache.hadoop.fs.GlobPattern
-
Match input against the compiled glob pattern
- matches(String) - 类 中的静态方法org.apache.hadoop.fs.shell.Count
-
Check if a command is the count command
- max() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
-
- max() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat.MinMax
-
- MAX_ALPHA_SIZE - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
-
- MAX_BLOCK_ACQUIRE_FAILURES - 类 中的静态变量org.apache.hadoop.hdfs.DFSClient
-
- MAX_BLOCKSIZE - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
The maximum supported blocksize == 9.
- MAX_CODE_LEN - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
-
- MAX_COUNTER_LIMIT - 类 中的静态变量org.apache.hadoop.mapred.Counters
-
limit on counters
- MAX_GROUP_LIMIT - 类 中的静态变量org.apache.hadoop.mapred.Counters
-
the max groups allowed
- MAX_NO_PENDING_BLOCK_ITERATIONS - 类 中的静态变量org.apache.hadoop.hdfs.server.balancer.Balancer
-
- MAX_NUM_CONCURRENT_MOVES - 类 中的静态变量org.apache.hadoop.hdfs.server.balancer.Balancer
-
The maximum number of concurrent blocks moves for
balancing purpose at a datanode
- MAX_PATH_DEPTH - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
-
- MAX_PATH_LENGTH - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
-
- MAX_SELECTORS - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
-
- MAX_TRIE_DEPTH - 类 中的静态变量org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
-
- MAX_USER_JOBCONF_SIZE_KEY - 类 中的静态变量org.apache.hadoop.mapred.JobTracker
-
the config key for max user jobconf size
- maxAvailableData - 类 中的变量org.apache.hadoop.io.compress.CompressionInputStream
-
- MAXIMUM_FP - 接口 中的静态变量org.apache.hadoop.util.bloom.RemoveScheme
-
MaximumFP Selection.
- maximumDistance - 类 中的变量org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- maxNextCharInd - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- MBeans - org.apache.hadoop.metrics2.util中的类
-
This util class provides a method to register an MBean using
our standard naming convention as described in the doc
for {link
MBeans.register(String, String, Object)
- MBeans() - 类 的构造器org.apache.hadoop.metrics2.util.MBeans
-
- mBeanServer - 类 中的变量org.apache.hadoop.jmx.JMXJsonServlet
-
MBean server.
- MBeanUtil - org.apache.hadoop.metrics.util中的类
-
已过时。
in favor of
MBeans
.
- MBeanUtil() - 类 的构造器org.apache.hadoop.metrics.util.MBeanUtil
-
已过时。
- MD5_LEN - 类 中的静态变量org.apache.hadoop.io.MD5Hash
-
- MD5_LEN - 类 中的静态变量org.apache.hadoop.mapred.SequenceFileInputFilter.MD5Filter
-
- MD5_LEN - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.MD5Filter
-
- MD5Hash - org.apache.hadoop.io中的类
-
A Writable for MD5 hash values.
- MD5Hash() - 类 的构造器org.apache.hadoop.io.MD5Hash
-
Constructs an MD5Hash.
- MD5Hash(String) - 类 的构造器org.apache.hadoop.io.MD5Hash
-
Constructs an MD5Hash from a hex string.
- MD5Hash(byte[]) - 类 的构造器org.apache.hadoop.io.MD5Hash
-
Constructs an MD5Hash with a specified value.
- MD5Hash.Comparator - org.apache.hadoop.io中的类
-
A WritableComparator optimized for MD5Hash keys.
- MD5Hash.Comparator() - 类 的构造器org.apache.hadoop.io.MD5Hash.Comparator
-
- MD5MD5CRC32FileChecksum - org.apache.hadoop.fs中的类
-
MD5 of MD5 of CRC32.
- MD5MD5CRC32FileChecksum() - 类 的构造器org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
-
Same as this(0, 0, null)
- MD5MD5CRC32FileChecksum(int, long, MD5Hash) - 类 的构造器org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
-
Create a MD5FileChecksum
- mean() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
-
- mechanismName - 枚举 中的变量org.apache.hadoop.security.SaslRpcServer.AuthMethod
-
- membershipTest(Key) - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
-
- membershipTest(Key) - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
-
- membershipTest(Key) - 类 中的方法org.apache.hadoop.util.bloom.DynamicBloomFilter
-
- membershipTest(Key) - 类 中的方法org.apache.hadoop.util.bloom.Filter
-
Determines wether a specified key belongs to this filter.
- MemoryCalculatorPlugin - org.apache.hadoop.util中的类
-
已过时。
Use
ResourceCalculatorPlugin
instead
- MemoryCalculatorPlugin() - 类 的构造器org.apache.hadoop.util.MemoryCalculatorPlugin
-
已过时。
- merge(List<SequenceFile.Sorter.SegmentDescriptor>, Path) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Merges the list of segments of type
SegmentDescriptor
- merge(Path[], boolean, Path) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Merges the contents of files passed in Path[] using a max factor value
that is already set
- merge(Path[], boolean, int, Path) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Merges the contents of files passed in Path[]
- merge(Path[], Path, boolean) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Merges the contents of files passed in Path[]
- merge(Path[], Path) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Merge the provided files.
- merge(List, List, String) - 类 中的方法org.apache.hadoop.streaming.JarBuilder
-
- MergeSort - org.apache.hadoop.util中的类
-
An implementation of the core algorithm of MergeSort.
- MergeSort(Comparator<IntWritable>) - 类 的构造器org.apache.hadoop.util.MergeSort
-
- mergeSort(int[], int[], int, int) - 类 中的方法org.apache.hadoop.util.MergeSort
-
- MetaBlockAlreadyExists - org.apache.hadoop.io.file.tfile中的异常错误
-
Exception - Meta Block with the same name already exists.
- MetaBlockDoesNotExist - org.apache.hadoop.io.file.tfile中的异常错误
-
Exception - No such Meta Block with the given name.
- METADATA_EXTENSION - 类 中的静态变量org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- METADATA_EXTENSION_LENGTH - 类 中的静态变量org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- METADATA_VERSION - 类 中的静态变量org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- metaFileExists(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- metaFileExists(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Does the meta file exist for this block?
- MetaRecoveryContext - org.apache.hadoop.hdfs.server.namenode中的类
-
Context data for an ongoing NameNode recovery process.
- MetaRecoveryContext(int) - 类 的构造器org.apache.hadoop.hdfs.server.namenode.MetaRecoveryContext
-
- metaSave(String) - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
-
- metaSave(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Dumps DFS data structures into specified file.
- metaSave(String) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- metaSave(String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Dumps namenode data structures into specified file.
- metaSave(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Dumps namenode state into specified file
- metaSave(String[], int) - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
Dumps DFS data structures into specified file.
- Metric - org.apache.hadoop.metrics2中的类
-
The immutable metric
- Metric(String) - 类 的构造器org.apache.hadoop.metrics2.Metric
-
Construct the metric with name only
- Metric(String, String) - 类 的构造器org.apache.hadoop.metrics2.Metric
-
Construct the metric with a name and a description
- MetricCounter<T extends Number> - org.apache.hadoop.metrics2中的类
-
A generic immutable counter metric type
- MetricCounter(String, String) - 类 的构造器org.apache.hadoop.metrics2.MetricCounter
-
Construct a counter metric
- MetricGauge<T extends Number> - org.apache.hadoop.metrics2中的类
-
A generic immutable gauge metric
- MetricGauge(String, String) - 类 的构造器org.apache.hadoop.metrics2.MetricGauge
-
Construct a gauge metric
- MetricMutable - org.apache.hadoop.metrics2.lib中的类
-
The mutable metric interface
- MetricMutable(String, String) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutable
-
Construct a mutable metric
- MetricMutableCounter<T extends Number> - org.apache.hadoop.metrics2.lib中的类
-
The mutable counter (monotonically increasing) metric interface
- MetricMutableCounter(String, String) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableCounter
-
Construct the metric with name and description
- MetricMutableCounterInt - org.apache.hadoop.metrics2.lib中的类
-
A mutable int counter for implementing metrics sources
- MetricMutableCounterInt(String, String, int) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableCounterInt
-
Construct a mutable int counter
- MetricMutableCounterLong - org.apache.hadoop.metrics2.lib中的类
-
A mutable long counter
- MetricMutableCounterLong(String, String, long) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableCounterLong
-
Construct a mutable long counter
- MetricMutableFactory - org.apache.hadoop.metrics2.lib中的类
-
Factory class for mutable metrics
- MetricMutableFactory() - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableFactory
-
- MetricMutableGauge<T extends Number> - org.apache.hadoop.metrics2.lib中的类
-
The mutable gauge metric interface
- MetricMutableGauge(String, String) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableGauge
-
Construct the metric with name and description
- MetricMutableGaugeInt - org.apache.hadoop.metrics2.lib中的类
-
A mutable int gauge
- MetricMutableGaugeInt(String, String, int) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableGaugeInt
-
Construct a mutable int gauge metric
- MetricMutableGaugeLong - org.apache.hadoop.metrics2.lib中的类
-
A mutable long gauge
- MetricMutableGaugeLong(String, String, long) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableGaugeLong
-
Construct a mutable long gauge metric
- MetricMutableStat - org.apache.hadoop.metrics2.lib中的类
-
A mutable metric with stats
Useful for keep throughput/latency stats.
- MetricMutableStat(String, String, String, String, boolean) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableStat
-
Construct a sample statistics metric
- MetricMutableStat(String, String, String, String) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricMutableStat
-
Construct a snapshot stat metric with extended stat off by default
- metrics() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsRecordImpl
-
- metrics() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Get the metrics
- metrics() - 接口 中的方法org.apache.hadoop.metrics2.MetricsRecord
-
Get the metrics of the record
- metrics() - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache.Record
-
- MetricsBase - org.apache.hadoop.metrics.util中的类
-
已过时。
in favor of
org.apache.hadoop.metrics2
usage.
- MetricsBase(String) - 类 的构造器org.apache.hadoop.metrics.util.MetricsBase
-
已过时。
- MetricsBase(String, String) - 类 的构造器org.apache.hadoop.metrics.util.MetricsBase
-
已过时。
- MetricsBuilder - org.apache.hadoop.metrics2中的接口
-
The metrics builder interface
- metricsCache - 类 中的变量org.apache.hadoop.metrics2.sink.ganglia.GangliaSink30
-
- MetricsCache - org.apache.hadoop.metrics2.util中的类
-
A metrics cache for sinks that don't support sparse updates.
- MetricsCache() - 类 的构造器org.apache.hadoop.metrics2.util.MetricsCache
-
- MetricsCache.Record - org.apache.hadoop.metrics2.util中的类
-
Cached record
- MetricsCache.Record() - 类 的构造器org.apache.hadoop.metrics2.util.MetricsCache.Record
-
- MetricsConfigException - org.apache.hadoop.metrics2.impl中的异常错误
-
The metrics configuration runtime exception
- MetricsContext - org.apache.hadoop.metrics中的接口
-
已过时。
in favor of
org.apache.hadoop.metrics2
usage.
- MetricsDynamicMBeanBase - org.apache.hadoop.metrics.util中的类
-
已过时。
in favor of
org.apache.hadoop.metrics2
usage.
- MetricsDynamicMBeanBase(MetricsRegistry, String) - 类 的构造器org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
-
已过时。
- metricsEntrySet() - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache.Record
-
- MetricsException - org.apache.hadoop.metrics中的异常错误
-
已过时。
in favor of
MetricsException
.
- MetricsException() - 异常错误 的构造器org.apache.hadoop.metrics.MetricsException
-
已过时。
Creates a new instance of MetricsException
- MetricsException(String) - 异常错误 的构造器org.apache.hadoop.metrics.MetricsException
-
已过时。
Creates a new instance of MetricsException
- MetricsException - org.apache.hadoop.metrics2中的异常错误
-
A general metrics exception wrapper
- MetricsException(String) - 异常错误 的构造器org.apache.hadoop.metrics2.MetricsException
-
Construct the exception with a message
- MetricsException(String, Throwable) - 异常错误 的构造器org.apache.hadoop.metrics2.MetricsException
-
Construct the exception with a message and a cause
- MetricsException(Throwable) - 异常错误 的构造器org.apache.hadoop.metrics2.MetricsException
-
Construct the exception with a cause
- MetricsFilter - org.apache.hadoop.metrics2中的类
-
The metrics filter interface
- MetricsFilter() - 类 的构造器org.apache.hadoop.metrics2.MetricsFilter
-
- MetricsIntValue - org.apache.hadoop.metrics.util中的类
-
已过时。
in favor of
MetricMutableGaugeInt
.
- MetricsIntValue(String, MetricsRegistry, String) - 类 的构造器org.apache.hadoop.metrics.util.MetricsIntValue
-
已过时。
Constructor - create a new metric
- MetricsIntValue(String, MetricsRegistry) - 类 的构造器org.apache.hadoop.metrics.util.MetricsIntValue
-
已过时。
Constructor - create a new metric
- MetricsLongValue - org.apache.hadoop.metrics.util中的类
-
已过时。
in favor of
org.apache.hadoop.metrics2
usage.
- MetricsLongValue(String, MetricsRegistry, String) - 类 的构造器org.apache.hadoop.metrics.util.MetricsLongValue
-
已过时。
Constructor - create a new metric
- MetricsLongValue(String, MetricsRegistry) - 类 的构造器org.apache.hadoop.metrics.util.MetricsLongValue
-
已过时。
Constructor - create a new metric
- MetricsPlugin - org.apache.hadoop.metrics2中的接口
-
A fairly generic plugin interface
- MetricsRecord - org.apache.hadoop.metrics中的接口
-
已过时。
in favor of
org.apache.hadoop.metrics2
usage.
- MetricsRecord - org.apache.hadoop.metrics2中的接口
-
An immutable snapshot of metrics with a timestamp
- MetricsRecordBuilder - org.apache.hadoop.metrics2中的类
-
The metrics record builder interface
- MetricsRecordBuilder() - 类 的构造器org.apache.hadoop.metrics2.MetricsRecordBuilder
-
- MetricsRecordImpl - org.apache.hadoop.metrics.spi中的类
-
已过时。
in favor of
org.apache.hadoop.metrics2
usage.
- MetricsRecordImpl(String, AbstractMetricsContext) - 类 的构造器org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Creates a new instance of FileRecord
- MetricsRecordImpl - org.apache.hadoop.metrics2.impl中的类
-
- MetricsRecordImpl(String, long, Iterable<MetricsTag>, Iterable<Metric>) - 类 的构造器org.apache.hadoop.metrics2.impl.MetricsRecordImpl
-
Construct a metrics record
- MetricsRegistry - org.apache.hadoop.metrics.util中的类
-
已过时。
in favor of
MetricsRegistry
.
- MetricsRegistry() - 类 的构造器org.apache.hadoop.metrics.util.MetricsRegistry
-
已过时。
- MetricsRegistry - org.apache.hadoop.metrics2.lib中的类
-
An optional metrics registry class for creating and maintaining a
collection of MetricsMutables, making writing metrics source easier.
- MetricsRegistry(String) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Construct the registry with a record name
- MetricsRegistry(String, MetricMutableFactory) - 类 的构造器org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Construct the registry with a name and a metric factory
- metricsServers - 类 中的变量org.apache.hadoop.metrics.ganglia.GangliaContext
-
已过时。
- MetricsServlet - org.apache.hadoop.metrics中的类
-
已过时。
in favor of
org.apache.hadoop.metrics2
usage.
- MetricsServlet() - 类 的构造器org.apache.hadoop.metrics.MetricsServlet
-
已过时。
- MetricsSink - org.apache.hadoop.metrics2中的接口
-
The metrics sink interface
- MetricsSource - org.apache.hadoop.metrics2中的接口
-
The metrics source interface
- MetricsSystem - org.apache.hadoop.metrics2中的接口
-
The metrics system interface
- MetricsSystem.AbstractCallback - org.apache.hadoop.metrics2中的类
-
Convenient abstract class for implementing callback interface
- MetricsSystem.AbstractCallback() - 类 的构造器org.apache.hadoop.metrics2.MetricsSystem.AbstractCallback
-
- MetricsSystem.Callback - org.apache.hadoop.metrics2中的接口
-
The metrics system callback interface
- MetricsSystemImpl - org.apache.hadoop.metrics2.impl中的类
-
A base class for metrics system singletons
- MetricsSystemImpl(String) - 类 的构造器org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
Construct the metrics system
- MetricsSystemImpl() - 类 的构造器org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
Construct the system but not initializing (read config etc.) it.
- MetricsSystemMXBean - org.apache.hadoop.metrics2中的接口
-
The JMX interface to the metrics system
- MetricsTag - org.apache.hadoop.metrics2中的类
-
Immutable tag for metrics (for grouping on host/queue/username etc.)
- MetricsTag(String, String, String) - 类 的构造器org.apache.hadoop.metrics2.MetricsTag
-
Construct the tag with name, description and value
- MetricsTimeVaryingInt - org.apache.hadoop.metrics.util中的类
-
已过时。
in favor of
MetricMutableCounterInt
.
- MetricsTimeVaryingInt(String, MetricsRegistry, String) - 类 的构造器org.apache.hadoop.metrics.util.MetricsTimeVaryingInt
-
已过时。
Constructor - create a new metric
- MetricsTimeVaryingInt(String, MetricsRegistry) - 类 的构造器org.apache.hadoop.metrics.util.MetricsTimeVaryingInt
-
已过时。
Constructor - create a new metric
- MetricsTimeVaryingLong - org.apache.hadoop.metrics.util中的类
-
已过时。
in favor of
MetricMutableCounterLong
.
- MetricsTimeVaryingLong(String, MetricsRegistry, String) - 类 的构造器org.apache.hadoop.metrics.util.MetricsTimeVaryingLong
-
已过时。
Constructor - create a new metric
- MetricsTimeVaryingLong(String, MetricsRegistry) - 类 的构造器org.apache.hadoop.metrics.util.MetricsTimeVaryingLong
-
已过时。
Constructor - create a new metric
- MetricsTimeVaryingRate - org.apache.hadoop.metrics.util中的类
-
已过时。
in favor of
MetricMutableGauge
.
- MetricsTimeVaryingRate(String, MetricsRegistry, String) - 类 的构造器org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
-
已过时。
Constructor - create a new metric
- MetricsTimeVaryingRate(String, MetricsRegistry) - 类 的构造器org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
-
已过时。
Constructor - create a new metric
- MetricsUtil - org.apache.hadoop.metrics中的类
-
已过时。
in favor of
org.apache.hadoop.metrics2
usage.
- MetricsVisitor - org.apache.hadoop.metrics2中的接口
-
A visitor interface for metrics
- MetricValue - org.apache.hadoop.metrics.spi中的类
-
已过时。
in favor of
org.apache.hadoop.metrics2
usage.
- MetricValue(Number, boolean) - 类 的构造器org.apache.hadoop.metrics.spi.MetricValue
-
已过时。
Creates a new instance of MetricValue
- midKey() - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
Get the key at approximately the middle of the file.
- MigrationTool - org.apache.hadoop.fs.s3中的类
-
This class is a tool for migrating data from an older to a newer version
of an S3 filesystem.
- MigrationTool() - 类 的构造器org.apache.hadoop.fs.s3.MigrationTool
-
- min() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
-
- min() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat.MinMax
-
- MIN_BLOCKS_FOR_WRITE - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
-
- MIN_BLOCKSIZE - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
The minimum supported blocksize == 1.
- MINIMUM_FN - 接口 中的静态变量org.apache.hadoop.util.bloom.RemoveScheme
-
MinimumFN Selection.
- minRecWrittenToEnableSkip_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- mkdirs(Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
- mkdirs(FileSystem, Path, FsPermission) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
create a directory with the provided permission
The permission of the directory is set to be the provided permission as in
setPermission, not permission&~umask
- mkdirs(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Call
FileSystem.mkdirs(Path, FsPermission)
with default permission.
- mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Make the given file and all non-existent parents into
directories.
- mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Make the given file and all non-existent parents into
directories.
- mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
-
- mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
not implemented.
- mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- mkdirs(Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
Creates the specified directory hierarchy.
- mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
Make the given file and all non-existent parents into
directories.
- mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
- mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
- mkdirs(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
- mkdirs(String, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Create a directory (or hierarchy of directories) with the given
name and permission.
- mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- mkdirs(String, FsPermission) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Create a directory (or hierarchy of directories) with the given
name and permission.
- mkdirs(String, PermissionStatus) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Create all the necessary directories
- mkdirs(String, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Create a directory (or hierarchy of directories) with the given
name and permission.
- mkdirs(Path, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- mkdirsWithExistsAndPermissionCheck(LocalFileSystem, Path, FsPermission) - 类 中的静态方法org.apache.hadoop.util.DiskChecker
-
Create the directory or check permissions if it already exists.
- mkdirsWithExistsCheck(File) - 类 中的静态方法org.apache.hadoop.util.DiskChecker
-
The semantics of mkdirsWithExistsCheck method is different from the mkdirs
method provided in the Sun's java.io.File class in the following way:
While creating the non-existent parent directories, this method checks for
the existence of those directories if the mkdir fails at any point (since
that directory might have just been created by some other process).
- mNodeMap - 类 中的变量org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- mNodesFlattened - 类 中的变量org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- modifFmt - 类 中的静态变量org.apache.hadoop.fs.FsShell
-
- ModificationTimeParam - org.apache.hadoop.hdfs.web.resources中的类
-
Modification time parameter.
- ModificationTimeParam(Long) - 类 的构造器org.apache.hadoop.hdfs.web.resources.ModificationTimeParam
-
Constructor.
- ModificationTimeParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.ModificationTimeParam
-
Constructor.
- Module() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- MODULE_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- ModuleName() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- monitor() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
-
- monitorAndPrintJob(JobConf, RunningJob) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Monitor a job and print status in real-time as progress is made and tasks
fail.
- moveCurrent(Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
Move
current
to lastcheckpoint.tmp
and
recreate empty current
.
- moveFromLocalFile(Path[], Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
The src files is on the local disk.
- moveFromLocalFile(Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
The src file is on the local disk.
- moveFromLocalFile(Path, Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- moveLastCheckpoint(Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
Move
lastcheckpoint.tmp
to previous.checkpoint
- moveToLocalFile(Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
The src file is under FS, and the dst is on the local disk.
- moveToTrash(Path) - 类 中的方法org.apache.hadoop.fs.Trash
-
Move a file or directory to the current trash directory.
- MR_CLIENTTRACE_FORMAT - 类 中的静态变量org.apache.hadoop.mapred.TaskTracker
-
- MR_COMBINE_RECORDS_BEFORE_PROGRESS - 类 中的静态变量org.apache.hadoop.mapred.Task
-
- MRAdmin - org.apache.hadoop.mapred.tools中的类
-
Administrative access to Hadoop Map-Reduce.
- MRAdmin() - 类 的构造器org.apache.hadoop.mapred.tools.MRAdmin
-
- MRAdmin(Configuration) - 类 的构造器org.apache.hadoop.mapred.tools.MRAdmin
-
- msg(String) - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- MultiFileInputFormat<K,V> - org.apache.hadoop.mapred中的类
-
已过时。
Use
CombineFileInputFormat
instead
- MultiFileInputFormat() - 类 的构造器org.apache.hadoop.mapred.MultiFileInputFormat
-
已过时。
- MultiFileSplit - org.apache.hadoop.mapred中的类
-
已过时。
Use
CombineFileSplit
instead
- MultiFileSplit(JobConf, Path[], long[]) - 类 的构造器org.apache.hadoop.mapred.MultiFileSplit
-
已过时。
- MultiFileWordCount - org.apache.hadoop.examples中的类
-
MultiFileWordCount is an example to demonstrate the usage of
MultiFileInputFormat.
- MultiFileWordCount() - 类 的构造器org.apache.hadoop.examples.MultiFileWordCount
-
- MultiFileWordCount.MapClass - org.apache.hadoop.examples中的类
-
This Mapper is similar to the one in
WordCount.MapClass
.
- MultiFileWordCount.MapClass() - 类 的构造器org.apache.hadoop.examples.MultiFileWordCount.MapClass
-
- MultiFileWordCount.MultiFileLineRecordReader - org.apache.hadoop.examples中的类
-
RecordReader is responsible from extracting records from the InputSplit.
- MultiFileWordCount.MultiFileLineRecordReader(Configuration, MultiFileSplit) - 类 的构造器org.apache.hadoop.examples.MultiFileWordCount.MultiFileLineRecordReader
-
- MultiFileWordCount.MyInputFormat - org.apache.hadoop.examples中的类
-
To use
MultiFileInputFormat
, one should extend it, to return a
(custom) RecordReader
.
- MultiFileWordCount.MyInputFormat() - 类 的构造器org.apache.hadoop.examples.MultiFileWordCount.MyInputFormat
-
- MultiFileWordCount.WordOffset - org.apache.hadoop.examples中的类
-
This record keeps <filename,offset> pairs.
- MultiFileWordCount.WordOffset() - 类 的构造器org.apache.hadoop.examples.MultiFileWordCount.WordOffset
-
- MultiFilterRecordReader<K extends WritableComparable,V extends Writable> - org.apache.hadoop.mapred.join中的类
-
Base class for Composite join returning values derived from multiple
sources, but generally not tuples.
- MultiFilterRecordReader(int, JobConf, int, Class<? extends WritableComparator>) - 类 的构造器org.apache.hadoop.mapred.join.MultiFilterRecordReader
-
- MultiFilterRecordReader.MultiFilterDelegationIterator - org.apache.hadoop.mapred.join中的类
-
Proxy the JoinCollector, but include callback to emit.
- MultiFilterRecordReader.MultiFilterDelegationIterator() - 类 的构造器org.apache.hadoop.mapred.join.MultiFilterRecordReader.MultiFilterDelegationIterator
-
- MultipleInputs - org.apache.hadoop.mapred.lib中的类
-
This class supports MapReduce jobs that have multiple input paths with
a different
InputFormat
and Mapper
for each path
- MultipleInputs() - 类 的构造器org.apache.hadoop.mapred.lib.MultipleInputs
-
- MultipleInputs - org.apache.hadoop.mapreduce.lib.input中的类
-
This class supports MapReduce jobs that have multiple input paths with
a different
InputFormat
and Mapper
for each path
- MultipleInputs() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.MultipleInputs
-
- MultipleIOException - org.apache.hadoop.io中的异常错误
-
Encapsulate a list of
IOException
into an IOException
- MultipleOutputFormat<K,V> - org.apache.hadoop.mapred.lib中的类
-
This abstract class extends the FileOutputFormat, allowing to write the
output data to different output files.
- MultipleOutputFormat() - 类 的构造器org.apache.hadoop.mapred.lib.MultipleOutputFormat
-
- MultipleOutputs - org.apache.hadoop.mapred.lib中的类
-
The MultipleOutputs class simplifies writting to additional outputs other
than the job default output via the
OutputCollector
passed to
the map()
and reduce()
methods of the
Mapper
and Reducer
implementations.
- MultipleOutputs(JobConf) - 类 的构造器org.apache.hadoop.mapred.lib.MultipleOutputs
-
Creates and initializes multiple named outputs support, it should be
instantiated in the Mapper/Reducer configure method.
- MultipleOutputs<KEYOUT,VALUEOUT> - org.apache.hadoop.mapreduce.lib.output中的类
-
The MultipleOutputs class simplifies writing output data
to multiple outputs
Case one: writing to additional outputs other than the job default output.
- MultipleOutputs(TaskInputOutputContext<?, ?, KEYOUT, VALUEOUT>) - 类 的构造器org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
-
Creates and initializes multiple outputs support,
it should be instantiated in the Mapper/Reducer setup method.
- MultipleSequenceFileOutputFormat<K,V> - org.apache.hadoop.mapred.lib中的类
-
This class extends the MultipleOutputFormat, allowing to write the output data
to different output files in sequence file output format.
- MultipleSequenceFileOutputFormat() - 类 的构造器org.apache.hadoop.mapred.lib.MultipleSequenceFileOutputFormat
-
- MultipleTextOutputFormat<K,V> - org.apache.hadoop.mapred.lib中的类
-
This class extends the MultipleOutputFormat, allowing to write the output
data to different output files in Text output format.
- MultipleTextOutputFormat() - 类 的构造器org.apache.hadoop.mapred.lib.MultipleTextOutputFormat
-
- MultithreadedMapper<K1,V1,K2,V2> - org.apache.hadoop.mapreduce.lib.map中的类
-
Multithreaded implementation for @link org.apache.hadoop.mapreduce.Mapper.
- MultithreadedMapper() - 类 的构造器org.apache.hadoop.mapreduce.lib.map.MultithreadedMapper
-
- MultithreadedMapRunner<K1,V1,K2,V2> - org.apache.hadoop.mapred.lib中的类
-
Multithreaded implementation for @link org.apache.hadoop.mapred.MapRunnable.
- MultithreadedMapRunner() - 类 的构造器org.apache.hadoop.mapred.lib.MultithreadedMapRunner
-
- MURMUR_HASH - 类 中的静态变量org.apache.hadoop.util.hash.Hash
-
Constant to denote
MurmurHash
.
- MurmurHash - org.apache.hadoop.util.hash中的类
-
This is a very fast, non-cryptographic hash suitable for general hash-based
lookup.
- MurmurHash() - 类 的构造器org.apache.hadoop.util.hash.MurmurHash
-
- MySQLDataDrivenDBRecordReader<T extends DBWritable> - org.apache.hadoop.mapreduce.lib.db中的类
-
A RecordReader that reads records from a MySQL table via DataDrivenDBRecordReader
- MySQLDataDrivenDBRecordReader(DBInputFormat.DBInputSplit, Class<T>, Configuration, Connection, DBConfiguration, String, String[], String) - 类 的构造器org.apache.hadoop.mapreduce.lib.db.MySQLDataDrivenDBRecordReader
-
- MySQLDBRecordReader<T extends DBWritable> - org.apache.hadoop.mapreduce.lib.db中的类
-
A RecordReader that reads records from a MySQL table.
- MySQLDBRecordReader(DBInputFormat.DBInputSplit, Class<T>, Configuration, Connection, DBConfiguration, String, String[], String) - 类 的构造器org.apache.hadoop.mapreduce.lib.db.MySQLDBRecordReader
-
N
- N_GROUPS - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
-
- N_ITERS - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
-
- NAME - 类 中的静态变量org.apache.hadoop.fs.shell.Count
-
- name - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeID
-
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.AccessTimeParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.BlockSizeParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.BufferSizeParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.ConcatSourcesParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.DelegationParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.DestinationParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.DoAsParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.GroupParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.HttpOpParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.LengthParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.ModificationTimeParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.OffsetParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.OverwriteParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.OwnerParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.PermissionParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.RecursiveParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.RenewerParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.ReplicationParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.TokenArgumentParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.UriFsPathParam
-
Parameter name.
- NAME - 类 中的静态变量org.apache.hadoop.hdfs.web.resources.UserParam
-
Parameter name.
- name() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsRecordImpl
-
- name - 类 中的变量org.apache.hadoop.metrics2.lib.MetricMutable
-
name of the metric
- name() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
- name() - 类 中的方法org.apache.hadoop.metrics2.Metric
-
Get the name of the metric
- name() - 接口 中的方法org.apache.hadoop.metrics2.MetricsRecord
-
Get the record name of the metrics
- name() - 类 中的方法org.apache.hadoop.metrics2.MetricsTag
-
Get the name of the tag
- name - 类 中的变量org.apache.hadoop.net.NodeBase
-
- name - 类 中的变量org.apache.hadoop.tools.rumen.JhCounter
-
- name - 类 中的变量org.apache.hadoop.tools.rumen.JhCounterGroup
-
- name - 类 中的变量org.apache.hadoop.tools.rumen.JhCounters
-
- NAME_RULES - 类 中的静态变量org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
-
Constant for the configuration property that indicates the Kerberos name
rules for the Kerberos principals.
- NameDistributionVisitor - org.apache.hadoop.hdfs.tools.offlineImageViewer中的类
-
File name distribution visitor.
- NameDistributionVisitor(String, boolean) - 类 的构造器org.apache.hadoop.hdfs.tools.offlineImageViewer.NameDistributionVisitor
-
- namenode - 类 中的变量org.apache.hadoop.hdfs.DFSClient
-
- namenode - 类 中的变量org.apache.hadoop.hdfs.server.datanode.DataNode
-
- NameNode - org.apache.hadoop.hdfs.server.namenode中的类
-
NameNode serves as both directory namespace manager and
"inode table" for the Hadoop DFS.
- NameNode(Configuration) - 类 的构造器org.apache.hadoop.hdfs.server.namenode.NameNode
-
Start NameNode.
- nameNodeAddr - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- NamenodeFsck - org.apache.hadoop.hdfs.server.namenode中的类
-
This class provides rudimentary checking of DFS volumes for errors and
sub-optimal conditions.
- NameNodeInstrumentation - org.apache.hadoop.hdfs.server.namenode.metrics中的类
-
- NameNodeMXBean - org.apache.hadoop.hdfs.server.namenode中的接口
-
This is the JMX management interface for namenode information
- NamenodeProtocol - org.apache.hadoop.hdfs.server.protocol中的接口
-
Protocol that a secondary NameNode uses to communicate with the NameNode.
- NamenodeWebHdfsMethods - org.apache.hadoop.hdfs.server.namenode.web.resources中的类
-
Web-hdfs NameNode implementation.
- NamenodeWebHdfsMethods() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
-
- namespaceID - 类 中的变量org.apache.hadoop.hdfs.server.common.StorageInfo
-
- NamespaceInfo - org.apache.hadoop.hdfs.server.protocol中的类
-
NamespaceInfo is returned by the name-node in reply
to a data-node handshake.
- NamespaceInfo() - 类 的构造器org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
-
- NamespaceInfo(int, long, int) - 类 的构造器org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
-
- NativeCodeLoader - org.apache.hadoop.util中的类
-
A helper to load the native hadoop code i.e. libhadoop.so.
- NativeCodeLoader() - 类 的构造器org.apache.hadoop.util.NativeCodeLoader
-
- NativeIO - org.apache.hadoop.io.nativeio中的类
-
JNI wrappers for various native IO-related calls not available in Java.
- NativeIO() - 类 的构造器org.apache.hadoop.io.nativeio.NativeIO
-
- NativeIO.Stat - org.apache.hadoop.io.nativeio中的类
-
Result type of the fstat call
- NativeIOException - org.apache.hadoop.io.nativeio中的异常错误
-
An exception generated by a call to the native IO code.
- NativeIOException(String, Errno) - 异常错误 的构造器org.apache.hadoop.io.nativeio.NativeIOException
-
- NativeS3FileSystem - org.apache.hadoop.fs.s3native中的类
-
A
FileSystem
for reading and writing files stored on
Amazon S3.
- NativeS3FileSystem() - 类 的构造器org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
- NativeS3FileSystem(NativeFileSystemStore) - 类 的构造器org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
- NATURAL_ORDER - 类 中的静态变量org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
-
- nbHash - 类 中的变量org.apache.hadoop.util.bloom.Filter
-
The number of hash function to consider.
- needChecksum() - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
Return true if there is a need for checksum verification
- needKeyUpdate - 类 中的变量org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
-
- needsDictionary() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
-
- needsDictionary() - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
-
Returns
true
if a preset dictionary is needed for decompression.
- needsDictionary() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
-
Returns
false
.
- needsDictionary() - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
-
Returns
true
if a preset dictionary is needed for decompression.
- needsDictionary() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
-
- needsInput() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
-
- needsInput() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
-
- needsInput() - 接口 中的方法org.apache.hadoop.io.compress.Compressor
-
Returns true if the input data buffer is empty and
#setInput() should be called to provide more input.
- needsInput() - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
-
Returns true if the input data buffer is empty and
Decompressor.setInput(byte[], int, int)
should be called to
provide more input.
- needsInput() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Returns true if the input data buffer is empty and
#setInput() should be called to provide more input.
- needsInput() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
-
Returns true if the input data buffer is empty and
SnappyDecompressor.setInput(byte[], int, int)
should be called to
provide more input.
- needsInput() - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
-
Returns true if the input data buffer is empty and
Decompressor.setInput(byte[], int, int)
should be called to
provide more input.
- needsInput() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
- needsInput() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
-
- needsQuoting(byte[], int, int) - 类 中的静态方法org.apache.hadoop.http.HtmlQuoting
-
Does the given string need to be quoted?
- needsQuoting(String) - 类 中的静态方法org.apache.hadoop.http.HtmlQuoting
-
Does the given string need to be quoted?
- needsTaskCommit(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.FileOutputCommitter
-
- needsTaskCommit(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
-
Check whether task needs a commit
- needsTaskCommit(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
-
This method implements the new interface by calling the old method.
- needsTaskCommit(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
-
Did this task write any files in the work directory?
- needsTaskCommit(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputCommitter
-
Check whether task needs a commit
- NEGOTIATE - 类 中的静态变量org.apache.hadoop.security.authentication.client.KerberosAuthenticator
-
HTTP header prefix used by the SPNEGO client/server endpoints during an authentication sequence.
- NetgroupCache - org.apache.hadoop.security中的类
-
Class that caches the netgroups and inverts group-to-user map
to user-to-group map
- NetgroupCache() - 类 的构造器org.apache.hadoop.security.NetgroupCache
-
- netgroupToUsersMap - 类 中的静态变量org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
-
- netgroupToUsersMapUpdated - 类 中的静态变量org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
-
- netlock - 类 中的变量org.apache.hadoop.net.NetworkTopology
-
- NetUtils - org.apache.hadoop.net中的类
-
- NetUtils() - 类 的构造器org.apache.hadoop.net.NetUtils
-
- NetworkTopology - org.apache.hadoop.net中的类
-
The class represents a cluster of computer with a tree hierarchical
network topology.
- NetworkTopology() - 类 的构造器org.apache.hadoop.net.NetworkTopology
-
- NetworkTopology.InvalidTopologyException - org.apache.hadoop.net中的异常错误
-
- NetworkTopology.InvalidTopologyException(String) - 异常错误 的构造器org.apache.hadoop.net.NetworkTopology.InvalidTopologyException
-
- NetworkTopologyWithNodeGroup - org.apache.hadoop.net中的类
-
The class extends NetworkTopology to represents a cluster of computer with
a 4-layers hierarchical network topology.
- NetworkTopologyWithNodeGroup() - 类 的构造器org.apache.hadoop.net.NetworkTopologyWithNodeGroup
-
- newBlockReader(Socket, String, long, Token<BlockTokenIdentifier>, long, long, long, int) - 类 中的静态方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
- newBlockReader(Socket, String, long, Token<BlockTokenIdentifier>, long, long, long, int, boolean) - 类 中的静态方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
Creates a new
BlockReader
for the given blockId.
- newBlockReader(Socket, String, long, Token<BlockTokenIdentifier>, long, long, long, int, boolean, String) - 类 中的静态方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
- newCounter(String, String, int) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
-
Create a mutable integer counter
- newCounter(String, String, long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
-
Create a mutable long integer counter
- newCounter(String, String, int) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Create a mutable integer counter
- newCounter(String, String, long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Create a mutable long integer counter
- newCounterInt(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
-
Create a mutable integer counter with name only.
- newCounterLong(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
-
Create a mutable long integer counter with a name
Usually gets overridden.
- newDataChecksum(int, int) - 类 中的静态方法org.apache.hadoop.util.DataChecksum
-
- newDataChecksum(byte[], int) - 类 中的静态方法org.apache.hadoop.util.DataChecksum
-
Creates a DataChecksum from HEADER_LEN bytes from arr[offset].
- newDataChecksum(DataInputStream) - 类 中的静态方法org.apache.hadoop.util.DataChecksum
-
This constructucts a DataChecksum by reading HEADER_LEN bytes from
input stream in
- newGauge(String, String, int) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
-
Create a mutable integer gauge
- newGauge(String, String, long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
-
Create a mutable long integer gauge
- newGauge(String, String, int) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Create a mutable integer gauge
- newGauge(String, String, long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Create a mutable long integer gauge
- newGaugeInt(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
-
Create a mutable integer gauge with name only.
- newGaugeLong(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
-
Create a mutable long integer gauge with name only.
- newInstance(Class<? extends Writable>, Configuration) - 类 中的静态方法org.apache.hadoop.io.WritableFactories
-
Create a new instance of a class with a defined factory.
- newInstance(Class<? extends Writable>) - 类 中的静态方法org.apache.hadoop.io.WritableFactories
-
Create a new instance of a class with a defined factory.
- newInstance() - 接口 中的方法org.apache.hadoop.io.WritableFactory
-
Return a new instance.
- newInstance(Class<T>, Configuration) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
-
Create an object for the given class and initialize it from conf
- newKey() - 类 中的方法org.apache.hadoop.io.WritableComparator
-
Construct a new
WritableComparable
instance.
- newMetric(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
-
Create a new mutable metric by name
Usually overridden by app specific factory
- newRecord(String) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Subclasses should override this if they subclass MetricsRecordImpl.
- newRecord(String) - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
-
已过时。
- newServerSocket(String, int, int) - 类 中的方法org.apache.hadoop.security.Krb5AndCertsSslSocketConnector
-
- newSocket() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Creates either NIO or regular depending on socketWriteTimeout.
- newStat(String, String, String, String, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
-
Create a mutable stat metric
- newStat(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableFactory
-
Create a mutable stat metric with name only.
- newStat(String, String, String, String, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Create a mutable metric with stats
- newStat(String, String, String, String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Create a mutable metric with stats
- newStat(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Create a mutable metric with stats using the name only
- newTaskDistributedCacheManager(JobID, Configuration) - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
- newToken(int) - 类 中的静态方法org.apache.hadoop.record.compiler.generated.Token
-
Returns a new Token object, by default.
- next(DocumentID, LineDocTextAndOp) - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocRecordReader
-
- next() - 类 中的方法org.apache.hadoop.contrib.utils.join.ArrayListBackedIterator
-
- next(MultiFileWordCount.WordOffset, Text) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MultiFileLineRecordReader
-
- next(Writable) - 类 中的方法org.apache.hadoop.io.ArrayFile.Reader
-
Read and return the next value in the file.
- next(WritableComparable, Writable) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
Read the next key/value pair in the map into
key
and
val
.
- next(Writable) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Read the next key in the file into
key
, skipping its
value.
- next(Writable, Writable) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Read the next key/value pair in the file into
key
and
val
.
- next(DataOutputBuffer) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
- next(Object) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Read the next key in the file, skipping its
value.
- next() - 接口 中的方法org.apache.hadoop.io.SequenceFile.Sorter.RawKeyValueIterator
-
Sets up the current key and value (for getKey and getValue)
- next(WritableComparable) - 类 中的方法org.apache.hadoop.io.SetFile.Reader
-
Read the next key in a set into
key
.
- next(X) - 类 中的方法org.apache.hadoop.mapred.join.ArrayListBackedIterator
-
- next(TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader.JoinDelegationIterator
-
- next(K, TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader
-
Emit the next set of key, value pairs as defined by the child
RecordReaders and operation associated with this composite RR.
- next(V) - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader.MultiFilterDelegationIterator
-
- next(K, V) - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader
-
Reads the next key/value pair from the input for processing.
- next(U) - 类 中的方法org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
-
- next(T) - 接口 中的方法org.apache.hadoop.mapred.join.ResetableIterator
-
Assign next value to actual.
- next(X) - 类 中的方法org.apache.hadoop.mapred.join.StreamBackedIterator
-
- next() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
-
Read the next k,v pair into the head of this object; return true iff
the RR and this are exhausted.
- next(K, U) - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
-
Write key-value pair at the head of this stream to the objects provided;
get next key-value pair from proxied RR.
- next(Text, Text) - 类 中的方法org.apache.hadoop.mapred.KeyValueLineRecordReader
-
Read key/value pair in a line.
- next(K, V) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
- next(LongWritable, T) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
-
Reads the next key/value pair from the input for processing.
- next(LongWritable, Text) - 类 中的方法org.apache.hadoop.mapred.LineRecordReader
-
Read a line.
- next() - 接口 中的方法org.apache.hadoop.mapred.RawKeyValueIterator
-
Sets up the current key and value (for getKey and getValue).
- next(K, V) - 接口 中的方法org.apache.hadoop.mapred.RecordReader
-
Reads the next key/value pair from the input for processing.
- next(BytesWritable, BytesWritable) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
Read raw bytes from a SequenceFile.
- next(Text, Text) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsTextRecordReader
-
Read key/value pair in a line.
- next(K, V) - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
-
- next(K) - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
-
- next() - 类 中的方法org.apache.hadoop.mapred.Task.CombineValuesIterator
-
- next(LongWritable, T) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
已过时。
- next() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext.ValueIterator
-
- next() - 类 中的方法org.apache.hadoop.metrics2.util.TryIterator
-
- next - 类 中的变量org.apache.hadoop.record.compiler.generated.Token
-
A reference to the next regular (non-special) token from the input
stream.
- next(Text, Text) - 类 中的方法org.apache.hadoop.streaming.StreamBaseRecordReader
-
Read a record.
- next(Text, Text) - 类 中的方法org.apache.hadoop.streaming.StreamXmlRecordReader
-
- nextEvent() - 类 中的方法org.apache.hadoop.tools.rumen.Hadoop20JHParser
-
- nextEvent() - 接口 中的方法org.apache.hadoop.tools.rumen.JobHistoryParser
-
Get the next
HistoryEvent
- nextGenerationStamp(Block, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Get the next GenerationStamp to be associated with the specified
block.
- nextGenerationStamp(Block, boolean) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
-
Get the next GenerationStamp to be associated with the specified
block.
- nextKey() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext
-
Start processing next unique key.
- nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
Read the next key, value pair.
- nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
- nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader
-
- nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
-
Read key/value pair in a line.
- nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.LineRecordReader
-
- nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
Read raw bytes from a SequenceFile.
- nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
-
Read key/value pair in a line.
- nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
-
- nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.MapContext
-
- nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.RecordReader
-
Read the next key, value pair.
- nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext
-
Advance to the next key/value pair.
- nextKeyValue() - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
-
Advance to the next key, value pair, returning null if at end.
- nextKeyValue() - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicRecordReader
-
Implementation of RecordReader::nextValue().
- nextRaw(DataOutputBuffer, SequenceFile.ValueBytes) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Read 'raw' records.
- nextRawKey(DataOutputBuffer) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Read 'raw' keys.
- nextRawKey() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
-
Fills up the rawKey object with the key returned by the Reader
- nextRawValue(SequenceFile.ValueBytes) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Read 'raw' values.
- nextRawValue(SequenceFile.ValueBytes) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
-
Fills up the passed rawValue with the value corresponding to the key
read earlier
- nextStamp() - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
-
First increments the counter and then returns the stamp
- NLineInputFormat - org.apache.hadoop.mapred.lib中的类
-
NLineInputFormat which splits N lines of input as one split.
- NLineInputFormat() - 类 的构造器org.apache.hadoop.mapred.lib.NLineInputFormat
-
- NLineInputFormat - org.apache.hadoop.mapreduce.lib.input中的类
-
NLineInputFormat which splits N lines of input as one split.
- NLineInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
-
- NN_RECOVERY_LEASEHOLDER - 接口 中的静态变量org.apache.hadoop.hdfs.server.common.HdfsConstants
-
- nnAddr - 类 中的变量org.apache.hadoop.hdfs.HftpFileSystem
-
- NO_DESCRIPTION - 类 中的静态变量org.apache.hadoop.metrics.util.MetricsBase
-
已过时。
- NO_DESCRIPTION - 类 中的静态变量org.apache.hadoop.metrics2.Metric
-
- NO_MOVE_BLOCK - 类 中的静态变量org.apache.hadoop.hdfs.server.balancer.Balancer
-
- NO_MOVE_PROGRESS - 类 中的静态变量org.apache.hadoop.hdfs.server.balancer.Balancer
-
- Node - org.apache.hadoop.net中的接口
-
The interface defines a node in a network topology.
- Node - org.apache.hadoop.tools.rumen中的类
-
Node
represents a node in the cluster topology.
- Node(String, int) - 类 的构造器org.apache.hadoop.tools.rumen.Node
-
- NodeBase - org.apache.hadoop.net中的类
-
A base class that implements interface Node
- NodeBase() - 类 的构造器org.apache.hadoop.net.NodeBase
-
Default constructor
- NodeBase(String) - 类 的构造器org.apache.hadoop.net.NodeBase
-
Construct a node from its path
- NodeBase(String, String) - 类 的构造器org.apache.hadoop.net.NodeBase
-
Construct a node from its name and its location
- NodeBase(String, String, Node, int) - 类 的构造器org.apache.hadoop.net.NodeBase
-
Construct a node from its name and its location
- NoEmitMetricsContext - org.apache.hadoop.metrics.spi中的类
-
已过时。
in favor of
org.apache.hadoop.metrics2
usage.
- NoEmitMetricsContext() - 类 的构造器org.apache.hadoop.metrics.spi.NoEmitMetricsContext
-
已过时。
Creates a new instance of NullContextWithUpdateThread
- noInterruptsLock - 类 中的变量org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
If the delegation token update thread holds this lock, it will
not get interrupted.
- NONEXISTENT_STATUS - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.NamenodeFsck
-
- normalize(String) - 类 中的静态方法org.apache.hadoop.net.NodeBase
-
Normalize a path
- normalizeHostName(String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Given a string representation of a host, return its ip address
in textual presentation.
- normalizeHostNames(Collection<String>) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Given a collection of string representation of hosts, return a list of
corresponding IP addresses in the textual representation.
- normalizeMemoryConfigValue(long) - 类 中的静态方法org.apache.hadoop.mapred.JobConf
-
Normalize the negative values in configuration
- normalizePath(String) - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.Shard
-
- not() - 枚举 中的方法org.apache.hadoop.fs.permission.FsAction
-
NOT operation.
- not() - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
-
- not() - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
-
- not() - 类 中的方法org.apache.hadoop.util.bloom.DynamicBloomFilter
-
- not() - 类 中的方法org.apache.hadoop.util.bloom.Filter
-
Performs a logical NOT on this filter.
- NOTIFY - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
-
- notifyNamenodeReceivedBlock(Block, String) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- NotReplicatedYetException - org.apache.hadoop.hdfs.server.namenode中的异常错误
-
The file has not finished being written to enough datanodes yet.
- NotReplicatedYetException(String) - 异常错误 的构造器org.apache.hadoop.hdfs.server.namenode.NotReplicatedYetException
-
- now() - 类 中的静态方法org.apache.hadoop.hdfs.server.common.Util
-
Current system time.
- NSQuotaExceededException - org.apache.hadoop.hdfs.protocol中的异常错误
-
- NSQuotaExceededException(String) - 异常错误 的构造器org.apache.hadoop.hdfs.protocol.NSQuotaExceededException
-
- NSQuotaExceededException(long, long) - 异常错误 的构造器org.apache.hadoop.hdfs.protocol.NSQuotaExceededException
-
- NULL - 接口 中的静态变量org.apache.hadoop.mapred.Reporter
-
A constant of Reporter type that does nothing.
- NullContext - org.apache.hadoop.metrics.spi中的类
-
已过时。
in favor of
org.apache.hadoop.metrics2
usage.
- NullContext() - 类 的构造器org.apache.hadoop.metrics.spi.NullContext
-
已过时。
Creates a new instance of NullContext
- NullContextWithUpdateThread - org.apache.hadoop.metrics.spi中的类
-
已过时。
in favor of
org.apache.hadoop.metrics2
usage.
- NullContextWithUpdateThread() - 类 的构造器org.apache.hadoop.metrics.spi.NullContextWithUpdateThread
-
已过时。
Creates a new instance of NullContextWithUpdateThread
- NullOutputFormat<K,V> - org.apache.hadoop.mapred.lib中的类
-
Consume all outputs and put them in /dev/null.
- NullOutputFormat() - 类 的构造器org.apache.hadoop.mapred.lib.NullOutputFormat
-
- NullOutputFormat<K,V> - org.apache.hadoop.mapreduce.lib.output中的类
-
Consume all outputs and put them in /dev/null.
- NullOutputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.NullOutputFormat
-
- NullWritable - org.apache.hadoop.io中的类
-
Singleton Writable with no data.
- NullWritable.Comparator - org.apache.hadoop.io中的类
-
A Comparator "optimized" for NullWritable.
- NullWritable.Comparator() - 类 的构造器org.apache.hadoop.io.NullWritable.Comparator
-
- NUM_OF_VALUES_FIELD - 类 中的静态变量org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
-
- NUM_OVERSHOOT_BYTES - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
-
- numberOfBytesTillNextMarker(InputStream) - 类 中的静态方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
-
Returns the number of bytes between the current stream position
and the immediate next BZip2 block marker.
- numberOfSecretKeys() - 类 中的方法org.apache.hadoop.security.Credentials
-
- numberOfTokens() - 类 中的方法org.apache.hadoop.security.Credentials
-
- numBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
-
- numCorruptReplicas(Block) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CorruptReplicasMap
-
- numDeadDataNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Number of dead data nodes
- numDeadDataNodes() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Number of dead data nodes
- numLiveDataNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Number of live data nodes
- numLiveDataNodes() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Number of Live data nodes
- numOfRacks - 类 中的变量org.apache.hadoop.net.NetworkTopology
-
- numOfValues - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
-
- numReduceTasksSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- numSamples() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
-
O
- O_APPEND - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- O_ASYNC - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- O_CREAT - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- O_EXCL - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- O_FSYNC - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- O_NDELAY - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- O_NOCTTY - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- O_NONBLOCK - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- O_RDONLY - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- O_RDWR - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- O_SYNC - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- O_TRUNC - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- O_WRONLY - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- ObjectWritable - org.apache.hadoop.io中的类
-
A polymorphic Writable that writes an instance with it's class name.
- ObjectWritable() - 类 的构造器org.apache.hadoop.io.ObjectWritable
-
- ObjectWritable(Object) - 类 的构造器org.apache.hadoop.io.ObjectWritable
-
- ObjectWritable(Class, Object) - 类 的构造器org.apache.hadoop.io.ObjectWritable
-
- obtainCounters() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTask
-
- obtainCounters() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTaskAttempt
-
- obtainDiagnosticInfo() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTask
-
- obtainDiagnosticInfo() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTaskAttempt
-
- obtainFailedDueToAttemptId() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTask
-
- obtainHttpPort() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTaskAttempt
-
- obtainJobAcls() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedJob
-
- obtainJobCleanupTask(TaskTrackerStatus, int, int, boolean) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Return a CleanupTask, if appropriate, to run on the given tasktracker
- obtainJobConfpath() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedJob
-
- obtainJobSetupTask(TaskTrackerStatus, int, int, boolean) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Return a SetupTask, if appropriate, to run on the given tasktracker
- obtainMapCounters() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedJob
-
- obtainMapTasks() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedJob
-
- obtainNewMapTask(TaskTrackerStatus, int, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Return a MapTask, if appropriate, to run on the given tasktracker
- obtainNewMapTaskCommon(TaskTrackerStatus, int, int, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Return a MapTask with locality level that smaller or equal than a given
locality level to tasktracker.
- obtainNewNodeLocalMapTask(TaskTrackerStatus, int, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- obtainNewNodeOrRackLocalMapTask(TaskTrackerStatus, int, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- obtainNewNonLocalMapTask(TaskTrackerStatus, int, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- obtainNewReduceTask(TaskTrackerStatus, int, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Return a ReduceTask, if appropriate, to run on the given tasktracker.
- obtainOtherTasks() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedJob
-
- obtainReduceCounters() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedJob
-
- obtainReduceTasks() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedJob
-
- obtainStateString() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTaskAttempt
-
- obtainTaskAttempts() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTask
-
- obtainTaskCleanupTask(TaskTrackerStatus, boolean) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- obtainTokensForNamenodes(Credentials, Path[], Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
-
Convenience method to obtain delegation tokens from namenodes
corresponding to the paths passed.
- obtainTotalCounters() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedJob
-
- obtainTrackerName() - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTaskAttempt
-
- offerService() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Main loop for the DataNode.
- offerService() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Run forever
- OfflineImageViewer - org.apache.hadoop.hdfs.tools.offlineImageViewer中的类
-
OfflineImageViewer to dump the contents of an Hadoop image file to XML
or the console.
- OfflineImageViewer(String, ImageVisitor, boolean) - 类 的构造器org.apache.hadoop.hdfs.tools.offlineImageViewer.OfflineImageViewer
-
- offset() - 类 中的方法org.apache.hadoop.io.file.tfile.ByteArray
-
- offset() - 接口 中的方法org.apache.hadoop.io.file.tfile.RawComparable
-
Get the offset of the first byte in the byte array.
- offset - 类 中的变量org.apache.hadoop.metrics.ganglia.GangliaContext
-
已过时。
- OffsetParam - org.apache.hadoop.hdfs.web.resources中的类
-
Offset parameter.
- OffsetParam(Long) - 类 的构造器org.apache.hadoop.hdfs.web.resources.OffsetParam
-
Constructor.
- OffsetParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.OffsetParam
-
Constructor.
- ONE - 接口 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorDescriptor
-
- oneRotation - 类 中的静态变量org.apache.hadoop.examples.dancing.Pentomino
-
Is the piece fixed under rotation?
- OneSidedPentomino - org.apache.hadoop.examples.dancing中的类
-
Of the "normal" 12 pentominos, 6 of them have distinct shapes when flipped.
- OneSidedPentomino() - 类 的构造器org.apache.hadoop.examples.dancing.OneSidedPentomino
-
- OneSidedPentomino(int, int) - 类 的构造器org.apache.hadoop.examples.dancing.OneSidedPentomino
-
- OP_BLOCK_CHECKSUM - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
-
- OP_COPY_BLOCK - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
-
- OP_READ_BLOCK - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
-
- OP_READ_METADATA - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
-
已过时。
As of version 15, OP_READ_METADATA is no longer supported
- OP_REPLACE_BLOCK - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
-
- OP_STATUS_CHECKSUM_OK - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
-
- OP_STATUS_ERROR - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
-
- OP_STATUS_ERROR_ACCESS_TOKEN - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
-
- OP_STATUS_ERROR_CHECKSUM - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
-
- OP_STATUS_ERROR_EXISTS - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
-
- OP_STATUS_ERROR_INVALID - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
-
- OP_STATUS_SUCCESS - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
-
- OP_WRITE_BLOCK - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol
-
- open(Path, int) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
Opens an FSDataInputStream at the indicated Path.
- open(Path, int) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Opens an FSDataInputStream at the indicated Path.
- open(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Opens an FSDataInputStream at the indicated Path.
- open(Path, int) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Opens an FSDataInputStream at the indicated Path.
- open(Path, int) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
-
- open(Path, int) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
Returns a har input stream which fakes end of
file.
- open(Path, int) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- open(Path, int) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- open(Path, int) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
- open(Path, int) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
- open(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
- open(String, int, boolean, FileSystem.Statistics) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Create an input stream that obtains a nodelist from the
namenode, and then reads from all the right places.
- open(Path, int) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- open(Path, int) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- open() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSEditLog
-
Create empty edit log files.
- open(Path, int) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- open(FileSystem, String, WritableComparator, Configuration) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
- open(String, int, int) - 类 中的静态方法org.apache.hadoop.io.nativeio.NativeIO
-
Wrapper around open(2)
- open(InputStream) - 接口 中的方法org.apache.hadoop.io.serializer.Deserializer
-
Prepare the deserializer for reading.
- open(OutputStream) - 接口 中的方法org.apache.hadoop.io.serializer.Serializer
-
Prepare the serializer for writing.
- openConnection(String, String) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
Open an HTTP connection to the namenode to read file data and metadata.
- openConnection(String, String) - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem
-
- openConnection(URL, AuthenticatedURL.Token) - 类 中的方法org.apache.hadoop.security.authentication.client.AuthenticatedURL
-
Returns an authenticated
HttpURLConnection
.
- OpenEntity - org.apache.hadoop.hdfs.server.datanode.web.resources中的类
-
A response entity for a DFSDataInputStream.
- OpenEntity.Writer - org.apache.hadoop.hdfs.server.datanode.web.resources中的类
-
A
MessageBodyWriter
for OpenEntity
.
- OpenEntity.Writer() - 类 的构造器org.apache.hadoop.hdfs.server.datanode.web.resources.OpenEntity.Writer
-
- openFile(FileSystem, Path, int, long) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Override this method to specialize the type of
FSDataInputStream
returned.
- openForRead(File, String) - 类 中的静态方法org.apache.hadoop.io.SecureIOUtils
-
Open the given File for read access, verifying the expected user
constraints.
- openInput(String) - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
-
- openInput(String, int) - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
-
- openInputStream() - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
-
- openSecureHttpConnection(URL) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
Open a (if need be) secure connection to a URL in a secure environment
that is using SPNEGO or KSSL to authenticate its URLs.
- Operation - org.apache.hadoop.mapred中的枚举
-
Generic operation that maps to the dependent set of ACLs that drive the
authorization of the operation.
- OptionsParser - org.apache.hadoop.tools.distcp2中的类
-
The OptionsParser parses out the command-line options passed to DistCp,
and interprets those specific to DistCp, to create an Options object.
- OptionsParser() - 类 的构造器org.apache.hadoop.tools.distcp2.OptionsParser
-
- or(FsAction) - 枚举 中的方法org.apache.hadoop.fs.permission.FsAction
-
OR operation.
- or(Filter) - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
-
- or(Filter) - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
-
- or(Filter) - 类 中的方法org.apache.hadoop.util.bloom.DynamicBloomFilter
-
- or(Filter) - 类 中的方法org.apache.hadoop.util.bloom.Filter
-
Peforms a logical OR between this filter and a specified filter.
- OracleDataDrivenDBInputFormat<T extends DBWritable> - org.apache.hadoop.mapreduce.lib.db中的类
-
A InputFormat that reads input data from an SQL table in an Oracle db.
- OracleDataDrivenDBInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.OracleDataDrivenDBInputFormat
-
- OracleDataDrivenDBRecordReader<T extends DBWritable> - org.apache.hadoop.mapreduce.lib.db中的类
-
A RecordReader that reads records from a Oracle table via DataDrivenDBRecordReader
- OracleDataDrivenDBRecordReader(DBInputFormat.DBInputSplit, Class<T>, Configuration, Connection, DBConfiguration, String, String[], String) - 类 的构造器org.apache.hadoop.mapreduce.lib.db.OracleDataDrivenDBRecordReader
-
- OracleDateSplitter - org.apache.hadoop.mapreduce.lib.db中的类
-
Implement DBSplitter over date/time values returned by an Oracle db.
- OracleDateSplitter() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.OracleDateSplitter
-
- OracleDBRecordReader<T extends DBWritable> - org.apache.hadoop.mapreduce.lib.db中的类
-
A RecordReader that reads records from an Oracle SQL table.
- OracleDBRecordReader(DBInputFormat.DBInputSplit, Class<T>, Configuration, Connection, DBConfiguration, String, String[], String) - 类 的构造器org.apache.hadoop.mapreduce.lib.db.OracleDBRecordReader
-
- org.apache.hadoop - 程序包 org.apache.hadoop
-
- org.apache.hadoop.classification - 程序包 org.apache.hadoop.classification
-
- org.apache.hadoop.conf - 程序包 org.apache.hadoop.conf
-
Configuration of system parameters.
- org.apache.hadoop.contrib.index.example - 程序包 org.apache.hadoop.contrib.index.example
-
- org.apache.hadoop.contrib.index.lucene - 程序包 org.apache.hadoop.contrib.index.lucene
-
- org.apache.hadoop.contrib.index.main - 程序包 org.apache.hadoop.contrib.index.main
-
- org.apache.hadoop.contrib.index.mapred - 程序包 org.apache.hadoop.contrib.index.mapred
-
- org.apache.hadoop.contrib.utils.join - 程序包 org.apache.hadoop.contrib.utils.join
-
- org.apache.hadoop.examples - 程序包 org.apache.hadoop.examples
-
Hadoop example code.
- org.apache.hadoop.examples.dancing - 程序包 org.apache.hadoop.examples.dancing
-
This package is a distributed implementation of Knuth's dancing links
algorithm that can run under Hadoop.
- org.apache.hadoop.examples.terasort - 程序包 org.apache.hadoop.examples.terasort
-
This package consists of 3 map/reduce applications for Hadoop to
compete in the annual terabyte sort
competition.
- org.apache.hadoop.filecache - 程序包 org.apache.hadoop.filecache
-
- org.apache.hadoop.fs - 程序包 org.apache.hadoop.fs
-
An abstract file system API.
- org.apache.hadoop.fs.ftp - 程序包 org.apache.hadoop.fs.ftp
-
- org.apache.hadoop.fs.kfs - 程序包 org.apache.hadoop.fs.kfs
-
A client for the Kosmos filesystem (KFS)
Introduction
This pages describes how to use Kosmos Filesystem
( KFS ) as a backing
store with Hadoop.
- org.apache.hadoop.fs.permission - 程序包 org.apache.hadoop.fs.permission
-
- org.apache.hadoop.fs.s3 - 程序包 org.apache.hadoop.fs.s3
-
A distributed, block-based implementation of
FileSystem
that uses Amazon S3
as a backing store.
- org.apache.hadoop.fs.s3native - 程序包 org.apache.hadoop.fs.s3native
-
A distributed implementation of
FileSystem
for reading and writing files on
Amazon S3.
- org.apache.hadoop.fs.shell - 程序包 org.apache.hadoop.fs.shell
-
- org.apache.hadoop.hdfs - 程序包 org.apache.hadoop.hdfs
-
A distributed implementation of
FileSystem
.
- org.apache.hadoop.hdfs.protocol - 程序包 org.apache.hadoop.hdfs.protocol
-
- org.apache.hadoop.hdfs.security.token.block - 程序包 org.apache.hadoop.hdfs.security.token.block
-
- org.apache.hadoop.hdfs.security.token.delegation - 程序包 org.apache.hadoop.hdfs.security.token.delegation
-
- org.apache.hadoop.hdfs.server.balancer - 程序包 org.apache.hadoop.hdfs.server.balancer
-
- org.apache.hadoop.hdfs.server.common - 程序包 org.apache.hadoop.hdfs.server.common
-
- org.apache.hadoop.hdfs.server.datanode - 程序包 org.apache.hadoop.hdfs.server.datanode
-
- org.apache.hadoop.hdfs.server.datanode.metrics - 程序包 org.apache.hadoop.hdfs.server.datanode.metrics
-
- org.apache.hadoop.hdfs.server.datanode.web.resources - 程序包 org.apache.hadoop.hdfs.server.datanode.web.resources
-
- org.apache.hadoop.hdfs.server.namenode - 程序包 org.apache.hadoop.hdfs.server.namenode
-
- org.apache.hadoop.hdfs.server.namenode.metrics - 程序包 org.apache.hadoop.hdfs.server.namenode.metrics
-
- org.apache.hadoop.hdfs.server.namenode.web.resources - 程序包 org.apache.hadoop.hdfs.server.namenode.web.resources
-
- org.apache.hadoop.hdfs.server.protocol - 程序包 org.apache.hadoop.hdfs.server.protocol
-
- org.apache.hadoop.hdfs.tools - 程序包 org.apache.hadoop.hdfs.tools
-
- org.apache.hadoop.hdfs.tools.offlineImageViewer - 程序包 org.apache.hadoop.hdfs.tools.offlineImageViewer
-
- org.apache.hadoop.hdfs.util - 程序包 org.apache.hadoop.hdfs.util
-
- org.apache.hadoop.hdfs.web - 程序包 org.apache.hadoop.hdfs.web
-
- org.apache.hadoop.hdfs.web.resources - 程序包 org.apache.hadoop.hdfs.web.resources
-
- org.apache.hadoop.http - 程序包 org.apache.hadoop.http
-
- org.apache.hadoop.http.lib - 程序包 org.apache.hadoop.http.lib
-
- org.apache.hadoop.io - 程序包 org.apache.hadoop.io
-
Generic i/o code for use when reading and writing data to the network,
to databases, and to files.
- org.apache.hadoop.io.compress - 程序包 org.apache.hadoop.io.compress
-
- org.apache.hadoop.io.compress.bzip2 - 程序包 org.apache.hadoop.io.compress.bzip2
-
- org.apache.hadoop.io.compress.snappy - 程序包 org.apache.hadoop.io.compress.snappy
-
- org.apache.hadoop.io.compress.zlib - 程序包 org.apache.hadoop.io.compress.zlib
-
- org.apache.hadoop.io.file.tfile - 程序包 org.apache.hadoop.io.file.tfile
-
- org.apache.hadoop.io.nativeio - 程序包 org.apache.hadoop.io.nativeio
-
- org.apache.hadoop.io.retry - 程序包 org.apache.hadoop.io.retry
-
A mechanism for selectively retrying methods that throw exceptions under certain circumstances.
- org.apache.hadoop.io.serializer - 程序包 org.apache.hadoop.io.serializer
-
This package provides a mechanism for using different serialization frameworks
in Hadoop.
- org.apache.hadoop.ipc - 程序包 org.apache.hadoop.ipc
-
Tools to help define network clients and servers.
- org.apache.hadoop.ipc.metrics - 程序包 org.apache.hadoop.ipc.metrics
-
- org.apache.hadoop.jmx - 程序包 org.apache.hadoop.jmx
-
This package provides access to JMX primarily through the
JMXJsonServlet
class.
- org.apache.hadoop.log - 程序包 org.apache.hadoop.log
-
- org.apache.hadoop.log.metrics - 程序包 org.apache.hadoop.log.metrics
-
- org.apache.hadoop.mapred - 程序包 org.apache.hadoop.mapred
-
A software framework for easily writing applications which process vast
amounts of data (multi-terabyte data-sets) parallelly on large clusters
(thousands of nodes) built of commodity hardware in a reliable, fault-tolerant
manner.
- org.apache.hadoop.mapred.jobcontrol - 程序包 org.apache.hadoop.mapred.jobcontrol
-
Utilities for managing dependent jobs.
- org.apache.hadoop.mapred.join - 程序包 org.apache.hadoop.mapred.join
-
Given a set of sorted datasets keyed with the same class and yielding equal
partitions, it is possible to effect a join of those datasets prior to the map.
- org.apache.hadoop.mapred.lib - 程序包 org.apache.hadoop.mapred.lib
-
Library of generally useful mappers, reducers, and partitioners.
- org.apache.hadoop.mapred.lib.aggregate - 程序包 org.apache.hadoop.mapred.lib.aggregate
-
Classes for performing various counting and aggregations.
- org.apache.hadoop.mapred.lib.db - 程序包 org.apache.hadoop.mapred.lib.db
-
org.apache.hadoop.mapred.lib.db Package
This package contains a library to read records from a database as an
input to a mapreduce job, and write the output records to the database.
- org.apache.hadoop.mapred.pipes - 程序包 org.apache.hadoop.mapred.pipes
-
Hadoop Pipes allows C++ code to use Hadoop DFS and map/reduce.
- org.apache.hadoop.mapred.tools - 程序包 org.apache.hadoop.mapred.tools
-
- org.apache.hadoop.mapreduce - 程序包 org.apache.hadoop.mapreduce
-
- org.apache.hadoop.mapreduce.lib.db - 程序包 org.apache.hadoop.mapreduce.lib.db
-
- org.apache.hadoop.mapreduce.lib.fieldsel - 程序包 org.apache.hadoop.mapreduce.lib.fieldsel
-
- org.apache.hadoop.mapreduce.lib.input - 程序包 org.apache.hadoop.mapreduce.lib.input
-
- org.apache.hadoop.mapreduce.lib.jobcontrol - 程序包 org.apache.hadoop.mapreduce.lib.jobcontrol
-
- org.apache.hadoop.mapreduce.lib.map - 程序包 org.apache.hadoop.mapreduce.lib.map
-
- org.apache.hadoop.mapreduce.lib.output - 程序包 org.apache.hadoop.mapreduce.lib.output
-
- org.apache.hadoop.mapreduce.lib.partition - 程序包 org.apache.hadoop.mapreduce.lib.partition
-
- org.apache.hadoop.mapreduce.lib.reduce - 程序包 org.apache.hadoop.mapreduce.lib.reduce
-
- org.apache.hadoop.mapreduce.security - 程序包 org.apache.hadoop.mapreduce.security
-
- org.apache.hadoop.mapreduce.security.token - 程序包 org.apache.hadoop.mapreduce.security.token
-
- org.apache.hadoop.mapreduce.security.token.delegation - 程序包 org.apache.hadoop.mapreduce.security.token.delegation
-
- org.apache.hadoop.mapreduce.server.jobtracker - 程序包 org.apache.hadoop.mapreduce.server.jobtracker
-
- org.apache.hadoop.mapreduce.server.tasktracker - 程序包 org.apache.hadoop.mapreduce.server.tasktracker
-
- org.apache.hadoop.mapreduce.server.tasktracker.userlogs - 程序包 org.apache.hadoop.mapreduce.server.tasktracker.userlogs
-
- org.apache.hadoop.mapreduce.split - 程序包 org.apache.hadoop.mapreduce.split
-
- org.apache.hadoop.metrics - 程序包 org.apache.hadoop.metrics
-
Note, this package is deprecated in favor of
org.apache.hadoop.metrics2
usage.
- org.apache.hadoop.metrics.file - 程序包 org.apache.hadoop.metrics.file
-
Implementation of the metrics package that writes the metrics to a file.
- org.apache.hadoop.metrics.ganglia - 程序包 org.apache.hadoop.metrics.ganglia
-
Implementation of the metrics package that sends metric data to
Ganglia.
- org.apache.hadoop.metrics.jvm - 程序包 org.apache.hadoop.metrics.jvm
-
- org.apache.hadoop.metrics.spi - 程序包 org.apache.hadoop.metrics.spi
-
Note, this package is deprecated in favor of
org.apache.hadoop.metrics2
usage.
- org.apache.hadoop.metrics.util - 程序包 org.apache.hadoop.metrics.util
-
- org.apache.hadoop.metrics2 - 程序包 org.apache.hadoop.metrics2
-
Metrics 2.0
Overview
Getting Started
Metrics Filtering
Metrics Instrumentation Strategy
Migration from previous system
Overview
This package provides a framework for metrics instrumentation
and publication.
- org.apache.hadoop.metrics2.filter - 程序包 org.apache.hadoop.metrics2.filter
-
- org.apache.hadoop.metrics2.impl - 程序包 org.apache.hadoop.metrics2.impl
-
- org.apache.hadoop.metrics2.lib - 程序包 org.apache.hadoop.metrics2.lib
-
- org.apache.hadoop.metrics2.sink - 程序包 org.apache.hadoop.metrics2.sink
-
- org.apache.hadoop.metrics2.sink.ganglia - 程序包 org.apache.hadoop.metrics2.sink.ganglia
-
- org.apache.hadoop.metrics2.source - 程序包 org.apache.hadoop.metrics2.source
-
- org.apache.hadoop.metrics2.util - 程序包 org.apache.hadoop.metrics2.util
-
- org.apache.hadoop.net - 程序包 org.apache.hadoop.net
-
Network-related classes.
- org.apache.hadoop.record - 程序包 org.apache.hadoop.record
-
Hadoop record I/O contains classes and a record description language
translator for simplifying serialization and deserialization of records in a
language-neutral manner.
- org.apache.hadoop.record.compiler - 程序包 org.apache.hadoop.record.compiler
-
This package contains classes needed for code generation
from the hadoop record compiler.
- org.apache.hadoop.record.compiler.ant - 程序包 org.apache.hadoop.record.compiler.ant
-
- org.apache.hadoop.record.compiler.generated - 程序包 org.apache.hadoop.record.compiler.generated
-
This package contains code generated by JavaCC from the
Hadoop record syntax file rcc.jj.
- org.apache.hadoop.record.meta - 程序包 org.apache.hadoop.record.meta
-
- org.apache.hadoop.security - 程序包 org.apache.hadoop.security
-
- org.apache.hadoop.security.authentication.client - 程序包 org.apache.hadoop.security.authentication.client
-
- org.apache.hadoop.security.authentication.server - 程序包 org.apache.hadoop.security.authentication.server
-
- org.apache.hadoop.security.authentication.util - 程序包 org.apache.hadoop.security.authentication.util
-
- org.apache.hadoop.security.authorize - 程序包 org.apache.hadoop.security.authorize
-
- org.apache.hadoop.security.token - 程序包 org.apache.hadoop.security.token
-
- org.apache.hadoop.security.token.delegation - 程序包 org.apache.hadoop.security.token.delegation
-
- org.apache.hadoop.streaming - 程序包 org.apache.hadoop.streaming
-
Hadoop Streaming is a utility which allows users to create and run
Map-Reduce jobs with any executables (e.g.
- org.apache.hadoop.streaming.io - 程序包 org.apache.hadoop.streaming.io
-
- org.apache.hadoop.tools - 程序包 org.apache.hadoop.tools
-
- org.apache.hadoop.tools.distcp2 - 程序包 org.apache.hadoop.tools.distcp2
-
- org.apache.hadoop.tools.distcp2.mapred - 程序包 org.apache.hadoop.tools.distcp2.mapred
-
- org.apache.hadoop.tools.distcp2.mapred.lib - 程序包 org.apache.hadoop.tools.distcp2.mapred.lib
-
- org.apache.hadoop.tools.distcp2.util - 程序包 org.apache.hadoop.tools.distcp2.util
-
- org.apache.hadoop.tools.rumen - 程序包 org.apache.hadoop.tools.rumen
-
Rumen is a data extraction and analysis tool built for
Apache Hadoop.
- org.apache.hadoop.typedbytes - 程序包 org.apache.hadoop.typedbytes
-
Typed bytes are sequences of bytes in which the first byte is a type code.
- org.apache.hadoop.util - 程序包 org.apache.hadoop.util
-
Common utilities.
- org.apache.hadoop.util.bloom - 程序包 org.apache.hadoop.util.bloom
-
- org.apache.hadoop.util.hash - 程序包 org.apache.hadoop.util.hash
-
- originalURL - 类 中的变量org.apache.hadoop.hdfs.ByteRangeInputStream
-
- osType - 类 中的静态变量org.apache.hadoop.fs.HardLink
-
- out - 类 中的变量org.apache.hadoop.io.compress.CompressionOutputStream
-
The output stream to be compressed.
- out - 类 中的变量org.apache.hadoop.mapred.TextOutputFormat.LineRecordWriter
-
- out - 类 中的变量org.apache.hadoop.mapreduce.lib.output.TextOutputFormat.LineRecordWriter
-
- OuterJoinRecordReader<K extends WritableComparable> - org.apache.hadoop.mapred.join中的类
-
Full outer join.
- outerrThreadsThrowable - 类 中的变量org.apache.hadoop.streaming.PipeMapRed
-
- output(T) - 类 中的方法org.apache.hadoop.tools.rumen.DefaultOutputter
-
- output(T) - 接口 中的方法org.apache.hadoop.tools.rumen.Outputter
-
Output an object.
- output_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- OUTPUT_FIELD_COUNT_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
Number of fields in the Output table
- OUTPUT_FIELD_NAMES_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
-
Field names in the Output table
- OUTPUT_FIELD_NAMES_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
Field names in the Output table
- OUTPUT_FORMAT - 类 中的静态变量org.apache.hadoop.mapreduce.lib.output.LazyOutputFormat
-
- OUTPUT_FORMAT_CLASS_ATTR - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
-
- OUTPUT_TABLE_NAME_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
-
Output table name
- OUTPUT_TABLE_NAME_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
Output table name
- OutputBuffer - org.apache.hadoop.io中的类
-
A reusable
OutputStream
implementation that writes to an in-memory
buffer.
- OutputBuffer() - 类 的构造器org.apache.hadoop.io.OutputBuffer
-
Constructs a new empty buffer.
- OutputCollector<K,V> - org.apache.hadoop.mapred中的接口
-
- OutputCommitter - org.apache.hadoop.mapred中的类
-
OutputCommitter
describes the commit of task output for a
Map-Reduce job.
- OutputCommitter() - 类 的构造器org.apache.hadoop.mapred.OutputCommitter
-
- OutputCommitter - org.apache.hadoop.mapreduce中的类
-
OutputCommitter
describes the commit of task output for a
Map-Reduce job.
- OutputCommitter() - 类 的构造器org.apache.hadoop.mapreduce.OutputCommitter
-
- OutputFormat<K,V> - org.apache.hadoop.mapred中的接口
-
OutputFormat
describes the output-specification for a
Map-Reduce job.
- outputFormat - 类 中的变量org.apache.hadoop.mapred.Task
-
- OutputFormat<K,V> - org.apache.hadoop.mapreduce中的类
-
OutputFormat
describes the output-specification for a
Map-Reduce job.
- OutputFormat() - 类 的构造器org.apache.hadoop.mapreduce.OutputFormat
-
- outputFormatSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- OutputLogFilter - org.apache.hadoop.mapred中的类
-
已过时。
Use
Utils.OutputFileUtils.OutputLogFilter
instead.
- OutputLogFilter() - 类 的构造器org.apache.hadoop.mapred.OutputLogFilter
-
已过时。
- OutputReader<K,V> - org.apache.hadoop.streaming.io中的类
-
Abstract base for classes that read the client's output.
- OutputReader() - 类 的构造器org.apache.hadoop.streaming.io.OutputReader
-
- OutputRecord - org.apache.hadoop.metrics.spi中的类
-
已过时。
in favor of
org.apache.hadoop.metrics2
usage.
- outputSingleNode_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- Outputter<T> - org.apache.hadoop.tools.rumen中的接口
-
Interface to output a sequence of objects of type T.
- OverrideRecordReader<K extends WritableComparable,V extends Writable> - org.apache.hadoop.mapred.join中的类
-
Prefer the "rightmost" data source for this key.
- overrideSchedulingOpportunities() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- OverwriteParam - org.apache.hadoop.hdfs.web.resources中的类
-
Overwrite parameter.
- OverwriteParam(Boolean) - 类 的构造器org.apache.hadoop.hdfs.web.resources.OverwriteParam
-
Constructor.
- OverwriteParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.OverwriteParam
-
Constructor.
- OwnerParam - org.apache.hadoop.hdfs.web.resources中的类
-
Owner parameter.
- OwnerParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.OwnerParam
-
Constructor.
P
- packageFiles_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- packageJobJar() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- packAttributes(EnumSet<DistCpOptions.FileAttribute>) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
Pack file preservation attributes into a string, containing
just the first character of each preservation attribute
- PAGE_SIZE - 类 中的静态变量org.apache.hadoop.util.ProcfsBasedProcessTree
-
- Param<T,D extends org.apache.hadoop.hdfs.web.resources.Param.Domain<T>> - org.apache.hadoop.hdfs.web.resources中的类
-
Base class of parameters.
- ParamFilter - org.apache.hadoop.hdfs.web中的类
-
A filter to change parameter names to lower cases
so that parameter names are considered as case insensitive.
- ParamFilter() - 类 的构造器org.apache.hadoop.hdfs.web.ParamFilter
-
- parent - 类 中的变量org.apache.hadoop.net.NodeBase
-
- parse(String[], int) - 类 中的方法org.apache.hadoop.fs.shell.CommandFormat
-
Parse parameters starting from the given position
- parse(String, int) - 类 中的静态方法org.apache.hadoop.metrics.spi.Util
-
Parses a space and/or comma separated sequence of server specifications
of the form hostname or hostname:port.
- parse(String, int) - 类 中的静态方法org.apache.hadoop.metrics2.util.Servers
-
Parses a space and/or comma separated sequence of server specifications
of the form hostname or hostname:port.
- parse(String) - 类 中的静态方法org.apache.hadoop.security.authentication.server.AuthenticationToken
-
Parses a string into an authentication token.
- parse(String[]) - 类 中的静态方法org.apache.hadoop.tools.distcp2.OptionsParser
-
The parse method parses the command-line options, and creates
a corresponding Options object.
- parseAndSetPeriod(String) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
If a period is set in the attribute passed in, override
the default with it.
- parseCommaSeparatedString(String) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry
-
Parse the given string as a MultipleLinearRandomRetry object.
- ParsedJob - org.apache.hadoop.tools.rumen中的类
-
This is a wrapper class around
LoggedJob
.
- ParsedTask - org.apache.hadoop.tools.rumen中的类
-
This is a wrapper class around
LoggedTask
.
- ParsedTaskAttempt - org.apache.hadoop.tools.rumen中的类
-
This is a wrapper class around
LoggedTaskAttempt
.
- ParseException - org.apache.hadoop.record.compiler.generated中的异常错误
-
This exception is thrown when parse errors are encountered.
- ParseException(Token, int[][], String[]) - 异常错误 的构造器org.apache.hadoop.record.compiler.generated.ParseException
-
This constructor is used by the method "generateParseException"
in the generated parser.
- ParseException() - 异常错误 的构造器org.apache.hadoop.record.compiler.generated.ParseException
-
The following constructors are for use by you for whatever
purpose you can think of.
- ParseException(String) - 异常错误 的构造器org.apache.hadoop.record.compiler.generated.ParseException
-
- parseExecResult(BufferedReader) - 类 中的方法org.apache.hadoop.fs.DF
-
- parseExecResult(BufferedReader) - 类 中的方法org.apache.hadoop.fs.DU
-
- parseExecResult(BufferedReader) - 类 中的方法org.apache.hadoop.util.Shell
-
Parse the execution result
- parseExecResult(BufferedReader) - 类 中的方法org.apache.hadoop.util.Shell.ShellCommandExecutor
-
- parseHashType(String) - 类 中的静态方法org.apache.hadoop.util.hash.Hash
-
This utility method converts String representation of hash function name
to a symbolic constant.
- parseHistoryFromFS(String, JobHistory.Listener, FileSystem) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory
-
Parses history file and invokes Listener.handle() for
each line of history.
- parseJobTasks(String, JobHistory.JobInfo, FileSystem) - 类 中的静态方法org.apache.hadoop.mapred.DefaultJobHistoryParser
-
Populates a JobInfo object from the job's history log file.
- parseOutputKeyValueSpec(String, List<Integer>, List<Integer>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
-
- Parser - org.apache.hadoop.mapred.join中的类
-
Very simple shift-reduce parser for join expressions.
- Parser() - 类 的构造器org.apache.hadoop.mapred.join.Parser
-
- Parser.Node - org.apache.hadoop.mapred.join中的类
-
- Parser.Node(String) - 类 的构造器org.apache.hadoop.mapred.join.Parser.Node
-
- Parser.NodeToken - org.apache.hadoop.mapred.join中的类
-
- Parser.NumToken - org.apache.hadoop.mapred.join中的类
-
- Parser.NumToken(double) - 类 的构造器org.apache.hadoop.mapred.join.Parser.NumToken
-
- Parser.StrToken - org.apache.hadoop.mapred.join中的类
-
- Parser.StrToken(Parser.TType, String) - 类 的构造器org.apache.hadoop.mapred.join.Parser.StrToken
-
- Parser.Token - org.apache.hadoop.mapred.join中的类
-
Tagged-union type for tokens from the join expression.
- Parser.TType - org.apache.hadoop.mapred.join中的枚举
-
- parseTopologyTree() - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- PART - 类 中的静态变量org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
- Partitioner<K2,V2> - org.apache.hadoop.mapred中的接口
-
Partitions the key space.
- Partitioner<KEY,VALUE> - org.apache.hadoop.mapreduce中的类
-
Partitions the key space.
- Partitioner() - 类 的构造器org.apache.hadoop.mapreduce.Partitioner
-
- PARTITIONER_CLASS_ATTR - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
-
- PARTITIONER_OPTIONS - 类 中的静态变量org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
-
- PARTITIONER_PATH - 类 中的静态变量org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
-
- partitionerSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- PASSWORD_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
-
Password to access the database
- PASSWORD_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
Password to access the database
- Path - org.apache.hadoop.fs中的类
-
Names a file or directory in a
FileSystem
.
- Path(String, String) - 类 的构造器org.apache.hadoop.fs.Path
-
Resolve a child path against a parent path.
- Path(Path, String) - 类 的构造器org.apache.hadoop.fs.Path
-
Resolve a child path against a parent path.
- Path(String, Path) - 类 的构造器org.apache.hadoop.fs.Path
-
Resolve a child path against a parent path.
- Path(Path, Path) - 类 的构造器org.apache.hadoop.fs.Path
-
Resolve a child path against a parent path.
- Path(String) - 类 的构造器org.apache.hadoop.fs.Path
-
Construct a path from a String.
- Path(String, String, String) - 类 的构造器org.apache.hadoop.fs.Path
-
Construct a Path from components.
- Path(URI) - 类 的构造器org.apache.hadoop.fs.Path
-
Construct a path from a URI
- PATH_PREFIX - 类 中的静态变量org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
Http URI: http://namenode:port/{PATH_PREFIX}/path/to/file
- PATH_SEPARATOR - 类 中的静态变量org.apache.hadoop.net.NodeBase
-
- PATH_SEPARATOR_STR - 类 中的静态变量org.apache.hadoop.net.NodeBase
-
- PATH_SPEC - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.CancelDelegationTokenServlet
-
- PATH_SPEC - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.GetDelegationTokenServlet
-
- PATH_SPEC - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.RenewDelegationTokenServlet
-
- PathFilter - org.apache.hadoop.fs中的接口
-
- PathFinder - org.apache.hadoop.streaming中的类
-
Maps a relative pathname to an absolute pathname using the
PATH enviroment.
- PathFinder() - 类 的构造器org.apache.hadoop.streaming.PathFinder
-
Construct a PathFinder object using the path from
java.class.path
- PathFinder(String) - 类 的构造器org.apache.hadoop.streaming.PathFinder
-
Construct a PathFinder object using the path from
the specified system environment variable.
- pathName - 异常错误 中的变量org.apache.hadoop.hdfs.protocol.QuotaExceededException
-
- pathToFile(Path) - 类 中的方法org.apache.hadoop.fs.LocalFileSystem
-
Convert a path to a File.
- pathToFile(Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
Convert a path to a File.
- pendingMaps() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- pendingReduces() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- Pentomino - org.apache.hadoop.examples.dancing中的类
-
- Pentomino(int, int) - 类 的构造器org.apache.hadoop.examples.dancing.Pentomino
-
Create the model for a given pentomino set of pieces and board size.
- Pentomino() - 类 的构造器org.apache.hadoop.examples.dancing.Pentomino
-
Create the object without initialization.
- Pentomino.ColumnName - org.apache.hadoop.examples.dancing中的接口
-
This interface just is a marker for what types I expect to get back
as column names.
- Pentomino.Piece - org.apache.hadoop.examples.dancing中的类
-
Maintain information about a puzzle piece.
- Pentomino.Piece(String, String, boolean, int[]) - 类 的构造器org.apache.hadoop.examples.dancing.Pentomino.Piece
-
- Pentomino.SolutionCategory - org.apache.hadoop.examples.dancing中的枚举
-
- percentageGraph(int, int) - 类 中的静态方法org.apache.hadoop.util.ServletUtil
-
Generate the percentage graph and returns HTML representation string
of the same.
- percentageGraph(float, int) - 类 中的静态方法org.apache.hadoop.util.ServletUtil
-
Generate the percentage graph and returns HTML representation string
of the same.
- PERIOD_PROPERTY - 类 中的静态变量org.apache.hadoop.metrics.file.FileContext
-
已过时。
- PermissionParam - org.apache.hadoop.hdfs.web.resources中的类
-
Permission parameter, use a Short to represent a FsPermission.
- PermissionParam(FsPermission) - 类 的构造器org.apache.hadoop.hdfs.web.resources.PermissionParam
-
Constructor.
- PermissionParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.PermissionParam
-
Constructor.
- PermissionStatus - org.apache.hadoop.fs.permission中的类
-
Store permission related information.
- PermissionStatus(String, String, FsPermission) - 类 的构造器org.apache.hadoop.fs.permission.PermissionStatus
-
Constructor
- phase() - 类 中的方法org.apache.hadoop.util.Progress
-
Returns the current sub-node executing.
- pickupReplicaSet(Collection<DatanodeDescriptor>, Collection<DatanodeDescriptor>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
-
Pick up replica node set for deleting replica as over-replicated.
- pickupReplicaSet(Collection<DatanodeDescriptor>, Collection<DatanodeDescriptor>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyWithNodeGroup
-
Pick up replica node set for deleting replica as over-replicated.
- pieces - 类 中的变量org.apache.hadoop.examples.dancing.Pentomino
-
- PiEstimator - org.apache.hadoop.examples中的类
-
A Map-reduce program to estimate the value of Pi
using quasi-Monte Carlo method.
- PiEstimator() - 类 的构造器org.apache.hadoop.examples.PiEstimator
-
- PiEstimator.PiMapper - org.apache.hadoop.examples中的类
-
Mapper class for Pi estimation.
- PiEstimator.PiMapper() - 类 的构造器org.apache.hadoop.examples.PiEstimator.PiMapper
-
- PiEstimator.PiReducer - org.apache.hadoop.examples中的类
-
Reducer class for Pi estimation.
- PiEstimator.PiReducer() - 类 的构造器org.apache.hadoop.examples.PiEstimator.PiReducer
-
- ping(TaskAttemptID, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
Child checking to see if we're alive.
- ping(TaskAttemptID, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
-
Periodically called by child to check if parent is still alive.
- PipeCombiner - org.apache.hadoop.streaming中的类
-
- PipeCombiner() - 类 的构造器org.apache.hadoop.streaming.PipeCombiner
-
- PipeMapper - org.apache.hadoop.streaming中的类
-
A generic Mapper bridge.
- PipeMapper() - 类 的构造器org.apache.hadoop.streaming.PipeMapper
-
- PipeMapRed - org.apache.hadoop.streaming中的类
-
Shared functionality for PipeMapper, PipeReducer.
- PipeMapRed() - 类 的构造器org.apache.hadoop.streaming.PipeMapRed
-
- PipeMapRunner<K1,V1,K2,V2> - org.apache.hadoop.streaming中的类
-
- PipeMapRunner() - 类 的构造器org.apache.hadoop.streaming.PipeMapRunner
-
- PipeReducer - org.apache.hadoop.streaming中的类
-
A generic Reducer bridge.
- PipeReducer() - 类 的构造器org.apache.hadoop.streaming.PipeReducer
-
- PKT_HEADER_LEN - 类 中的静态变量org.apache.hadoop.hdfs.server.datanode.DataNode
-
Header size for a packet
- PlatformName - org.apache.hadoop.util中的类
-
A helper class for getting build-info of the java-vm.
- PlatformName() - 类 的构造器org.apache.hadoop.util.PlatformName
-
- POLICY_PROVIDER_CONFIG - 类 中的静态变量org.apache.hadoop.security.authorize.PolicyProvider
-
Configuration key for the
PolicyProvider
implementation.
- PolicyProvider - org.apache.hadoop.security.authorize中的类
-
- PolicyProvider() - 类 的构造器org.apache.hadoop.security.authorize.PolicyProvider
-
- pop() - 类 中的方法org.apache.hadoop.util.PriorityQueue
-
Removes and returns the least element of the PriorityQueue in log(size)
time.
- PositionedReadable - org.apache.hadoop.fs中的接口
-
Stream that permits positional reading.
- POSIX_FADV_DONTNEED - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- POSIX_FADV_NOREUSE - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- POSIX_FADV_NORMAL - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- POSIX_FADV_RANDOM - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- POSIX_FADV_SEQUENTIAL - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- POSIX_FADV_WILLNEED - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- posixFadviseIfPossible(FileDescriptor, long, long, int) - 类 中的静态方法org.apache.hadoop.io.nativeio.NativeIO
-
Call posix_fadvise on the given file descriptor.
- post(InputStream, UserGroupInformation, DelegationParam, UriFsPathParam, PostOpParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.DatanodeWebHdfsMethods
-
Handle HTTP POST request.
- post(UserGroupInformation, DelegationParam, UserParam, DoAsParam, UriFsPathParam, PostOpParam, ConcatSourcesParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
-
Handle HTTP POST request.
- postCheckIsLastCycle(int) - 类 中的方法org.apache.hadoop.util.QueueProcessingStatistics
-
- PostOpParam - org.apache.hadoop.hdfs.web.resources中的类
-
Http POST operation parameter.
- PostOpParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.PostOpParam
-
Constructor.
- PostOpParam.Op - org.apache.hadoop.hdfs.web.resources中的枚举
-
Post operations.
- postRoot(InputStream, UserGroupInformation, DelegationParam, PostOpParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.DatanodeWebHdfsMethods
-
Handle HTTP POST request for the root for the root.
- postRoot(UserGroupInformation, DelegationParam, UserParam, DoAsParam, PostOpParam, ConcatSourcesParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
-
Handle HTTP POST request for the root.
- postStart() - 类 中的方法org.apache.hadoop.metrics2.MetricsSystem.AbstractCallback
-
- postStart() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem.Callback
-
Called after start()
- postStop() - 类 中的方法org.apache.hadoop.metrics2.MetricsSystem.AbstractCallback
-
- postStop() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem.Callback
-
Called after stop()
- Pre21JobHistoryConstants - org.apache.hadoop.tools.rumen中的类
-
- Pre21JobHistoryConstants() - 类 的构造器org.apache.hadoop.tools.rumen.Pre21JobHistoryConstants
-
- Pre21JobHistoryConstants.Values - org.apache.hadoop.tools.rumen中的枚举
-
This enum contains some of the values commonly used by history log events.
- PRE_GENERATIONSTAMP_LAYOUT_VERSION - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
-
- preCheckIsLastCycle(int) - 类 中的方法org.apache.hadoop.util.QueueProcessingStatistics
-
The termination condition is to identify the last cycle that will
empty the queue.
- PREP - 类 中的静态变量org.apache.hadoop.mapred.JobStatus
-
- prepareAppendKey(int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Writer
-
Obtain an output stream for writing a key into TFile.
- prepareAppendValue(int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Writer
-
Obtain an output stream for writing a value into TFile.
- prepareMetaBlock(String, String) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Writer
-
Obtain an output stream for creating a meta block.
- prepareMetaBlock(String) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Writer
-
Obtain an output stream for creating a meta block.
- prependPathComponent(String) - 类 中的方法org.apache.hadoop.streaming.PathFinder
-
Appends the specified component to the path list
- preserve(DistCpOptions.FileAttribute) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Add file attributes that need to be preserved.
- preserve(FileSystem, Path, FileStatus, EnumSet<DistCpOptions.FileAttribute>) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
Preserve attribute on file matching that of the file status being sent
as argument.
- preserveAttributes() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Returns an iterator with the list of file attributes to preserve
- preserveInput(boolean) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
-
Whether to delete the files when no longer needed
- preStart() - 类 中的方法org.apache.hadoop.metrics2.MetricsSystem.AbstractCallback
-
- preStart() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem.Callback
-
Called before start()
- preStop() - 类 中的方法org.apache.hadoop.metrics2.MetricsSystem.AbstractCallback
-
- preStop() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem.Callback
-
Called before stop()
- prevCharIsCR - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- prevCharIsLF - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- PRINCIPAL - 类 中的静态变量org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
-
Constant for the configuration property that indicates the kerberos principal.
- printDetails(PrintStream) - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
-
Print detailed information of this object.
- printGenericCommandUsage(PrintStream) - 类 中的静态方法org.apache.hadoop.util.GenericOptionsParser
-
Print the usage message for generic command-line options supported.
- printGenericCommandUsage(PrintStream) - 类 中的静态方法org.apache.hadoop.util.ToolRunner
-
Prints generic command-line argurments and usage information.
- printGotoForm(JspWriter, int, String, String) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- PrintJarMainClass - org.apache.hadoop.util中的类
-
A micro-application that prints the main class name out of a jar file.
- PrintJarMainClass() - 类 的构造器org.apache.hadoop.util.PrintJarMainClass
-
- printPathWithLinks(String, JspWriter, int, String) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- printRules() - 类 中的静态方法org.apache.hadoop.security.KerberosName
-
- printStackTrace() - 异常错误 中的方法org.apache.hadoop.security.authorize.AuthorizationException
-
- printStackTrace(PrintStream) - 异常错误 中的方法org.apache.hadoop.security.authorize.AuthorizationException
-
- printStackTrace(PrintWriter) - 异常错误 中的方法org.apache.hadoop.security.authorize.AuthorizationException
-
- printStatistics() - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
- printThreadInfo(PrintWriter, String) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
-
Print all of the thread's information and stack traces.
- PriorityQueue<T> - org.apache.hadoop.util中的类
-
A PriorityQueue maintains a partial ordering of its elements such that the
least element can always be found in constant time.
- PriorityQueue() - 类 的构造器org.apache.hadoop.util.PriorityQueue
-
- probablyHasKey(WritableComparable) - 类 中的方法org.apache.hadoop.io.BloomMapFile.Reader
-
Checks if this MapFile has the indicated key.
- process(IntermediateForm) - 类 中的方法org.apache.hadoop.contrib.index.lucene.ShardWriter
-
Process an intermediate form by carrying out, on the Lucene instance of
the shard, the deletes and the inserts (a ram index) in the form.
- process(DocumentAndOp, Analyzer) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
-
This method is used by the index update mapper and process a document
operation into the current intermediate form.
- process(IntermediateForm) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
-
This method is used by the index update combiner and process an
intermediate form into the current intermediate form.
- process(HistoryEvent) - 类 中的方法org.apache.hadoop.tools.rumen.JobBuilder
-
Process one
HistoryEvent
- process(Properties) - 类 中的方法org.apache.hadoop.tools.rumen.JobBuilder
-
Process a collection of JobConf
Properties
.
- process(HistoryEvent) - 类 中的方法org.apache.hadoop.tools.rumen.TopologyBuilder
-
Process one
HistoryEvent
- process(Properties) - 类 中的方法org.apache.hadoop.tools.rumen.TopologyBuilder
-
Process a collection of JobConf
Properties
.
- processBlocksBeingWrittenReport(DatanodeID, BlockListAsLongs) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
It will update the targets for INodeFileUnderConstruction
- processDeleteOnExit() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Delete all files that were marked as delete-on-exit.
- processEvent(UserLogEvent) - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
-
- processReport(DatanodeID, BlockListAsLongs) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
The given node is reporting all its blocks.
- ProcessTree - org.apache.hadoop.util中的类
-
Process tree related operations
- ProcessTree() - 类 的构造器org.apache.hadoop.util.ProcessTree
-
- ProcessTree.Signal - org.apache.hadoop.util中的枚举
-
The constants for the signals.
- processUpgradeCommand(UpgradeCommand) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- processUpgradeCommand(UpgradeCommand) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.UpgradeObjectNamenode
-
Process an upgrade command.
- processUpgradeCommand(UpgradeCommand) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
-
This is a very general way to send a command to the name-node during
distributed upgrade process.
- ProcfsBasedProcessTree - org.apache.hadoop.util中的类
-
A Proc file-system based ProcessTree.
- ProcfsBasedProcessTree(String) - 类 的构造器org.apache.hadoop.util.ProcfsBasedProcessTree
-
- ProcfsBasedProcessTree(String, boolean) - 类 的构造器org.apache.hadoop.util.ProcfsBasedProcessTree
-
- ProcfsBasedProcessTree(String, String) - 类 的构造器org.apache.hadoop.util.ProcfsBasedProcessTree
-
- ProgramDriver - org.apache.hadoop.util中的类
-
A driver that is used to run programs added to it
- ProgramDriver() - 类 的构造器org.apache.hadoop.util.ProgramDriver
-
- progress - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
- progress() - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- progress() - 类 中的方法org.apache.hadoop.mapred.TaskAttemptContext
-
- progress - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
- progress() - 类 中的方法org.apache.hadoop.mapreduce.StatusReporter
-
- progress() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptContext
-
Report progress.
- progress() - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
-
- Progress - org.apache.hadoop.util中的类
-
Utility to assist with generation of progress reports.
- Progress() - 类 的构造器org.apache.hadoop.util.Progress
-
Creates a new root node.
- progress() - 接口 中的方法org.apache.hadoop.util.Progressable
-
Report progress to the Hadoop framework.
- PROGRESS_INTERVAL - 类 中的静态变量org.apache.hadoop.mapred.Task
-
The number of milliseconds between progress reports.
- Progressable - org.apache.hadoop.util中的接口
-
A facility for reporting progress.
- ProxyUsers - org.apache.hadoop.security.authorize中的类
-
- ProxyUsers() - 类 的构造器org.apache.hadoop.security.authorize.ProxyUsers
-
- PseudoAuthenticationHandler - org.apache.hadoop.security.authentication.server中的类
-
The
PseudoAuthenticationHandler
provides a pseudo authentication mechanism that accepts
the user name specified as a query string parameter.
- PseudoAuthenticationHandler() - 类 的构造器org.apache.hadoop.security.authentication.server.PseudoAuthenticationHandler
-
- PseudoAuthenticator - org.apache.hadoop.security.authentication.client中的类
-
The
PseudoAuthenticator
implementation provides an authentication equivalent to Hadoop's
Simple authentication, it trusts the value of the 'user.name' Java System property.
- PseudoAuthenticator() - 类 的构造器org.apache.hadoop.security.authentication.client.PseudoAuthenticator
-
- pseudoSortByDistance(Node, Node[]) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Sort nodes array by their distances to reader
It linearly scans the array, if a local node is found, swap it with
the first element of the array.
- pseudoSortByDistance(Node, Node[]) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
-
Sort nodes array by their distances to reader
It linearly scans the array, if a local node is found, swap it with
the first element of the array.
- publish(Configuration, String, T) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
Utility to publish a value to a configuration.
- publishMetricsNow() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
Requests an immediate publish of all metrics from sources to sinks.
- publishMetricsNow() - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
- publishMetricsNow() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem
-
Requests an immediate publish of all metrics from sources to sinks.
- PureJavaCrc32 - org.apache.hadoop.util中的类
-
A pure-java implementation of the CRC32 checksum that uses
the same polynomial as the built-in native CRC32.
- PureJavaCrc32() - 类 的构造器org.apache.hadoop.util.PureJavaCrc32
-
- purge() - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
-
Delete everything.
- purgeCache() - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
Clear the entire contents of the cache and delete the backing files.
- pushMetric(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics.util.MetricsBase
-
已过时。
- pushMetric(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics.util.MetricsIntValue
-
已过时。
Push the metric to the mr.
- pushMetric(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics.util.MetricsLongValue
-
已过时。
Push the metric to the mr.
- pushMetric(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingInt
-
已过时。
Push the delta metrics to the mr.
- pushMetric(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingLong
-
已过时。
Push the delta metrics to the mr.
- pushMetric(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
-
已过时。
Push the delta metrics to the mr.
- put(InputStream, UserGroupInformation, DelegationParam, UriFsPathParam, PutOpParam, PermissionParam, OverwriteParam, BufferSizeParam, ReplicationParam, BlockSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.DatanodeWebHdfsMethods
-
Handle HTTP PUT request.
- put(UserGroupInformation, DelegationParam, UserParam, DoAsParam, UriFsPathParam, PutOpParam, DestinationParam, OwnerParam, GroupParam, PermissionParam, OverwriteParam, BufferSizeParam, ReplicationParam, BlockSizeParam, ModificationTimeParam, AccessTimeParam, TokenArgumentParam) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
-
Handle HTTP PUT request.
- put(E) - 接口 中的方法org.apache.hadoop.hdfs.util.GSet
-
Add/replace an element.
- put(E) - 类 中的方法org.apache.hadoop.hdfs.util.GSetByHashMap
-
- put(E) - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
-
- put(Writable, Writable) - 类 中的方法org.apache.hadoop.io.MapWritable
- put(WritableComparable, Writable) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- put(T) - 类 中的方法org.apache.hadoop.util.PriorityQueue
-
Adds an Object to a PriorityQueue in log(size) time.
- putAll(Map<? extends Writable, ? extends Writable>) - 类 中的方法org.apache.hadoop.io.MapWritable
- putAll(Map<? extends WritableComparable, ? extends Writable>) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- putCounters(Map<String, Long>) - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTask
-
Set the task counters
- putCounters(Map<String, Long>) - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTaskAttempt
-
Set the task attempt counters
- putDiagnosticInfo(String) - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTask
-
Set the task diagnostic-info
- putDiagnosticInfo(String) - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTaskAttempt
-
Set the task attempt diagnostic-info
- putFailedDueToAttemptId(String) - 类 中的方法org.apache.hadoop.tools.rumen.ParsedTask
-
Set the failed-due-to-attemptId info of this task.
- putMetrics(MetricsRecord) - 接口 中的方法org.apache.hadoop.metrics2.MetricsSink
-
Put a metrics record in the sink
- putMetrics(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics2.sink.FileSink
-
- putMetrics(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.GangliaSink30
-
- PutOpParam - org.apache.hadoop.hdfs.web.resources中的类
-
Http POST operation parameter.
- PutOpParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.PutOpParam
-
Constructor.
- PutOpParam.Op - org.apache.hadoop.hdfs.web.resources中的枚举
-
Put operations.
- putRoot(InputStream, UserGroupInformation, DelegationParam, PutOpParam, PermissionParam, OverwriteParam, BufferSizeParam, ReplicationParam, BlockSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.DatanodeWebHdfsMethods
-
Handle HTTP PUT request for the root.
- putRoot(UserGroupInformation, DelegationParam, UserParam, DoAsParam, PutOpParam, DestinationParam, OwnerParam, GroupParam, PermissionParam, OverwriteParam, BufferSizeParam, ReplicationParam, BlockSizeParam, ModificationTimeParam, AccessTimeParam, TokenArgumentParam) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
-
Handle HTTP PUT request for the root.
Q
- qACLNeeded - 枚举 中的变量org.apache.hadoop.mapred.Operation
-
- QSORT_STACK_SIZE - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
This constant is accessible by subclasses for historical purposes.
- quarterDigest() - 类 中的方法org.apache.hadoop.io.MD5Hash
-
Return a 32-bit digest of the MD5.
- QueueAclsInfo - org.apache.hadoop.mapred中的类
-
Class to encapsulate Queue ACLs for a particular
user.
- QueueAclsInfo() - 类 的构造器org.apache.hadoop.mapred.QueueAclsInfo
-
Default constructor for QueueAclsInfo.
- QueueAclsInfo(String, String[]) - 类 的构造器org.apache.hadoop.mapred.QueueAclsInfo
-
Construct a new QueueAclsInfo object using the queue name and the
queue operations array
- QueueProcessingStatistics - org.apache.hadoop.util中的类
-
Hadoop has several work queues, such as
FSNamesystem.neededReplications
With a properly throttled queue, a worker thread cycles repeatedly,
doing a chunk of work each cycle then resting a bit, until the queue is
empty.
- QueueProcessingStatistics(String, String, Log) - 类 的构造器org.apache.hadoop.util.QueueProcessingStatistics
-
- QueueProcessingStatistics.State - org.apache.hadoop.util中的枚举
-
This enum provides the "states" of a state machine for
QueueProcessingStatistics
.
- QuickSort - org.apache.hadoop.util中的类
-
An implementation of the core algorithm of QuickSort.
- QuickSort() - 类 的构造器org.apache.hadoop.util.QuickSort
-
- quit() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.MetaRecoveryContext
-
Log a message and quit
- quota - 异常错误 中的变量org.apache.hadoop.hdfs.protocol.QuotaExceededException
-
- QUOTA_DONT_SET - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
-
- QUOTA_RESET - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
-
- QuotaExceededException - org.apache.hadoop.hdfs.protocol中的异常错误
-
This exception is thrown when modification to HDFS results in violation
of a directory quota.
- QuotaExceededException(String) - 异常错误 的构造器org.apache.hadoop.hdfs.protocol.QuotaExceededException
-
- QuotaExceededException(long, long) - 异常错误 的构造器org.apache.hadoop.hdfs.protocol.QuotaExceededException
-
- quoteHtmlChars(OutputStream, byte[], int, int) - 类 中的静态方法org.apache.hadoop.http.HtmlQuoting
-
Quote all of the active HTML characters in the given string as they
are added to the buffer.
- quoteHtmlChars(String) - 类 中的静态方法org.apache.hadoop.http.HtmlQuoting
-
Quote the given item to make it html-safe.
- quoteOutputStream(OutputStream) - 类 中的静态方法org.apache.hadoop.http.HtmlQuoting
-
Return an output stream that quotes all of the output.
R
- r - 类 中的静态变量org.apache.hadoop.net.NetworkTopology
-
- RackNode - org.apache.hadoop.tools.rumen中的类
-
RackNode
represents a rack node in the cluster topology.
- RackNode(String, int) - 类 的构造器org.apache.hadoop.tools.rumen.RackNode
-
- rackNodes - 类 中的变量org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- RAMDirectoryUtil - org.apache.hadoop.contrib.index.lucene中的类
-
A utility class which writes an index in a ram dir into a DataOutput and
read from a DataInput an index into a ram dir.
- RAMDirectoryUtil() - 类 的构造器org.apache.hadoop.contrib.index.lucene.RAMDirectoryUtil
-
- rand - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCp
-
- RANDOM - 接口 中的静态变量org.apache.hadoop.util.bloom.RemoveScheme
-
Random selection.
- randomDataNode() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
已过时。
- randomNode() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- RandomSeedGenerator - org.apache.hadoop.tools.rumen中的类
-
The purpose of this class is to generate new random seeds from a master
seed.
- RandomSeedGenerator() - 类 的构造器org.apache.hadoop.tools.rumen.RandomSeedGenerator
-
- RandomTextWriter - org.apache.hadoop.examples中的类
-
This program uses map/reduce to just run a distributed job where there is
no interaction between the tasks and each task writes a large unsorted
random sequence of words.
- RandomTextWriter() - 类 的构造器org.apache.hadoop.examples.RandomTextWriter
-
- randomValue() - 类 中的方法org.apache.hadoop.tools.rumen.CDFRandomGenerator
-
- RandomWriter - org.apache.hadoop.examples中的类
-
This program uses map/reduce to just run a distributed job where there is
no interaction between the tasks and each task write a large unsorted
random binary sequence file of BytesWritable.
- RandomWriter() - 类 的构造器org.apache.hadoop.examples.RandomWriter
-
- RATIO - 接口 中的静态变量org.apache.hadoop.util.bloom.RemoveScheme
-
Ratio Selection.
- RAW_BYTES_ID - 类 中的静态变量org.apache.hadoop.streaming.io.IdentifierResolver
-
- RawBytesInputWriter - org.apache.hadoop.streaming.io中的类
-
InputWriter that writes the client's input as raw bytes.
- RawBytesInputWriter() - 类 的构造器org.apache.hadoop.streaming.io.RawBytesInputWriter
-
- RawBytesOutputReader - org.apache.hadoop.streaming.io中的类
-
OutputReader that reads the client's output as raw bytes.
- RawBytesOutputReader() - 类 的构造器org.apache.hadoop.streaming.io.RawBytesOutputReader
-
- RawComparable - org.apache.hadoop.io.file.tfile中的接口
-
Interface for objects that can be compared through
RawComparator
.
- RawComparator<T> - org.apache.hadoop.io中的接口
-
A
Comparator
that operates directly on byte representations of
objects.
- RawHistoryFileServlet - org.apache.hadoop.mapred中的类
-
- RawHistoryFileServlet() - 类 的构造器org.apache.hadoop.mapred.RawHistoryFileServlet
-
- RawKeyValueIterator - org.apache.hadoop.mapred中的接口
-
RawKeyValueIterator
is an iterator used to iterate over
the raw keys and values during sort/merge of intermediate data.
- RawLocalFileSystem - org.apache.hadoop.fs中的类
-
Implement the FileSystem API for the raw local filesystem.
- RawLocalFileSystem() - 类 的构造器org.apache.hadoop.fs.RawLocalFileSystem
-
- rawMapping - 类 中的变量org.apache.hadoop.net.CachedDNSToSwitchMapping
-
- rawWriter - 类 中的变量org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat.FilterRecordWriter
-
- RBRACE_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- Rcc - org.apache.hadoop.record.compiler.generated中的类
-
- Rcc(InputStream) - 类 的构造器org.apache.hadoop.record.compiler.generated.Rcc
-
- Rcc(InputStream, String) - 类 的构造器org.apache.hadoop.record.compiler.generated.Rcc
-
- Rcc(Reader) - 类 的构造器org.apache.hadoop.record.compiler.generated.Rcc
-
- Rcc(RccTokenManager) - 类 的构造器org.apache.hadoop.record.compiler.generated.Rcc
-
- RccConstants - org.apache.hadoop.record.compiler.generated中的接口
-
- RccTask - org.apache.hadoop.record.compiler.ant中的类
-
Hadoop record compiler ant Task
This task takes the given record definition files and compiles them into
java or c++
files.
- RccTask() - 类 的构造器org.apache.hadoop.record.compiler.ant.RccTask
-
Creates a new instance of RccTask
- RccTokenManager - org.apache.hadoop.record.compiler.generated中的类
-
- RccTokenManager(SimpleCharStream) - 类 的构造器org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- RccTokenManager(SimpleCharStream, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- read(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
-
- read(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
-
- read() - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
Read one checksum-verified byte
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
Read checksum verified bytes from this byte-input stream into
the specified byte array, starting at the given offset.
- read(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.FSInputStream
-
- read() - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
-
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
-
- read(DataInput) - 类 中的静态方法org.apache.hadoop.fs.permission.FsPermission
-
Create and initialize a
FsPermission
from DataInput
.
- read(DataInput) - 类 中的静态方法org.apache.hadoop.fs.permission.PermissionStatus
-
Create and initialize a
PermissionStatus
from DataInput
.
- read(long, byte[], int, int) - 接口 中的方法org.apache.hadoop.fs.PositionedReadable
-
Read upto the specified number of bytes, from a given
position within a file, and return the number of bytes read.
- read(byte[], int, int) - 接口 中的方法org.apache.hadoop.hdfs.BlockReader
-
- read() - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
-
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
-
- read() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
Read the entire buffer.
- read(long, byte[], int, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
Read bytes starting from the specified position.
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
- read() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
- read() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
Read version file.
- read(File) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
- read() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
-
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
-
In CONTINOUS reading mode, this read method starts from the
start of the compressed stream and end at the end of file by
emitting un-compressed data.
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.CompressionInputStream
-
Read bytes from the stream.
- read() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
-
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
-
- read(DataInput) - 类 中的静态方法org.apache.hadoop.io.MD5Hash
-
Constructs, reads and returns an instance.
- read(DataInput) - 类 中的静态方法org.apache.hadoop.mapred.JobID
-
已过时。
- read(DataInput) - 类 中的静态方法org.apache.hadoop.mapred.TaskAttemptID
-
已过时。
- read(DataInput) - 类 中的静态方法org.apache.hadoop.mapred.TaskID
-
已过时。
- read() - 类 中的方法org.apache.hadoop.net.SocketInputStream
-
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.net.SocketInputStream
-
- read(ByteBuffer) - 类 中的方法org.apache.hadoop.net.SocketInputStream
-
- read() - 类 中的方法org.apache.hadoop.security.SaslInputStream
-
Reads the next byte of data from this input stream.
- read(byte[]) - 类 中的方法org.apache.hadoop.security.SaslInputStream
-
Reads up to
b.length
bytes of data from this input stream into
an array of bytes.
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.security.SaslInputStream
-
Reads up to
len
bytes of data from this input stream into an
array of bytes.
- read(DataInput) - 枚举 中的静态方法org.apache.hadoop.security.SaslRpcServer.AuthMethod
-
Read from in
- read() - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
-
- read(byte[]) - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
-
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
-
- read() - 类 中的方法org.apache.hadoop.tools.rumen.RewindableInputStream
-
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.tools.rumen.RewindableInputStream
-
- read() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads a typed bytes sequence and converts it to a Java object.
- read() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- READ_TIMEOUT - 接口 中的静态变量org.apache.hadoop.hdfs.server.common.HdfsConstants
-
- READ_TIMEOUT_EXTENSION - 接口 中的静态变量org.apache.hadoop.hdfs.server.common.HdfsConstants
-
- ReadaheadPool - org.apache.hadoop.io中的类
-
Manages a pool of threads which can issue readahead requests on file descriptors.
- ReadaheadPool.ReadaheadRequest - org.apache.hadoop.io中的接口
-
An outstanding readahead request that has been submitted to
the pool.
- readaheadStream(String, FileDescriptor, long, long, long, ReadaheadPool.ReadaheadRequest) - 类 中的方法org.apache.hadoop.io.ReadaheadPool
-
Issue a request to readahead on the given file descriptor.
- readAll(byte[], int, int) - 接口 中的方法org.apache.hadoop.hdfs.BlockReader
-
- readAll(byte[], int, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
kind of like readFully().
- readAndProcess() - 类 中的方法org.apache.hadoop.ipc.Server.Connection
-
- readArray(ArrayWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readArray() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readBool(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- readBool(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- readBool(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Read a boolean from serialized record.
- readBool(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- readBool() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the boolean following a
Type.BOOL
code.
- readBool(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- readBoolean(BooleanWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readBoolean() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readBuffer(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- readBuffer(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- readBuffer(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Read byte array from serialized record.
- readBuffer(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- readBuffer(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- readByte(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- readByte(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- readByte(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Read a byte from serialized record.
- readByte(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- readByte() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the byte following a
Type.BYTE
code.
- readByte(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- readByte(ByteWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readByte() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readBytes(DataInputStream) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
- readBytes() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the bytes following a
Type.BYTES
code.
- readBytes(BytesWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readBytes() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readChar() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- readChunk(long, byte[], int, int, byte[]) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
Reads in next checksum chunk data into
buf
at offset
and checksum into checksum
.
- readChunk(long, byte[], int, int, byte[]) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
- readCompressedByteArray(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
- readCompressedString(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
- readCompressedStringArray(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
- readDouble(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Parse a double from a byte array.
- readDouble(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- readDouble(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- readDouble(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Read a double-precision number from serialized record.
- readDouble(byte[], int) - 类 中的静态方法org.apache.hadoop.record.Utils
-
Parse a double from a byte array.
- readDouble(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- readDouble() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the double following a
Type.DOUBLE
code.
- readDouble(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- readDouble(DoubleWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readDouble() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readEnum(DataInput, Class<T>) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
Read an Enum value from DataInput, Enums are read and written
using String values.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.conf.Configuration
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocTextAndOp
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentID
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.WordOffset
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
-
Read the two integers.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.examples.SleepJob.EmptySplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Implement readFields of Writable
- readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.ContentSummary
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.FileStatus
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.permission.PermissionStatus
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockLocalPathInfo
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
-
Writable interface
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DirectoryListing
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CheckpointSignature
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BalancerBandwidthCommand
-
Reads the bandwidth payload from the Balancer Bandwidth Command packet.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockCommand
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockMetaDataInfo
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockRecoveryInfo
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations.BlockWithLocations
-
deserialization method
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations
-
deserialization method
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeCommand
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.KeyUpdateCommand
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.ArrayWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.BooleanWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.BytesWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.ByteWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.CompressedWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.DoubleWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.FloatWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.GenericWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.IntWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.LongWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.MapWritable
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.MD5Hash
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.NullWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.ObjectWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.Text
-
deserialize
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.TwoDArrayWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.UTF8
-
已过时。
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.VersionedWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.VIntWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.VLongWritable
-
- readFields(DataInput) - 接口 中的方法org.apache.hadoop.io.Writable
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.Counters
-
Read a set of groups.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.FileSplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.JobProfile
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.JvmTask
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.NullDBWritable
-
- readFields(ResultSet) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.NullDBWritable
-
- readFields(ResultSet) - 接口 中的方法org.apache.hadoop.mapred.lib.db.DBWritable
-
Reads the fields of the object from the
ResultSet
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.MapTaskCompletionEventsUpdate
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.QueueAclsInfo
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.Task
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.Counter
-
Read the binary representation of the counter
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.Counters
-
Read a set of groups.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.ID
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.JobID
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat.DataDrivenDBInputSplit
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.NullDBWritable
-
- readFields(ResultSet) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.NullDBWritable
-
- readFields(ResultSet) - 接口 中的方法org.apache.hadoop.mapreduce.lib.db.DBWritable
-
Reads the fields of the object from the
ResultSet
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitIndex
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.TaskID
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.record.Record
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.security.authorize.AccessControlList
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.security.Credentials
-
Loads all the keys
- readFields(DataInput) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.security.token.delegation.DelegationKey
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.security.token.Token
-
Deserialize the fields of this object from
in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.DynamicBloomFilter
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.Filter
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.Key
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.RetouchedBloomFilter
-
- readFieldsCompressed(DataInput) - 类 中的方法org.apache.hadoop.io.CompressedWritable
-
Subclasses implement this instead of
CompressedWritable.readFields(DataInput)
.
- readFileChannelFully(FileChannel, byte[], int, int) - 类 中的静态方法org.apache.hadoop.io.IOUtils
-
Reads len bytes in a loop using the channel of the stream
- readFloat(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Parse a float from a byte array.
- readFloat(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- readFloat(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- readFloat(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Read a single-precision float from serialized record.
- readFloat(byte[], int) - 类 中的静态方法org.apache.hadoop.record.Utils
-
Parse a float from a byte array.
- readFloat(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- readFloat() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the float following a
Type.FLOAT
code.
- readFloat(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- readFloat(FloatWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readFloat() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readFully(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
-
- readFully(long, byte[]) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
-
- readFully(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
-
- readFully(long, byte[]) - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
-
- readFully(InputStream, byte[], int, int) - 类 中的静态方法org.apache.hadoop.fs.FSInputChecker
-
A utility function that tries to read up to
len
bytes from
stm
- readFully(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.FSInputStream
-
- readFully(long, byte[]) - 类 中的方法org.apache.hadoop.fs.FSInputStream
-
- readFully(long, byte[], int, int) - 接口 中的方法org.apache.hadoop.fs.PositionedReadable
-
Read the specified number of bytes, from a given
position within a file.
- readFully(long, byte[]) - 接口 中的方法org.apache.hadoop.fs.PositionedReadable
-
Read number of bytes equalt to the length of the buffer, from a given
position within a file.
- readFully(InputStream, byte[], int, int) - 类 中的静态方法org.apache.hadoop.io.IOUtils
-
Reads len bytes in a loop.
- readHeader(DataInputStream) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.BlockMetadataHeader
-
This reads all the fields till the beginning of checksum.
- readInt(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Parse an integer from a byte array.
- readInt(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- readInt(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- readInt(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Read an integer from serialized record.
- readInt(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- readInt() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the integer following a
Type.INT
code.
- readInt(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- readInt(IntWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readInt() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readKeyValue() - 类 中的方法org.apache.hadoop.streaming.io.OutputReader
-
Read the next key/value pair outputted by the client.
- readKeyValue() - 类 中的方法org.apache.hadoop.streaming.io.RawBytesOutputReader
-
- readKeyValue() - 类 中的方法org.apache.hadoop.streaming.io.TextOutputReader
-
- readKeyValue() - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesOutputReader
-
- readLine(LineReader, Text) - 类 中的静态方法org.apache.hadoop.streaming.StreamKeyValUtil
-
Read a utf8 encoded line from a data input stream.
- readLine(LineReader, Text) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
-
- readLine(Text, int, int) - 类 中的方法org.apache.hadoop.util.LineReader
-
Read one line from the InputStream into the given Text.
- readLine(Text, int) - 类 中的方法org.apache.hadoop.util.LineReader
-
Read from the InputStream into the given Text.
- readLine(Text) - 类 中的方法org.apache.hadoop.util.LineReader
-
Read from the InputStream into the given Text.
- readList() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the list following a
Type.LIST
code.
- readLong(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Parse a long from a byte array.
- readLong(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- readLong(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- readLong(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Read a long integer from serialized record.
- readLong(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- readLong() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the long following a
Type.LONG
code.
- readLong(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- readLong(LongWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readLong() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readMap() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the map following a
Type.MAP
code.
- readMap(MapWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readMap() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readMapHeader() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the header following a
Type.MAP
code.
- readObject(DataInput, Configuration) - 类 中的静态方法org.apache.hadoop.io.ObjectWritable
-
- readObject(DataInput, ObjectWritable, Configuration) - 类 中的静态方法org.apache.hadoop.io.ObjectWritable
-
- readRAMFiles(DataInput, RAMDirectory) - 类 中的静态方法org.apache.hadoop.contrib.index.lucene.RAMDirectoryUtil
-
Read a number of files from a data input to a ram directory.
- readRaw() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads a typed bytes sequence.
- readRawBool() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a
Type.BOOL
code.
- readRawByte() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw byte following a
Type.BYTE
code.
- readRawBytes(int) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a custom code.
- readRawBytes() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a
Type.BYTES
code.
- readRawDouble() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a
Type.DOUBLE
code.
- readRawFloat() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a
Type.FLOAT
code.
- readRawInt() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a
Type.INT
code.
- readRawList() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a
Type.LIST
code.
- readRawLong() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a
Type.LONG
code.
- readRawMap() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a
Type.MAP
code.
- readRawString() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a
Type.STRING
code.
- readRawVector() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a
Type.VECTOR
code.
- readSortedMap(SortedMapWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readSortedMap() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readSplitMetaInfo(JobID, FileSystem, Configuration, Path) - 类 中的静态方法org.apache.hadoop.mapreduce.split.SplitMetaInfoReader
-
- readString(DataInputStream) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
- readString(DataInput) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
-
Read a String as a VInt n, followed by n Bytes in Text format.
- readString(DataInput) - 类 中的静态方法org.apache.hadoop.io.Text
-
Read a UTF8 encoded string from in
- readString(DataInput) - 类 中的静态方法org.apache.hadoop.io.UTF8
-
已过时。
Read a UTF-8 encoded string.
- readString(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
- readString(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- readString(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- readString(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Read a UTF-8 encoded string from serialized record.
- readString(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- readString() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the string following a
Type.STRING
code.
- readString(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- readStringArray(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
- readText(Text) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readText() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readTokenStorageFile(Path, Configuration) - 类 中的静态方法org.apache.hadoop.security.Credentials
-
Convenience method for reading a token storage file, and loading the Tokens
therein in the passed UGI
- readTokenStorageStream(DataInputStream) - 类 中的方法org.apache.hadoop.security.Credentials
-
Convenience method for reading a token storage file directly from a
datainputstream
- readType() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads a type byte and returns the corresponding
Type
.
- readType() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readUnsignedShort(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Parse an unsigned short from a byte array.
- readVector() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the vector following a
Type.VECTOR
code.
- readVectorHeader() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the header following a
Type.VECTOR
code.
- readVInt(DataInput) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
-
Decoding the variable-length integer.
- readVInt(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Reads a zero-compressed encoded integer from a byte array and returns it.
- readVInt(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
Reads a zero-compressed encoded integer from input stream and returns it.
- readVInt(byte[], int) - 类 中的静态方法org.apache.hadoop.record.Utils
-
Reads a zero-compressed encoded integer from a byte array and returns it.
- readVInt(DataInput) - 类 中的静态方法org.apache.hadoop.record.Utils
-
Reads a zero-compressed encoded integer from a stream and returns it.
- readVInt(VIntWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readVInt() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readVLong(DataInput) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
-
Decoding the variable-length integer.
- readVLong(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Reads a zero-compressed encoded long from a byte array and returns it.
- readVLong(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
Reads a zero-compressed encoded long from input stream and returns it.
- readVLong(byte[], int) - 类 中的静态方法org.apache.hadoop.record.Utils
-
Reads a zero-compressed encoded long from a byte array and returns it.
- readVLong(DataInput) - 类 中的静态方法org.apache.hadoop.record.Utils
-
Reads a zero-compressed encoded long from a stream and return it.
- readVLong(VLongWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readVLong() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readWritable(Writable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readWritable() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- READY - 类 中的静态变量org.apache.hadoop.mapred.jobcontrol.Job
-
- Record() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- Record - org.apache.hadoop.record中的类
-
Abstract class that is extended by generated classes.
- Record() - 类 的构造器org.apache.hadoop.record.Record
-
- RECORD_INPUT - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
-
- RECORD_OUTPUT - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
-
- RECORD_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- RecordComparator - org.apache.hadoop.record中的类
-
A raw record comparator base class
- RecordComparator(Class<? extends WritableComparable>) - 类 的构造器org.apache.hadoop.record.RecordComparator
-
Construct a raw
Record
comparison implementation.
- RecordInput - org.apache.hadoop.record中的接口
-
Interface that all the Deserializers have to implement.
- RecordList() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- RecordOutput - org.apache.hadoop.record中的接口
-
Interface that alll the serializers have to implement.
- RecordReader<K,V> - org.apache.hadoop.mapred中的接口
-
RecordReader
reads <key, value> pairs from an
InputSplit
.
- RecordReader<KEYIN,VALUEIN> - org.apache.hadoop.mapreduce中的类
-
The record reader breaks the data into key/value pairs for input to the
Mapper
.
- RecordReader() - 类 的构造器org.apache.hadoop.mapreduce.RecordReader
-
- RecordTypeInfo - org.apache.hadoop.record.meta中的类
-
A record's Type Information object which can read/write itself.
- RecordTypeInfo() - 类 的构造器org.apache.hadoop.record.meta.RecordTypeInfo
-
Create an empty RecordTypeInfo object.
- RecordTypeInfo(String) - 类 的构造器org.apache.hadoop.record.meta.RecordTypeInfo
-
Create a RecordTypeInfo object representing a record with the given name
- RecordWriter<K,V> - org.apache.hadoop.mapred中的接口
-
RecordWriter
writes the output <key, value> pairs
to an output file.
- RecordWriter<K,V> - org.apache.hadoop.mapreduce中的类
-
RecordWriter
writes the output <key, value> pairs
to an output file.
- RecordWriter() - 类 的构造器org.apache.hadoop.mapreduce.RecordWriter
-
- recoverBlock(Block, boolean, DatanodeInfo[]) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientDatanodeProtocol
-
Start generation-stamp recovery for specified block
- recoverBlock(Block, boolean, DatanodeInfo[]) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Start generation-stamp recovery for specified block
- recoverBlocks(Block[], DatanodeInfo[][]) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- recoverJobHistoryFile(JobConf, Path) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Selects one of the two files generated as a part of recovery.
- recoverLease(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Start the lease recovery of a file
- recoverLease(String, String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Start lease recovery
- recoverLease(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Start lease recovery
- RecursiveParam - org.apache.hadoop.hdfs.web.resources中的类
-
Recursive parameter.
- RecursiveParam(Boolean) - 类 的构造器org.apache.hadoop.hdfs.web.resources.RecursiveParam
-
Constructor.
- RecursiveParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.RecursiveParam
-
Constructor.
- redCmd_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- reduce(Shard, Iterator<IntermediateForm>, OutputCollector<Shard, IntermediateForm>, Reporter) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateCombiner
-
- reduce(Shard, Iterator<IntermediateForm>, OutputCollector<Shard, Text>, Reporter) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateReducer
-
- reduce(Object, Iterator, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
-
- reduce(Object, Iterator, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
-
- reduce(BooleanWritable, Iterator<LongWritable>, OutputCollector<WritableComparable<?>, Writable>, Reporter) - 类 中的方法org.apache.hadoop.examples.PiEstimator.PiReducer
-
Accumulate number of points inside/outside results from the mappers.
- reduce(SecondarySort.IntPair, Iterable<IntWritable>, Reducer<SecondarySort.IntPair, IntWritable, Text, IntWritable>.Context) - 类 中的方法org.apache.hadoop.examples.SecondarySort.Reduce
-
- reduce(IntWritable, Iterator<NullWritable>, OutputCollector<NullWritable, NullWritable>, Reporter) - 类 中的方法org.apache.hadoop.examples.SleepJob
-
- reduce(Text, Iterable<IntWritable>, Reducer<Text, IntWritable, Text, IntWritable>.Context) - 类 中的方法org.apache.hadoop.examples.WordCount.IntSumReducer
-
- reduce(Text, Iterator<Text>, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorCombiner
-
Combines values for a given key.
- reduce(Text, Iterator<Text>, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorMapper
-
Do nothing.
- reduce(Text, Iterator<Text>, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorReducer
-
- reduce(Object, Iterator, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.ChainReducer
-
Chains the
reduce(...)
- reduce(Text, Iterator<Text>, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.FieldSelectionMapReduce
-
- reduce(K, Iterator<V>, OutputCollector<K, V>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.IdentityReducer
-
Writes all keys and values directly to output.
- reduce(K, Iterator<LongWritable>, OutputCollector<K, LongWritable>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.LongSumReducer
-
- reduce(K2, Iterator<V2>, OutputCollector<K3, V3>, Reporter) - 接口 中的方法org.apache.hadoop.mapred.Reducer
-
Reduces values for a given key.
- reduce(Text, Iterable<Text>, Reducer<Text, Text, Text, Text>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionReducer
-
- reduce(Key, Iterable<IntWritable>, Reducer<Key, IntWritable, Key, IntWritable>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.reduce.IntSumReducer
-
- reduce(KEY, Iterable<LongWritable>, Reducer<KEY, LongWritable, KEY, LongWritable>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.reduce.LongSumReducer
-
- reduce(KEYIN, Iterable<VALUEIN>, Reducer<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Reducer
-
This method is called once for each key.
- reduce(Object, Iterator, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.streaming.PipeReducer
-
- REDUCE_CLASS_ATTR - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
-
- REDUCE_OUTPUT_KEY_VALUE_SPEC - 类 中的静态变量org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
-
- ReduceAttempt20LineHistoryEventEmitter - org.apache.hadoop.tools.rumen中的类
-
- ReduceAttemptFinishedEvent - org.apache.hadoop.tools.rumen中的类
-
Event to record successful completion of a reduce attempt
- ReduceAttemptFinishedEvent(TaskAttemptID, TaskType, String, long, long, long, String, String, Counters) - 类 的构造器org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Create an event to record completion of a reduce attempt
- ReduceContext<KEYIN,VALUEIN,KEYOUT,VALUEOUT> - org.apache.hadoop.mapreduce中的类
-
The context passed to the
Reducer
.
- ReduceContext(Configuration, TaskAttemptID, RawKeyValueIterator, Counter, Counter, RecordWriter<KEYOUT, VALUEOUT>, OutputCommitter, StatusReporter, RawComparator<KEYIN>, Class<KEYIN>, Class<VALUEIN>) - 类 的构造器org.apache.hadoop.mapreduce.ReduceContext
-
- ReduceContext.ValueIterable - org.apache.hadoop.mapreduce中的类
-
- ReduceContext.ValueIterable() - 类 的构造器org.apache.hadoop.mapreduce.ReduceContext.ValueIterable
-
- ReduceContext.ValueIterator - org.apache.hadoop.mapreduce中的类
-
- ReduceContext.ValueIterator() - 类 的构造器org.apache.hadoop.mapreduce.ReduceContext.ValueIterator
-
- reduceDebugSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- reduceProgress() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- reduceProgress() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get the progress of the job's reduce-tasks, as a float between 0.0
and 1.0.
- reduceProgress() - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Get the progress of the job's reduce-tasks, as a float between 0.0
and 1.0.
- Reducer<K2,V2,K3,V3> - org.apache.hadoop.mapred中的接口
-
Reduces a set of intermediate values which share a key to a smaller set of
values.
- Reducer<KEYIN,VALUEIN,KEYOUT,VALUEOUT> - org.apache.hadoop.mapreduce中的类
-
Reduces a set of intermediate values which share a key to a smaller set of
values.
- Reducer() - 类 的构造器org.apache.hadoop.mapreduce.Reducer
-
- Reducer.Context - org.apache.hadoop.mapreduce中的类
-
- Reducer.Context(Configuration, TaskAttemptID, RawKeyValueIterator, Counter, Counter, RecordWriter<KEYOUT, VALUEOUT>, OutputCommitter, StatusReporter, RawComparator<KEYIN>, Class<KEYIN>, Class<VALUEIN>) - 类 的构造器org.apache.hadoop.mapreduce.Reducer.Context
-
- ReduceTaskAttemptInfo - org.apache.hadoop.tools.rumen中的类
-
ReduceTaskAttemptInfo
represents the information with regard to a
reduce task attempt.
- ReduceTaskAttemptInfo(TaskStatus.State, TaskInfo, long, long, long) - 类 的构造器org.apache.hadoop.tools.rumen.ReduceTaskAttemptInfo
-
- ReflectionUtils - org.apache.hadoop.util中的类
-
General reflection utils
- ReflectionUtils() - 类 的构造器org.apache.hadoop.util.ReflectionUtils
-
- refresh(Configuration, PolicyProvider) - 类 中的静态方法org.apache.hadoop.security.authorize.ServiceAuthorizationManager
-
- refresh() - 类 中的方法org.apache.hadoop.security.Groups
-
Refresh all user-to-groups mappings.
- refresh() - 类 中的方法org.apache.hadoop.util.HostsFileReader
-
- RefreshAuthorizationPolicyProtocol - org.apache.hadoop.security.authorize中的接口
-
Protocol which is used to refresh the authorization policy in use currently.
- refreshMBeans() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
- refreshMBeans() - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
- refreshMBeans() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystemMXBean
-
Force a refresh of MBeans
- refreshNodes() - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
-
- refreshNodes() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Refresh the hosts and exclude files.
- refreshNodes() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Refreshes the list of hosts and excluded hosts from the configured
files.
- refreshNodes() - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Tells the namenode to reread the hosts and exclude files.
- refreshNodes(Configuration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Rereads the config to get hosts and exclude list file names.
- refreshNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Refresh the list of datanodes that the namenode should allow to
connect.
- refreshNodes() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
Command to ask the namenode to reread the hosts and excluded hosts
file.
- refreshNodes() - 接口 中的方法org.apache.hadoop.mapred.AdminOperationsProtocol
-
Refresh the node list at the
JobTracker
- refreshNodes() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Rereads the config to get hosts and exclude list file names.
- refreshQueues() - 接口 中的方法org.apache.hadoop.mapred.AdminOperationsProtocol
-
Refresh the queue acls in use currently.
- refreshQueues() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- refreshServiceAcl() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- refreshServiceAcl() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
Refresh the authorization policy on the
NameNode
.
- refreshServiceAcl() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- refreshServiceAcl() - 接口 中的方法org.apache.hadoop.security.authorize.RefreshAuthorizationPolicyProtocol
-
Refresh the service-level authorization policy in-effect.
- refreshSuperUserGroupsConfiguration() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- refreshSuperUserGroupsConfiguration() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
refreshSuperUserGroupsConfiguration
NameNode
.
- refreshSuperUserGroupsConfiguration() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- refreshSuperUserGroupsConfiguration() - 类 中的方法org.apache.hadoop.mapred.tools.MRAdmin
-
refreshSuperUserGroupsConfiguration
JobTracker
.
- refreshSuperUserGroupsConfiguration() - 类 中的静态方法org.apache.hadoop.security.authorize.ProxyUsers
-
reread the conf and get new values for "hadoop.proxyuser.*.groups/hosts"
- refreshSuperUserGroupsConfiguration(Configuration) - 类 中的静态方法org.apache.hadoop.security.authorize.ProxyUsers
-
refresh configuration
- refreshSuperUserGroupsConfiguration() - 接口 中的方法org.apache.hadoop.security.RefreshUserMappingsProtocol
-
Refresh superuser proxy group list
- RefreshUserMappingsProtocol - org.apache.hadoop.security中的接口
-
Protocol use
- refreshUserToGroupsMappings() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- refreshUserToGroupsMappings() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
Refresh the user-to-groups mappings on the
NameNode
.
- refreshUserToGroupsMappings() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- refreshUserToGroupsMappings() - 接口 中的方法org.apache.hadoop.security.RefreshUserMappingsProtocol
-
Refresh user to group mappings.
- RegexFilter - org.apache.hadoop.metrics2.filter中的类
-
A regex pattern filter for metrics
- RegexFilter() - 类 的构造器org.apache.hadoop.metrics2.filter.RegexFilter
-
- RegexMapper<K> - org.apache.hadoop.mapred.lib中的类
-
A
Mapper
that extracts text matching a regular expression.
- RegexMapper() - 类 的构造器org.apache.hadoop.mapred.lib.RegexMapper
-
- regexpEscape(String) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- register(DatanodeRegistration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- REGISTER - 类 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeCommand
-
- register(DatanodeRegistration) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
-
Register Datanode.
- register(String, String, T) - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
- register(String, String, T) - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
- register(MetricsSystem.Callback) - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
- register(String, String, T) - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
- register(String, String, T) - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
- register(MetricsSystem.Callback) - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
- register(String, String, T) - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem
-
Register a metrics source
- register(String, String, T) - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem
-
Register a metrics sink
- register(MetricsSystem.Callback) - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem
-
Register a callback interface for JMX events
- register(String, String, Object) - 类 中的静态方法org.apache.hadoop.metrics2.util.MBeans
-
Register the MBean using our standard MBeanName format
"hadoop:service=
,name="
Where the and are the supplied parameters
- registerDatanode(DatanodeRegistration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Register Datanode.
- registerDelegationTokensForRenewal(JobID, Credentials, Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.security.token.DelegationTokenRenewal
-
- registerMBean(String, String, Object) - 类 中的静态方法org.apache.hadoop.metrics.util.MBeanUtil
-
已过时。
Register the MBean using our standard MBeanName format
"hadoop:service=
,name="
Where the and are the supplied parameters
- registerNotification(JobConf, JobStatus) - 类 中的静态方法org.apache.hadoop.mapred.JobEndNotifier
-
- registerSource(String, String, T) - 枚举 中的静态方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
Common static method to register a source
- registerUpdater(Updater) - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
-
已过时。
Registers a callback to be called at regular time intervals, as
determined by the implementation-class specific configuration.
- registerUpdater(Updater) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Registers a callback to be called at time intervals determined by
the configuration.
- registerUpdater(Updater) - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
-
已过时。
- registry - 类 中的变量org.apache.hadoop.metrics2.lib.AbstractMetricsSource
-
- registry() - 类 中的方法org.apache.hadoop.metrics2.lib.AbstractMetricsSource
-
- reinit(Configuration) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
-
- reinit(Configuration) - 接口 中的方法org.apache.hadoop.io.compress.Compressor
-
Prepare the compressor to be used in a new stream with settings defined in
the given Configuration
- reinit(Configuration) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Prepare the compressor to be used in a new stream with settings defined in
the given Configuration
- reinit(Configuration) - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInZlibDeflater
-
reinit the compressor with the given configuration.
- reinit(Configuration) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
Prepare the compressor to be used in a new stream with settings defined in
the given Configuration.
- ReInit(InputStream) - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- ReInit(InputStream, String) - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- ReInit(Reader) - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- ReInit(RccTokenManager) - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- ReInit(SimpleCharStream) - 类 中的方法org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- ReInit(SimpleCharStream, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- ReInit(Reader, int, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- ReInit(Reader, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- ReInit(Reader) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- ReInit(InputStream, String, int, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- ReInit(InputStream, int, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- ReInit(InputStream, String) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- ReInit(InputStream) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- ReInit(InputStream, String, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- ReInit(InputStream, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- release() - 类 中的方法org.apache.hadoop.filecache.TaskDistributedCacheManager
-
Releases the cached files/archives, so that space
can be reclaimed by the
TrackerDistributedCacheManager
.
- release(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
已过时。
- reloadConfiguration() - 类 中的方法org.apache.hadoop.conf.Configuration
-
Reload configuration from previously added resources.
- reloginFromKeytab() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Re-Login a user in from a keytab file.
- reloginFromTicketCache() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Re-Login a user in from the ticket cache.
- remaining - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
- RemoteException - org.apache.hadoop.ipc中的异常错误
-
- RemoteException(String, String) - 异常错误 的构造器org.apache.hadoop.ipc.RemoteException
-
- remove() - 类 中的方法org.apache.hadoop.contrib.utils.join.ArrayListBackedIterator
-
- remove(K) - 接口 中的方法org.apache.hadoop.hdfs.util.GSet
-
Remove the element corresponding to the given key.
- remove(K) - 类 中的方法org.apache.hadoop.hdfs.util.GSetByHashMap
-
- remove(K) - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
-
- remove(Object) - 类 中的方法org.apache.hadoop.io.MapWritable
- remove(Object) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- remove() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext.ValueIterator
-
- remove() - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Removes, from the buffered data table, all rows having tags
that equal the tags that have been set on this record.
- remove(MetricsRecordImpl) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Called by MetricsRecordImpl.remove().
- remove() - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Removes the row, if it exists, in the buffered data table having tags
that equal the tags that have been set on this record.
- remove(MetricsRecordImpl) - 类 中的方法org.apache.hadoop.metrics.spi.NullContext
-
已过时。
Do-nothing version of remove
- remove(MetricsRecordImpl) - 类 中的方法org.apache.hadoop.metrics.spi.NullContextWithUpdateThread
-
已过时。
Do-nothing version of remove
- remove() - 类 中的方法org.apache.hadoop.metrics2.util.TryIterator
-
Guaranteed to throw UnsupportedOperationException
- remove(Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Remove a node
Update node counter & rack counter if neccessary
- remove(Node) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
-
Remove a node
Update node counter and rack counter if necessary
- removeAttribute(String) - 类 中的方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
Removes the named attribute if it exists.
- removeDatanode(DatanodeID) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
remove a datanode descriptor
- removeDelegationTokenRenewalForJob(JobID) - 类 中的静态方法org.apache.hadoop.mapreduce.security.token.DelegationTokenRenewal
-
removing DT for completed jobs
- removeJobInProgressListener(JobInProgressListener) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- RemoveScheme - org.apache.hadoop.util.bloom中的接口
-
Defines the different remove scheme for retouched Bloom filters.
- removeSuffix(String, String) - 类 中的静态方法org.apache.hadoop.io.compress.CompressionCodecFactory
-
Removes a suffix from a filename, if it has it.
- removeTag(String) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Removes any tag of the specified name.
- removeTag(String) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Removes any tag of the specified name.
- removeTaskDistributedCacheManager(JobID) - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
- removeTokenForJob(String) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
-
Remove the cached job token of a job from cache
- rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
Rename files/dirs
- rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Renames Path src to Path dst.
- rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Renames Path src to Path dst.
- rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
-
- rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
- rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
- rename(String, String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Rename file or directory.
- rename(Path, Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Rename files/dirs
- rename(Path, Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- rename(String, String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Rename an item in the file system namespace.
- rename(File, File) - 类 中的静态方法org.apache.hadoop.hdfs.server.common.Storage
-
- rename(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- rename(Path, Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- rename(FileSystem, String, String) - 类 中的静态方法org.apache.hadoop.io.MapFile
-
Renames an existing map directory.
- renameFile(String, String) - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
-
- renameTo(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Change the indicated filename.
- renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.Renewer
-
- renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem.TokenManager
-
- renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem.DtRenewer
-
- renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.mapred.JobClient.Renewer
-
- renew(Configuration) - 类 中的方法org.apache.hadoop.security.token.Token
-
Renew this delegation token
- renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.security.token.Token.TrivialRenewer
-
- renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.security.token.TokenRenewer
-
Renew the given token.
- renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
已过时。
Use Token.renew instead.
- renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
已过时。
Use Token.renew instead.
- renewDelegationToken(Token<DelegationTokenIdentifier>) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Renew an existing delegation token.
- renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- renewDelegationToken(String, InetSocketAddress, Token<DelegationTokenIdentifier>, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DelegationTokenFetcher
-
Renew a Delegation Token.
- renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Renew a delegation token
- renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Renew a delegation token to extend its lifetime.
- renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- RenewDelegationTokenServlet - org.apache.hadoop.hdfs.server.namenode中的类
-
Renew delegation tokens over http for use in hftp.
- RenewDelegationTokenServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.RenewDelegationTokenServlet
-
- RENEWER - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.GetDelegationTokenServlet
-
- RenewerParam - org.apache.hadoop.hdfs.web.resources中的类
-
Renewer parameter.
- RenewerParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.RenewerParam
-
Constructor.
- renewLease(String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Client programs can cause stateful changes in the NameNode
that affect other clients.
- renewLease(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- renewToken(Token<TokenIdent>, String) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
Renew a delegation token.
- replaceFile(File, File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Move the src file to the name specified by target.
- replay(X) - 类 中的方法org.apache.hadoop.mapred.join.ArrayListBackedIterator
-
- replay(TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader.JoinDelegationIterator
-
- replay(V) - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader.MultiFilterDelegationIterator
-
- replay(U) - 类 中的方法org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
-
- replay(T) - 接口 中的方法org.apache.hadoop.mapred.join.ResetableIterator
-
Assign last value returned to actual.
- replay(X) - 类 中的方法org.apache.hadoop.mapred.join.StreamBackedIterator
-
- ReplicationParam - org.apache.hadoop.hdfs.web.resources中的类
-
Replication parameter.
- ReplicationParam(Short) - 类 的构造器org.apache.hadoop.hdfs.web.resources.ReplicationParam
-
Constructor.
- ReplicationParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.ReplicationParam
-
Constructor.
- replthread - 类 中的变量org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- report() - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
-
log the counters
- report() - 类 中的方法org.apache.hadoop.fs.HardLink.LinkStats
-
- report() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
Gives a report on how the FileSystem is doing.
- reportBadBlocks(LocatedBlock[]) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Report corrupt blocks that were discovered by the client.
- reportBadBlocks(LocatedBlock[]) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
The client wants to report corrupted blocks (blocks with specified
locations on datanodes).
- reportBadBlocks(LocatedBlock[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
The client has detected an error on the specified located blocks
and is reporting them to the server.
- reportBadBlocks(LocatedBlock[]) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
-
- reportChecksumFailure(Path, FSDataInputStream, long, FSDataInputStream, long) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
Report a checksum error to the file system.
- reportChecksumFailure(Path, FSDataInputStream, long, FSDataInputStream, long) - 类 中的方法org.apache.hadoop.fs.LocalFileSystem
-
Moves files to a bad file directory on the same device, so that their
storage will not be reused.
- reportChecksumFailure(Path, FSDataInputStream, long, FSDataInputStream, long) - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
-
We need to find the blocks that didn't match.
- reportChecksumFailure(Path, FSDataInputStream, long, FSDataInputStream, long) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
We need to find the blocks that didn't match.
- reportCleanupTIPs(boolean) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Return a vector of cleanup TaskInProgress objects
- reportCRCError() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
-
- reportDiagnosticInfo(TaskAttemptID, String, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
Called when the task dies before completion, and we want to report back
diagnostic info
- reportDiagnosticInfo(TaskAttemptID, String, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
-
Report error messages back to parent.
- reporter - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
-
- reporter - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
-
- reporter - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
- Reporter - org.apache.hadoop.mapred中的接口
-
A facility for Map-Reduce applications to report progress and update
counters, status information etc.
- reporter - 类 中的变量org.apache.hadoop.mapred.Task.CombinerRunner
-
- reporter - 类 中的变量org.apache.hadoop.mapreduce.ReduceContext
-
- reportFatalError(TaskAttemptID, Throwable, String) - 类 中的方法org.apache.hadoop.mapred.Task
-
Report a fatal error to the parent (task) tracker.
- reportNextRecordRange(TaskUmbilicalProtocol, long) - 类 中的方法org.apache.hadoop.mapred.Task
-
Reports the next executing record range to TaskTracker.
- reportNextRecordRange(TaskAttemptID, SortedRanges.Range, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- reportNextRecordRange(TaskAttemptID, SortedRanges.Range, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
-
Report the record range which is going to process next by the Task.
- reportSetupTIPs(boolean) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Return a vector of setup TaskInProgress objects
- reportTasksInProgress(boolean, boolean) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Return a vector of completed TaskInProgress objects
- reportTaskTrackerError(String, String, String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- requestAsyncBlockReport() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- requestAsyncBlockReport() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Request that a block report be prepared.
- requiresLayout() - 类 中的方法org.apache.hadoop.log.metrics.EventCounter
-
- reserveSlots(TaskType, JobInProgress, int) - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
-
Reserve specified number of slots for a given
job
.
- reserveSpaceWithCheckSum(Path, long) - 类 中的方法org.apache.hadoop.fs.InMemoryFileSystem
-
已过时。
Register a file with its size.
- reserveTaskTracker(TaskTracker, TaskType, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- reset() - 类 中的方法org.apache.hadoop.contrib.utils.join.ArrayListBackedIterator
-
- reset() - 接口 中的方法org.apache.hadoop.contrib.utils.join.ResetableIterator
-
- reset() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Reset the counts of bytes to 0.
- reset() - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
- reset() - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
-
- reset() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
- reset() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
-
- reset() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
-
- reset() - 接口 中的方法org.apache.hadoop.io.compress.Compressor
-
Resets compressor so that a new set of input data can be processed.
- reset() - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
-
Resets decompressor and input and output buffers so that a new set of
input data can be processed.
- reset() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
-
- reset() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Resets compressor so that a new set of input data can be processed.
- reset() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
-
- reset() - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
-
Resets everything, including the input buffer, regardless of whether the
current gzip substream is finished.
- reset() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
- reset() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
-
Resets everything including the input buffers (user and direct).
- reset(byte[], int) - 类 中的方法org.apache.hadoop.io.DataInputBuffer
-
Resets the data that the buffer reads.
- reset(byte[], int, int) - 类 中的方法org.apache.hadoop.io.DataInputBuffer
-
Resets the data that the buffer reads.
- reset() - 类 中的方法org.apache.hadoop.io.DataOutputBuffer
-
Resets the buffer to empty.
- reset(byte[], int) - 类 中的方法org.apache.hadoop.io.InputBuffer
-
Resets the data that the buffer reads.
- reset(byte[], int, int) - 类 中的方法org.apache.hadoop.io.InputBuffer
-
Resets the data that the buffer reads.
- reset() - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
Re-positions the reader before its first key.
- reset() - 类 中的方法org.apache.hadoop.io.OutputBuffer
-
Resets the buffer to empty.
- reset() - 类 中的方法org.apache.hadoop.mapred.join.ArrayListBackedIterator
-
- reset() - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader.JoinDelegationIterator
-
- reset() - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader.MultiFilterDelegationIterator
-
- reset() - 类 中的方法org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
-
- reset() - 接口 中的方法org.apache.hadoop.mapred.join.ResetableIterator
-
Set iterator to return to the start of its range.
- reset() - 类 中的方法org.apache.hadoop.mapred.join.StreamBackedIterator
-
- reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.DoubleValueSum
-
reset the aggregator
- reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMax
-
reset the aggregator
- reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMin
-
reset the aggregator
- reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueSum
-
reset the aggregator
- reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMax
-
reset the aggregator
- reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMin
-
reset the aggregator
- reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
-
reset the aggregator
- reset() - 接口 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregator
-
reset the aggregator
- reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
-
reset the aggregator
- reset(BytesWritable) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- reset(BytesWritable) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- reset() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat.MinMax
-
- reset(SampleStat.MinMax) - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat.MinMax
-
- reset() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
-
- reset() - 类 中的方法org.apache.hadoop.record.Buffer
-
Reset the buffer to 0 size
- reset() - 类 中的方法org.apache.hadoop.util.DataChecksum
-
- reset() - 类 中的方法org.apache.hadoop.util.PureJavaCrc32
- ResetableIterator - org.apache.hadoop.contrib.utils.join中的接口
-
This defines an iterator interface that will help the reducer class
re-group its input by source tags.
- ResetableIterator<T extends Writable> - org.apache.hadoop.mapred.join中的接口
-
This defines an interface to a stateful Iterator that can replay elements
added to it directly.
- ResetableIterator.EMPTY<U extends Writable> - org.apache.hadoop.mapred.join中的类
-
- ResetableIterator.EMPTY() - 类 的构造器org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
-
- resetAllMinMax() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- resetChecksumChunk(int) - 类 中的方法org.apache.hadoop.fs.FSOutputSummer
-
Resets existing buffer with a new one of the specified size.
- resetMinMax() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
-
已过时。
Reset the min max values
- resetMinMax() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableStat
-
Reset the all time min max of the metric
- resetSchedulingOpportunities() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- resetState() - 类 中的方法org.apache.hadoop.io.compress.BlockDecompressorStream
-
- resetState() - 类 中的方法org.apache.hadoop.io.compress.CompressionInputStream
-
Reset the decompressor to its initial state and discard any buffered data,
as the underlying stream may have been repositioned.
- resetState() - 类 中的方法org.apache.hadoop.io.compress.CompressionOutputStream
-
Reset the compression to the initial state.
- resetState() - 类 中的方法org.apache.hadoop.io.compress.CompressorStream
-
- resetState() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
-
- resetState() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec.GzipOutputStream
-
- resolve(List<String>) - 类 中的方法org.apache.hadoop.net.CachedDNSToSwitchMapping
-
- resolve(List<String>) - 接口 中的方法org.apache.hadoop.net.DNSToSwitchMapping
-
Resolves a list of DNS-names/IP-addresses and returns back a list of
switch information (network paths).
- resolve(String) - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
Resolves a given identifier.
- resolveAndAddToTopology(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- resolvedURL - 类 中的变量org.apache.hadoop.hdfs.ByteRangeInputStream
-
- ResourceCalculatorPlugin - org.apache.hadoop.util中的类
-
Plugin to calculate resource information on the system.
- ResourceCalculatorPlugin() - 类 的构造器org.apache.hadoop.util.ResourceCalculatorPlugin
-
- ResourceCalculatorPlugin.ProcResourceValues - org.apache.hadoop.util中的类
-
- ResourceCalculatorPlugin.ProcResourceValues(long, long, long) - 类 的构造器org.apache.hadoop.util.ResourceCalculatorPlugin.ProcResourceValues
-
- ResourceUsageMetrics - org.apache.hadoop.tools.rumen中的类
-
Captures the resource usage metrics.
- ResourceUsageMetrics() - 类 的构造器org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
- restartReplicationWork() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- resume() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
resume the suspended thread
- resume() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
resume the suspended thread
- RetouchedBloomFilter - org.apache.hadoop.util.bloom中的类
-
Implements a retouched Bloom filter, as defined in the CoNEXT 2006 paper.
- RetouchedBloomFilter() - 类 的构造器org.apache.hadoop.util.bloom.RetouchedBloomFilter
-
Default constructor - use with readFields
- RetouchedBloomFilter(int, int, int) - 类 的构造器org.apache.hadoop.util.bloom.RetouchedBloomFilter
-
Constructor
- RetriableCommand - org.apache.hadoop.tools.distcp2.util中的类
-
This class represents commands that be retried on failure, in a configurable
manner.
- RetriableCommand(String) - 类 的构造器org.apache.hadoop.tools.distcp2.util.RetriableCommand
-
Constructor.
- RetriableCommand(String, RetryPolicy) - 类 的构造器org.apache.hadoop.tools.distcp2.util.RetriableCommand
-
Constructor.
- RetriableDirectoryCreateCommand - org.apache.hadoop.tools.distcp2.mapred中的类
-
This class extends Retriable command to implement the creation of directories
with retries on failure.
- RetriableDirectoryCreateCommand(String) - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.RetriableDirectoryCreateCommand
-
Constructor, taking a description of the action.
- RetriableFileCopyCommand - org.apache.hadoop.tools.distcp2.mapred中的类
-
This class extends RetriableCommand to implement the copy of files,
with retries on failure.
- RetriableFileCopyCommand(String) - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.RetriableFileCopyCommand
-
Constructor, taking a description of the action.
- RetriableFileCopyCommand(boolean, String) - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.RetriableFileCopyCommand
-
Create a RetriableFileCopyCommand.
- RetriableFileCopyCommand.CopyReadException - org.apache.hadoop.tools.distcp2.mapred中的异常错误
-
Special subclass of IOException.
- RetriableFileCopyCommand.CopyReadException(Throwable) - 异常错误 的构造器org.apache.hadoop.tools.distcp2.mapred.RetriableFileCopyCommand.CopyReadException
-
- retrieveAsyncBlockReport() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- retrieveAsyncBlockReport() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Retrieve an asynchronously prepared block report.
- retrieveBlock(Block, long) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
-
- retrieveINode(Path) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
-
- retrievePassword(BlockTokenIdentifier) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
-
Look up the token password/secret for the given block token identifier.
- retrievePassword(JobTokenIdentifier) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
-
Look up the token password/secret for the given job token identifier.
- retrievePassword(TokenIdent) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
- retrievePassword(T) - 类 中的方法org.apache.hadoop.security.token.SecretManager
-
Retrieve the password for the given token identifier.
- retrieveTokenSecret(String) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
-
Look up the token password/secret for the given jobId.
- RETRY_FOREVER - 类 中的静态变量org.apache.hadoop.io.retry.RetryPolicies
-
Keep trying forever.
- retryByException(RetryPolicy, Map<Class<? extends Exception>, RetryPolicy>) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies
-
Set a default policy with some explicit handlers for specific exceptions.
- retryByRemoteException(RetryPolicy, Map<Class<? extends Exception>, RetryPolicy>) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies
-
A retry policy for RemoteException
Set a default policy with some explicit handlers for specific exceptions.
- RetryPolicies - org.apache.hadoop.io.retry中的类
-
A collection of useful implementations of
RetryPolicy
.
- RetryPolicies() - 类 的构造器org.apache.hadoop.io.retry.RetryPolicies
-
- RetryPolicies.MultipleLinearRandomRetry - org.apache.hadoop.io.retry中的类
-
Given pairs of number of retries and sleep time (n0, t0), (n1, t1), ...,
the first n0 retries sleep t0 milliseconds on average,
the following n1 retries sleep t1 milliseconds on average, and so on.
- RetryPolicies.MultipleLinearRandomRetry(List<RetryPolicies.MultipleLinearRandomRetry.Pair>) - 类 的构造器org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry
-
- RetryPolicies.MultipleLinearRandomRetry.Pair - org.apache.hadoop.io.retry中的类
-
Pairs of numRetries and sleepSeconds
- RetryPolicies.MultipleLinearRandomRetry.Pair(int, int) - 类 的构造器org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry.Pair
-
- RetryPolicy - org.apache.hadoop.io.retry中的接口
-
Specifies a policy for retrying method failures.
- RetryProxy - org.apache.hadoop.io.retry中的类
-
A factory for creating retry proxies.
- RetryProxy() - 类 的构造器org.apache.hadoop.io.retry.RetryProxy
-
- retryUpToMaximumCountWithFixedSleep(int, long, TimeUnit) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies
-
Keep trying a limited number of times, waiting a fixed time between attempts,
and then fail by re-throwing the exception.
- retryUpToMaximumCountWithProportionalSleep(int, long, TimeUnit) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies
-
Keep trying a limited number of times, waiting a growing amount of time between attempts,
and then fail by re-throwing the exception.
- retryUpToMaximumTimeWithFixedSleep(long, long, TimeUnit) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies
-
Keep trying for a maximum time, waiting a fixed time between attempts,
and then fail by re-throwing the exception.
- RetryUtils - org.apache.hadoop.io.retry中的类
-
- RetryUtils() - 类 的构造器org.apache.hadoop.io.retry.RetryUtils
-
- returnCompressor(Compressor) - 类 中的静态方法org.apache.hadoop.io.compress.CodecPool
-
Return the
Compressor
to the pool.
- returnDecompressor(Decompressor) - 类 中的静态方法org.apache.hadoop.io.compress.CodecPool
-
Return the
Decompressor
to the pool.
- reverseDns(InetAddress, String) - 类 中的静态方法org.apache.hadoop.net.DNS
-
Returns the hostname associated with the specified IP address by the
provided nameserver.
- rewind() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
-
Rewind to the first entry in the scanner.
- rewind() - 类 中的方法org.apache.hadoop.tools.rumen.RewindableInputStream
-
- RewindableInputStream - org.apache.hadoop.tools.rumen中的类
-
A simple wrapper class to make any input stream "rewindable".
- RewindableInputStream(InputStream) - 类 的构造器org.apache.hadoop.tools.rumen.RewindableInputStream
-
Constructor.
- RewindableInputStream(InputStream, int) - 类 的构造器org.apache.hadoop.tools.rumen.RewindableInputStream
-
Constructor
- RIO_PREFIX - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
-
- rjustify(String, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- rNodeMap - 类 中的变量org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- rNums - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
-
This array really shouldn't be here.
- rollEditLog() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Roll the edit log.
- rollEditLog() - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.NamenodeProtocol
-
Closes the current edit log and opens a new one.
- rollFsImage() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Roll the image
- rollFsImage() - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.NamenodeProtocol
-
Rolls the fsImage log.
- ROOT - 类 中的静态变量org.apache.hadoop.net.NodeBase
-
- RoundRobinDistributionPolicy - org.apache.hadoop.contrib.index.example中的类
-
Choose a shard for each insert in a round-robin fashion.
- RoundRobinDistributionPolicy() - 类 的构造器org.apache.hadoop.contrib.index.example.RoundRobinDistributionPolicy
-
- RPC - org.apache.hadoop.ipc中的类
-
A simple RPC mechanism.
- RPC.Server - org.apache.hadoop.ipc中的类
-
An RPC Server.
- RPC.Server(Object, Configuration, String, int) - 类 的构造器org.apache.hadoop.ipc.RPC.Server
-
Construct an RPC server.
- RPC.Server(Object, Configuration, String, int, int, boolean, SecretManager<? extends TokenIdentifier>) - 类 的构造器org.apache.hadoop.ipc.RPC.Server
-
Construct an RPC server.
- RPC.VersionMismatch - org.apache.hadoop.ipc中的异常错误
-
A version mismatch for the RPC protocol.
- RPC.VersionMismatch(String, long, long) - 异常错误 的构造器org.apache.hadoop.ipc.RPC.VersionMismatch
-
Create a version mismatch exception
- RpcInstrumentation - org.apache.hadoop.ipc.metrics中的类
-
The RPC metrics instrumentation
- RpcInstrumentation.Detailed - org.apache.hadoop.ipc.metrics中的类
-
Use a separate source for detailed (per call) RPC metrics for
easy and efficient filtering
- rpcMetrics - 类 中的变量org.apache.hadoop.ipc.Server
-
- rrClass - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
- rrClass - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
- rrConstructor - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
- rrConstructor - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
- rrCstrMap - 类 中的静态变量org.apache.hadoop.mapred.join.Parser.Node
-
- RTI_FILTER - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
-
- RTI_FILTER_FIELDS - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
-
- RTI_VAR - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
-
- run(Configuration, Path[], Path, int, Shard[]) - 接口 中的方法org.apache.hadoop.contrib.index.mapred.IIndexUpdater
-
Create a Map/Reduce job configuration and run the Map/Reduce job to
analyze documents and update Lucene instances in parallel.
- run(Configuration, Path[], Path, int, Shard[]) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdater
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.dancing.DistributedPentomino
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.DBCountPageView
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.Grep
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.Join
-
The main driver for sort program.
- run(String[]) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.PiEstimator
-
Parse arguments and then runs a map/reduce job.
- run(String[]) - 类 中的方法org.apache.hadoop.examples.RandomTextWriter
-
This is the main routine for launching a distributed random write job.
- run(String[]) - 类 中的方法org.apache.hadoop.examples.RandomWriter
-
This is the main routine for launching a distributed random write job.
- run(int, int, long, int, long, int) - 类 中的方法org.apache.hadoop.examples.SleepJob
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.SleepJob
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.Sort
-
The main driver for sort program.
- run(String[]) - 类 中的方法org.apache.hadoop.examples.terasort.TeraGen
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.terasort.TeraSort
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.terasort.TeraValidate
-
- run() - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager.CleanupThread
-
- run(String[]) - 类 中的方法org.apache.hadoop.fs.FsShell
-
run
- run(String[]) - 类 中的方法org.apache.hadoop.fs.s3.MigrationTool
-
- run(Path) - 类 中的方法org.apache.hadoop.fs.shell.Command
-
Execute the command on the input path
- run(Path) - 类 中的方法org.apache.hadoop.fs.shell.Count
-
- run() - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenRenewer
-
- run(String[]) - 类 中的方法org.apache.hadoop.hdfs.server.balancer.Balancer
-
main method of Balancer
- run() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
No matter what kind of exception we get, keep retrying to offerService().
- run() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.UpgradeObjectDatanode
-
- run() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
-
- run(String[]) - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
- run(String[]) - 类 中的方法org.apache.hadoop.hdfs.tools.DFSck
-
- run() - 类 中的方法org.apache.hadoop.mapred.HDFSMonitorThread
-
- run(String[]) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
- run() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
The main loop for the thread.
- run() - 类 中的方法org.apache.hadoop.mapred.JobHistory.HistoryCleaner
-
Cleans up history data.
- run(String[]) - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler
-
Driver for InputSampler from the command line.
- run(RecordReader<K1, V1>, OutputCollector<K2, V2>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.MultithreadedMapRunner
-
- run(RecordReader<K1, V1>, OutputCollector<K2, V2>, Reporter) - 接口 中的方法org.apache.hadoop.mapred.MapRunnable
-
Start mapping input <key, value> pairs.
- run(RecordReader<K1, V1>, OutputCollector<K2, V2>, Reporter) - 类 中的方法org.apache.hadoop.mapred.MapRunner
-
- run(String[]) - 类 中的方法org.apache.hadoop.mapred.pipes.Submitter
-
- run(JobConf, TaskUmbilicalProtocol) - 类 中的方法org.apache.hadoop.mapred.Task
-
Run this task as a part of the named job.
- run() - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
The communication thread handles communication with the parent (Task Tracker).
- run() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
The server retry loop.
- run(String[]) - 类 中的方法org.apache.hadoop.mapred.tools.MRAdmin
-
- run() - 类 中的方法org.apache.hadoop.mapred.UserLogCleaner
-
- run(Mapper<K1, V1, K2, V2>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingMapper
-
- run() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
The main loop for the thread.
- run(Mapper<K1, V1, K2, V2>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.map.MultithreadedMapper
-
Run the application's maps using a thread pool.
- run(String[]) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.InputSampler
-
Driver for InputSampler from the command line.
- run(Mapper<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Mapper
-
Expert users can override this method for more complete control over the
execution of the Mapper.
- run(Reducer<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Reducer
-
Advanced application writers can use the
Reducer.run(org.apache.hadoop.mapreduce.Reducer.Context)
method to
control how the reduce task works.
- run(String[]) - 类 中的方法org.apache.hadoop.streaming.DumpTypedBytes
-
The main driver for
DumpTypedBytes
.
- run(String[]) - 类 中的方法org.apache.hadoop.streaming.LoadTypedBytes
-
The main driver for
LoadTypedBytes
.
- run(RecordReader<K1, V1>, OutputCollector<K2, V2>, Reporter) - 类 中的方法org.apache.hadoop.streaming.PipeMapRunner
-
- run(String[]) - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- run(String[]) - 类 中的方法org.apache.hadoop.tools.DistCh
-
This is the main driver for recursively changing files properties.
- run(String[]) - 类 中的方法org.apache.hadoop.tools.DistCp
-
This is the main driver for recursively copying directories
across file systems.
- run(String[]) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCp
-
Implementation of Tool::run().
- run(String[]) - 类 中的方法org.apache.hadoop.tools.HadoopArchives
-
the main driver for creating the archives
it takes at least three command line parameters.
- run(String[]) - 类 中的方法org.apache.hadoop.tools.rumen.HadoopLogsAnalyzer
-
已过时。
- run(String[]) - 类 中的方法org.apache.hadoop.tools.rumen.TraceBuilder
-
- run() - 类 中的方法org.apache.hadoop.util.Shell
-
check to see if a command needs to be executed and execute if needed
- run(String[]) - 接口 中的方法org.apache.hadoop.util.Tool
-
Execute the command with the given arguments.
- run(Configuration, Tool, String[]) - 类 中的静态方法org.apache.hadoop.util.ToolRunner
-
Runs the given
Tool
by Tool.run(String[])
, after
parsing with the given generic arguments.
- run(Tool, String[]) - 类 中的静态方法org.apache.hadoop.util.ToolRunner
-
Runs the
Tool
with its Configuration
.
- RUNA - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
-
- runAll() - 类 中的方法org.apache.hadoop.fs.shell.Command
-
For each source path, execute the command
- RUNB - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
-
- runDatanodeDaemon(DataNode) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Start a single datanode daemon and wait for it to finish.
- RunJar - org.apache.hadoop.util中的类
-
Run a Hadoop job jar.
- RunJar() - 类 的构造器org.apache.hadoop.util.RunJar
-
- runJob(JobConf) - 类 中的静态方法org.apache.hadoop.contrib.utils.join.DataJoinJob
-
Submit/run a map/reduce job.
- runJob(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.JobClient
-
Utility that submits a job, then polls for progress until the job is
complete.
- runJob(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Submit a job to the map/reduce cluster.
- runJobCleanupTask(TaskUmbilicalProtocol, Task.TaskReporter) - 类 中的方法org.apache.hadoop.mapred.Task
-
- runJobSetupTask(TaskUmbilicalProtocol, Task.TaskReporter) - 类 中的方法org.apache.hadoop.mapred.Task
-
- RUNNING - 类 中的静态变量org.apache.hadoop.mapred.jobcontrol.Job
-
- RUNNING - 类 中的静态变量org.apache.hadoop.mapred.JobStatus
-
- running - 类 中的变量org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
- running_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- RunningJob - org.apache.hadoop.mapred中的接口
-
RunningJob
is the user-interface to query for details on a
running Map-Reduce job.
- runningJobs() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- runningMaps() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- runningReduces() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- runSetup(String, String, Path, TaskUmbilicalProtocol) - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
-
- runTaskCleanupTask(TaskUmbilicalProtocol, Task.TaskReporter) - 类 中的方法org.apache.hadoop.mapred.Task
-
S
- S3Credentials - org.apache.hadoop.fs.s3中的类
-
Extracts AWS credentials from the filesystem URI or configuration.
- S3Credentials() - 类 的构造器org.apache.hadoop.fs.s3.S3Credentials
-
- S3Exception - org.apache.hadoop.fs.s3中的异常错误
-
Thrown if there is a problem communicating with Amazon S3.
- S3Exception(Throwable) - 异常错误 的构造器org.apache.hadoop.fs.s3.S3Exception
-
- S3FileSystem - org.apache.hadoop.fs.s3中的类
-
A block-based
FileSystem
backed by
Amazon S3.
- S3FileSystem() - 类 的构造器org.apache.hadoop.fs.s3.S3FileSystem
-
- S3FileSystem(FileSystemStore) - 类 的构造器org.apache.hadoop.fs.s3.S3FileSystem
-
- S3FileSystemException - org.apache.hadoop.fs.s3中的异常错误
-
Thrown when there is a fatal exception while using
S3FileSystem
.
- S3FileSystemException(String) - 异常错误 的构造器org.apache.hadoop.fs.s3.S3FileSystemException
-
- S_IFBLK - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IFCHR - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IFDIR - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IFIFO - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IFLNK - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IFMT - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IFREG - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IFSOCK - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IFWHT - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IRUSR - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_ISGID - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_ISUID - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_ISVTX - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IWUSR - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IXUSR - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- safeGetCanonicalPath(File) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- SafeModeException - org.apache.hadoop.hdfs.server.namenode中的异常错误
-
This exception is thrown when the name node is in safe mode.
- SafeModeException(String, FSNamesystem.SafeModeInfo) - 异常错误 的构造器org.apache.hadoop.hdfs.server.namenode.SafeModeException
-
- SafeModeException - org.apache.hadoop.mapred中的异常错误
-
This exception is thrown when the JobTracker is in safe mode.
- SafeModeException(String) - 异常错误 的构造器org.apache.hadoop.mapred.SafeModeException
-
SafeModeException
- SampleStat - org.apache.hadoop.metrics2.util中的类
-
Helper to compute running sample stats
- SampleStat() - 类 的构造器org.apache.hadoop.metrics2.util.SampleStat
-
Construct a new running sample stat
- SampleStat.MinMax - org.apache.hadoop.metrics2.util中的类
-
Helper to keep running min/max
- SampleStat.MinMax() - 类 的构造器org.apache.hadoop.metrics2.util.SampleStat.MinMax
-
- SASL_DEFAULT_REALM - 类 中的静态变量org.apache.hadoop.security.SaslRpcServer
-
- SASL_PROPS - 类 中的静态变量org.apache.hadoop.security.SaslRpcServer
-
- saslConnect(InputStream, OutputStream) - 类 中的方法org.apache.hadoop.security.SaslRpcClient
-
Do client side SASL authentication with server via the given InputStream
and OutputStream
- SaslInputStream - org.apache.hadoop.security中的类
-
A SaslInputStream is composed of an InputStream and a SaslServer (or
SaslClient) so that read() methods return data that are read in from the
underlying InputStream but have been additionally processed by the SaslServer
(or SaslClient) object.
- SaslInputStream(InputStream, SaslServer) - 类 的构造器org.apache.hadoop.security.SaslInputStream
-
Constructs a SASLInputStream from an InputStream and a SaslServer
Note: if the specified InputStream or SaslServer is null, a
NullPointerException may be thrown later when they are used.
- SaslInputStream(InputStream, SaslClient) - 类 的构造器org.apache.hadoop.security.SaslInputStream
-
Constructs a SASLInputStream from an InputStream and a SaslClient
Note: if the specified InputStream or SaslClient is null, a
NullPointerException may be thrown later when they are used.
- SaslOutputStream - org.apache.hadoop.security中的类
-
A SaslOutputStream is composed of an OutputStream and a SaslServer (or
SaslClient) so that write() methods first process the data before writing
them out to the underlying OutputStream.
- SaslOutputStream(OutputStream, SaslServer) - 类 的构造器org.apache.hadoop.security.SaslOutputStream
-
Constructs a SASLOutputStream from an OutputStream and a SaslServer
Note: if the specified OutputStream or SaslServer is null, a
NullPointerException may be thrown later when they are used.
- SaslOutputStream(OutputStream, SaslClient) - 类 的构造器org.apache.hadoop.security.SaslOutputStream
-
Constructs a SASLOutputStream from an OutputStream and a SaslClient
Note: if the specified OutputStream or SaslClient is null, a
NullPointerException may be thrown later when they are used.
- saslQop - 枚举 中的变量org.apache.hadoop.security.SaslRpcServer.QualityOfProtection
-
- SaslRpcClient - org.apache.hadoop.security中的类
-
A utility class that encapsulates SASL logic for RPC client
- SaslRpcClient(SaslRpcServer.AuthMethod, Token<? extends TokenIdentifier>, String, boolean) - 类 的构造器org.apache.hadoop.security.SaslRpcClient
-
Create a SaslRpcClient for an authentication method
- SaslRpcServer - org.apache.hadoop.security中的类
-
A utility class for dealing with SASL on RPC server
- SaslRpcServer() - 类 的构造器org.apache.hadoop.security.SaslRpcServer
-
- SaslRpcServer.AuthMethod - org.apache.hadoop.security中的枚举
-
Authentication method
- SaslRpcServer.QualityOfProtection - org.apache.hadoop.security中的枚举
-
- SaslRpcServer.SaslDigestCallbackHandler - org.apache.hadoop.security中的类
-
CallbackHandler for SASL DIGEST-MD5 mechanism
- SaslRpcServer.SaslDigestCallbackHandler(SecretManager<TokenIdentifier>, Server.Connection) - 类 的构造器org.apache.hadoop.security.SaslRpcServer.SaslDigestCallbackHandler
-
- SaslRpcServer.SaslGssCallbackHandler - org.apache.hadoop.security中的类
-
CallbackHandler for SASL GSSAPI Kerberos mechanism
- SaslRpcServer.SaslGssCallbackHandler() - 类 的构造器org.apache.hadoop.security.SaslRpcServer.SaslGssCallbackHandler
-
- SaslRpcServer.SaslStatus - org.apache.hadoop.security中的枚举
-
- saveCurrent(Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
Save current image and empty journal into
current
directory.
- saveNamespace() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Save namespace image.
- saveNamespace() - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Save namespace image.
- saveNamespace() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- saveNamespace() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
Command to ask the namenode to save the namespace.
- saveSecretManagerState(DataOutputStream) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
-
Store the current state of the SecretManager for persistence
- scheduleBlockReport(long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
This methods arranges for the data node to send the block report at the next heartbeat.
- scheduleMap(TaskInProgress) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Adds a map tip to the list of running maps.
- scheduleOffSwitch(int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Check if we can schedule an off-switch task for this job.
- scheduleReduce(TaskInProgress) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Adds a reduce tip to the list of running reduces
- scheduleReduces() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- schedulingOpportunity() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- SCHEME - 类 中的静态变量org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
File System URI: {SCHEME}://namenode:port/path/to/file
- SCHEME - 类 中的静态变量org.apache.hadoop.mapreduce.security.token.DelegationTokenRenewal
-
- ScriptBasedMapping - org.apache.hadoop.net中的类
-
This class implements the
DNSToSwitchMapping
interface using a
script configured via topology.script.file.name .
- ScriptBasedMapping() - 类 的构造器org.apache.hadoop.net.ScriptBasedMapping
-
- ScriptBasedMapping(Configuration) - 类 的构造器org.apache.hadoop.net.ScriptBasedMapping
-
- SecondaryNameNode - org.apache.hadoop.hdfs.server.namenode中的类
-
The Secondary NameNode is a helper to the primary NameNode.
- SecondaryNameNode(Configuration) - 类 的构造器org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
-
Create a connection to the primary namenode.
- SecondarySort - org.apache.hadoop.examples中的类
-
This is an example Hadoop Map/Reduce application.
- SecondarySort() - 类 的构造器org.apache.hadoop.examples.SecondarySort
-
- SecondarySort.FirstGroupingComparator - org.apache.hadoop.examples中的类
-
Compare only the first part of the pair, so that reduce is called once
for each value of the first part.
- SecondarySort.FirstGroupingComparator() - 类 的构造器org.apache.hadoop.examples.SecondarySort.FirstGroupingComparator
-
- SecondarySort.FirstPartitioner - org.apache.hadoop.examples中的类
-
Partition based on the first part of the pair.
- SecondarySort.FirstPartitioner() - 类 的构造器org.apache.hadoop.examples.SecondarySort.FirstPartitioner
-
- SecondarySort.IntPair - org.apache.hadoop.examples中的类
-
Define a pair of integers that are writable.
- SecondarySort.IntPair() - 类 的构造器org.apache.hadoop.examples.SecondarySort.IntPair
-
- SecondarySort.IntPair.Comparator - org.apache.hadoop.examples中的类
-
A Comparator that compares serialized IntPair.
- SecondarySort.IntPair.Comparator() - 类 的构造器org.apache.hadoop.examples.SecondarySort.IntPair.Comparator
-
- SecondarySort.MapClass - org.apache.hadoop.examples中的类
-
Read two integers from each line and generate a key, value pair
as ((left, right), right).
- SecondarySort.MapClass() - 类 的构造器org.apache.hadoop.examples.SecondarySort.MapClass
-
- SecondarySort.Reduce - org.apache.hadoop.examples中的类
-
A reducer class that just emits the sum of the input values.
- SecondarySort.Reduce() - 类 的构造器org.apache.hadoop.examples.SecondarySort.Reduce
-
- SecretManager<T extends TokenIdentifier> - org.apache.hadoop.security.token中的类
-
The server-side secret manager for each token type.
- SecretManager() - 类 的构造器org.apache.hadoop.security.token.SecretManager
-
- SecretManager.InvalidToken - org.apache.hadoop.security.token中的异常错误
-
The token was invalid and the message explains why.
- SecretManager.InvalidToken(String) - 异常错误 的构造器org.apache.hadoop.security.token.SecretManager.InvalidToken
-
- SecureDataNodeStarter - org.apache.hadoop.hdfs.server.datanode中的类
-
Utility class to start a datanode in a secure cluster, first obtaining
privileged resources before main startup and handing them to the datanode.
- SecureDataNodeStarter() - 类 的构造器org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter
-
- SecureDataNodeStarter.SecureResources - org.apache.hadoop.hdfs.server.datanode中的类
-
Stash necessary resources needed for datanode operation in a secure env.
- SecureDataNodeStarter.SecureResources(ServerSocket, SelectChannelConnector) - 类 的构造器org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter.SecureResources
-
- SecureIOUtils - org.apache.hadoop.io中的类
-
This class provides secure APIs for opening and creating files on the local
disk.
- SecureIOUtils() - 类 的构造器org.apache.hadoop.io.SecureIOUtils
-
- SecureIOUtils.AlreadyExistsException - org.apache.hadoop.io中的异常错误
-
Signals that an attempt to create a file at a given pathname has failed
because another file already existed at that path.
- SecureIOUtils.AlreadyExistsException(String) - 异常错误 的构造器org.apache.hadoop.io.SecureIOUtils.AlreadyExistsException
-
- SecureIOUtils.AlreadyExistsException(Throwable) - 异常错误 的构造器org.apache.hadoop.io.SecureIOUtils.AlreadyExistsException
-
- secureMain(String[], SecureDataNodeStarter.SecureResources) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- SecureShuffleUtils - org.apache.hadoop.mapreduce.security中的类
-
utilities for generating kyes, hashes and verifying them for shuffle
- SecureShuffleUtils() - 类 的构造器org.apache.hadoop.mapreduce.security.SecureShuffleUtils
-
- SecurityUtil - org.apache.hadoop.security中的类
-
- SecurityUtil() - 类 的构造器org.apache.hadoop.security.SecurityUtil
-
- SecurityUtil.QualifiedHostResolver - org.apache.hadoop.security中的类
-
This an alternate resolver with important properties that the standard
java resolver lacks:
1) The hostname is fully qualified.
- SecurityUtil.QualifiedHostResolver() - 类 的构造器org.apache.hadoop.security.SecurityUtil.QualifiedHostResolver
-
- seek(long) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
-
- seek(long) - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
-
- seek(long) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
Seek to the given position in the stream.
- seek(long) - 类 中的方法org.apache.hadoop.fs.FSInputStream
-
Seek to the given offset from the start of the file.
- seek(long) - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
-
- seek(long) - 接口 中的方法org.apache.hadoop.fs.Seekable
-
Seek to the given offset from the start of the file.
- seek(long) - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
-
Seek to the given offset from the start of the file.
- seek(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
Seek to a new arbitrary location
- seek(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
- seek(long) - 类 中的方法org.apache.hadoop.io.ArrayFile.Reader
-
Positions the reader before its
n
th value.
- seek(long) - 类 中的方法org.apache.hadoop.io.compress.CompressionInputStream
-
This method is current not supported.
- seek(WritableComparable) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
Positions the reader at the named key, or if none such exists, at the
first entry after the named key.
- seek(long) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Set the current byte position in the input file.
- seek(WritableComparable) - 类 中的方法org.apache.hadoop.io.SetFile.Reader
-
- seek(long) - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
-
- Seekable - org.apache.hadoop.fs中的接口
-
Stream that permits seeking.
- seekNextRecordBoundary() - 类 中的方法org.apache.hadoop.streaming.StreamBaseRecordReader
-
Implementation should seek forward in_ to the first byte of the next record.
- seekNextRecordBoundary() - 类 中的方法org.apache.hadoop.streaming.StreamXmlRecordReader
-
- seekTo(byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
-
Move the cursor to the first entry whose key is greater than or equal
to the input key.
- seekTo(byte[], int, int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
-
Move the cursor to the first entry whose key is greater than or equal
to the input key.
- seekToEnd() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
-
Seek to the end of the scanner.
- seekToNewSource(long) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
-
- seekToNewSource(long) - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
-
- seekToNewSource(long) - 类 中的方法org.apache.hadoop.fs.FSInputStream
-
Seeks a different copy of the data.
- seekToNewSource(long) - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
-
- seekToNewSource(long) - 接口 中的方法org.apache.hadoop.fs.Seekable
-
Seeks a different copy of the data.
- seekToNewSource(long) - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
-
Seeks a different copy of the data.
- seekToNewSource(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
Seek to given position on a node other than the current node.
- seekToNewSource(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
- seekToNewSource(long) - 类 中的方法org.apache.hadoop.io.compress.CompressionInputStream
-
This method is current not supported.
- seenPrimary_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- selectHdfsDelegationToken() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- selectHdfsDelegationToken(InetSocketAddress, UserGroupInformation, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSelector
-
Select the delegation token for hdfs from the ugi.
- selectHftpDelegationToken() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- selectHftpDelegationToken() - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem
-
- selectiveClearing(Key, short) - 类 中的方法org.apache.hadoop.util.bloom.RetouchedBloomFilter
-
Performs the selective clearing for a given key.
- selectToken(Text, Collection<Token<? extends TokenIdentifier>>) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSelector
-
- selectToken(Text, Collection<Token<? extends TokenIdentifier>>) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenSelector
-
- selectToken(Text, Collection<Token<? extends TokenIdentifier>>) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSelector
-
- selectToken(Text, Collection<Token<? extends TokenIdentifier>>) - 接口 中的方法org.apache.hadoop.security.token.TokenSelector
-
- SEMICOLON_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- sendHeartbeat(DatanodeRegistration, long, long, long, int, int) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Data node notify the name node that it is alive
Return an array of block-oriented commands for the datanode to execute.
- sendHeartbeat(DatanodeRegistration, long, long, long, int, int) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
-
sendHeartbeat() tells the NameNode that the DataNode is still
alive and well.
- SEPARATOR - 类 中的静态变量org.apache.hadoop.fs.Path
-
The directory separator, a slash.
- SEPARATOR - 类 中的静态变量org.apache.hadoop.mapreduce.ID
-
- SEPARATOR_CHAR - 类 中的静态变量org.apache.hadoop.fs.Path
-
- SequenceFile - org.apache.hadoop.io中的类
-
SequenceFile
s are flat files consisting of binary key/value
pairs.
- SequenceFile.CompressionType - org.apache.hadoop.io中的枚举
-
The compression type used to compress key/value pairs in the
SequenceFile
.
- SequenceFile.Metadata - org.apache.hadoop.io中的类
-
The class encapsulating with the metadata of a file.
- SequenceFile.Metadata() - 类 的构造器org.apache.hadoop.io.SequenceFile.Metadata
-
- SequenceFile.Metadata(TreeMap<Text, Text>) - 类 的构造器org.apache.hadoop.io.SequenceFile.Metadata
-
- SequenceFile.Reader - org.apache.hadoop.io中的类
-
Reads key/value pairs from a sequence-format file.
- SequenceFile.Reader(FileSystem, Path, Configuration) - 类 的构造器org.apache.hadoop.io.SequenceFile.Reader
-
Open the named file.
- SequenceFile.Sorter - org.apache.hadoop.io中的类
-
Sorts key/value pairs in a sequence-format file.
- SequenceFile.Sorter(FileSystem, Class<? extends WritableComparable>, Class, Configuration) - 类 的构造器org.apache.hadoop.io.SequenceFile.Sorter
-
Sort and merge files containing the named classes.
- SequenceFile.Sorter(FileSystem, RawComparator, Class, Class, Configuration) - 类 的构造器org.apache.hadoop.io.SequenceFile.Sorter
-
Sort and merge using an arbitrary
RawComparator
.
- SequenceFile.Sorter.RawKeyValueIterator - org.apache.hadoop.io中的接口
-
The interface to iterate over raw keys/values of SequenceFiles.
- SequenceFile.Sorter.SegmentDescriptor - org.apache.hadoop.io中的类
-
This class defines a merge segment.
- SequenceFile.Sorter.SegmentDescriptor(long, long, Path) - 类 的构造器org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
-
Constructs a segment
- SequenceFile.ValueBytes - org.apache.hadoop.io中的接口
-
The interface to 'raw' values of SequenceFiles.
- SequenceFile.Writer - org.apache.hadoop.io中的类
-
Write key/value pairs to a sequence-format file.
- SequenceFile.Writer(FileSystem, Configuration, Path, Class, Class) - 类 的构造器org.apache.hadoop.io.SequenceFile.Writer
-
Create the named file.
- SequenceFile.Writer(FileSystem, Configuration, Path, Class, Class, Progressable, SequenceFile.Metadata) - 类 的构造器org.apache.hadoop.io.SequenceFile.Writer
-
Create the named file with write-progress reporter.
- SequenceFile.Writer(FileSystem, Configuration, Path, Class, Class, int, short, long, Progressable, SequenceFile.Metadata) - 类 的构造器org.apache.hadoop.io.SequenceFile.Writer
-
Create the named file with write-progress reporter.
- SequenceFileAsBinaryInputFormat - org.apache.hadoop.mapred中的类
-
InputFormat reading keys, values from SequenceFiles in binary (raw)
format.
- SequenceFileAsBinaryInputFormat() - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat
-
- SequenceFileAsBinaryInputFormat - org.apache.hadoop.mapreduce.lib.input中的类
-
InputFormat reading keys, values from SequenceFiles in binary (raw)
format.
- SequenceFileAsBinaryInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat
-
- SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader - org.apache.hadoop.mapred中的类
-
Read records from a SequenceFile as binary (raw) bytes.
- SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader(Configuration, FileSplit) - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
- SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader - org.apache.hadoop.mapreduce.lib.input中的类
-
Read records from a SequenceFile as binary (raw) bytes.
- SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
- SequenceFileAsBinaryOutputFormat - org.apache.hadoop.mapred中的类
-
An
OutputFormat
that writes keys, values to
SequenceFile
s in binary(raw) format
- SequenceFileAsBinaryOutputFormat() - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
-
- SequenceFileAsBinaryOutputFormat - org.apache.hadoop.mapreduce.lib.output中的类
-
An
OutputFormat
that writes keys,
values to SequenceFile
s in binary(raw) format
- SequenceFileAsBinaryOutputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
-
- SequenceFileAsBinaryOutputFormat.WritableValueBytes - org.apache.hadoop.mapred中的类
-
Inner class used for appendRaw
- SequenceFileAsBinaryOutputFormat.WritableValueBytes() - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- SequenceFileAsBinaryOutputFormat.WritableValueBytes(BytesWritable) - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- SequenceFileAsBinaryOutputFormat.WritableValueBytes - org.apache.hadoop.mapreduce.lib.output中的类
-
Inner class used for appendRaw
- SequenceFileAsBinaryOutputFormat.WritableValueBytes() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- SequenceFileAsBinaryOutputFormat.WritableValueBytes(BytesWritable) - 类 的构造器org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- SequenceFileAsTextInputFormat - org.apache.hadoop.mapred中的类
-
This class is similar to SequenceFileInputFormat, except it generates SequenceFileAsTextRecordReader
which converts the input keys and values to their String forms by calling toString() method.
- SequenceFileAsTextInputFormat() - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsTextInputFormat
-
- SequenceFileAsTextInputFormat - org.apache.hadoop.mapreduce.lib.input中的类
-
This class is similar to SequenceFileInputFormat, except it generates
SequenceFileAsTextRecordReader which converts the input keys and values
to their String forms by calling toString() method.
- SequenceFileAsTextInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextInputFormat
-
- SequenceFileAsTextRecordReader - org.apache.hadoop.mapred中的类
-
This class converts the input keys and values to their String forms by calling toString()
method.
- SequenceFileAsTextRecordReader(Configuration, FileSplit) - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsTextRecordReader
-
- SequenceFileAsTextRecordReader - org.apache.hadoop.mapreduce.lib.input中的类
-
This class converts the input keys and values to their String forms by
calling toString() method.
- SequenceFileAsTextRecordReader() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
-
- SequenceFileInputFilter<K,V> - org.apache.hadoop.mapred中的类
-
A class that allows a map/red job to work on a sample of sequence files.
- SequenceFileInputFilter() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFilter
-
- SequenceFileInputFilter<K,V> - org.apache.hadoop.mapreduce.lib.input中的类
-
A class that allows a map/red job to work on a sample of sequence files.
- SequenceFileInputFilter() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter
-
- SequenceFileInputFilter.Filter - org.apache.hadoop.mapred中的接口
-
filter interface
- SequenceFileInputFilter.Filter - org.apache.hadoop.mapreduce.lib.input中的接口
-
filter interface
- SequenceFileInputFilter.FilterBase - org.apache.hadoop.mapred中的类
-
base class for Filters
- SequenceFileInputFilter.FilterBase() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFilter.FilterBase
-
- SequenceFileInputFilter.FilterBase - org.apache.hadoop.mapreduce.lib.input中的类
-
base class for Filters
- SequenceFileInputFilter.FilterBase() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.FilterBase
-
- SequenceFileInputFilter.MD5Filter - org.apache.hadoop.mapred中的类
-
This class returns a set of records by examing the MD5 digest of its
key against a filtering frequency f.
- SequenceFileInputFilter.MD5Filter() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFilter.MD5Filter
-
- SequenceFileInputFilter.MD5Filter - org.apache.hadoop.mapreduce.lib.input中的类
-
This class returns a set of records by examing the MD5 digest of its
key against a filtering frequency f.
- SequenceFileInputFilter.MD5Filter() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.MD5Filter
-
- SequenceFileInputFilter.PercentFilter - org.apache.hadoop.mapred中的类
-
This class returns a percentage of records
The percentage is determined by a filtering frequency f using
the criteria record# % f == 0.
- SequenceFileInputFilter.PercentFilter() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFilter.PercentFilter
-
- SequenceFileInputFilter.PercentFilter - org.apache.hadoop.mapreduce.lib.input中的类
-
This class returns a percentage of records
The percentage is determined by a filtering frequency f using
the criteria record# % f == 0.
- SequenceFileInputFilter.PercentFilter() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.PercentFilter
-
- SequenceFileInputFilter.RegexFilter - org.apache.hadoop.mapred中的类
-
Records filter by matching key to regex
- SequenceFileInputFilter.RegexFilter() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFilter.RegexFilter
-
- SequenceFileInputFilter.RegexFilter - org.apache.hadoop.mapreduce.lib.input中的类
-
Records filter by matching key to regex
- SequenceFileInputFilter.RegexFilter() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.RegexFilter
-
- SequenceFileInputFormat<K,V> - org.apache.hadoop.mapred中的类
-
An
InputFormat
for SequenceFile
s.
- SequenceFileInputFormat() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFormat
-
- SequenceFileInputFormat<K,V> - org.apache.hadoop.mapreduce.lib.input中的类
-
An
InputFormat
for SequenceFile
s.
- SequenceFileInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFormat
-
- SequenceFileOutputFormat<K,V> - org.apache.hadoop.mapred中的类
-
An
OutputFormat
that writes SequenceFile
s.
- SequenceFileOutputFormat() - 类 的构造器org.apache.hadoop.mapred.SequenceFileOutputFormat
-
- SequenceFileOutputFormat<K,V> - org.apache.hadoop.mapreduce.lib.output中的类
-
An
OutputFormat
that writes SequenceFile
s.
- SequenceFileOutputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat
-
- SequenceFileRecordReader<K,V> - org.apache.hadoop.mapred中的类
-
An
RecordReader
for SequenceFile
s.
- SequenceFileRecordReader(Configuration, FileSplit) - 类 的构造器org.apache.hadoop.mapred.SequenceFileRecordReader
-
- SequenceFileRecordReader<K,V> - org.apache.hadoop.mapreduce.lib.input中的类
-
An
RecordReader
for SequenceFile
s.
- SequenceFileRecordReader() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
-
- Serialization<T> - org.apache.hadoop.io.serializer中的接口
-
Encapsulates a
Serializer
/Deserializer
pair.
- SerializationFactory - org.apache.hadoop.io.serializer中的类
-
A factory for
Serialization
s.
- SerializationFactory(Configuration) - 类 的构造器org.apache.hadoop.io.serializer.SerializationFactory
-
Serializations are found by reading the
io.serializations
property from conf
, which is a comma-delimited list of
classnames.
- serialize() - 类 中的方法org.apache.hadoop.fs.s3.INode
-
- serialize(T) - 接口 中的方法org.apache.hadoop.io.serializer.Serializer
-
Serialize
t
to the underlying output stream.
- serialize(RecordOutput, String) - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
-
Serialize the type information for a record
- serialize(RecordOutput, String) - 类 中的方法org.apache.hadoop.record.Record
-
Serialize a record with tag (ususally field name)
- serialize(RecordOutput) - 类 中的方法org.apache.hadoop.record.Record
-
Serialize a record without a tag
- Serializer<T> - org.apache.hadoop.io.serializer中的接口
-
Provides a facility for serializing objects of type
to an
OutputStream
.
- serialVersionUID - 异常错误 中的静态变量org.apache.hadoop.hdfs.protocol.DSQuotaExceededException
-
- serialVersionUID - 异常错误 中的静态变量org.apache.hadoop.hdfs.protocol.NSQuotaExceededException
-
- serialVersionUID - 异常错误 中的静态变量org.apache.hadoop.hdfs.protocol.QuotaExceededException
-
- Server - org.apache.hadoop.ipc中的类
-
An abstract IPC service.
- Server(String, int, Class<? extends Writable>, int, Configuration) - 类 的构造器org.apache.hadoop.ipc.Server
-
- Server(String, int, Class<? extends Writable>, int, Configuration, String) - 类 的构造器org.apache.hadoop.ipc.Server
-
- Server(String, int, Class<? extends Writable>, int, Configuration, String, SecretManager<? extends TokenIdentifier>) - 类 的构造器org.apache.hadoop.ipc.Server
-
Constructs a server listening on the named port and address.
- Server.Connection - org.apache.hadoop.ipc中的类
-
Reads calls from a connection and queues them for handling.
- Server.Connection(SelectionKey, SocketChannel, long) - 类 的构造器org.apache.hadoop.ipc.Server.Connection
-
- Servers - org.apache.hadoop.metrics2.util中的类
-
Helpers to handle server addresses
- SERVERS_PROPERTY - 类 中的静态变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
-
- Service - org.apache.hadoop.security.authorize中的类
-
An abstract definition of service as related to
Service Level Authorization for Hadoop.
- Service(String, Class<?>) - 类 的构造器org.apache.hadoop.security.authorize.Service
-
- SERVICE_AUTHORIZATION_CONFIG - 类 中的静态变量org.apache.hadoop.security.authorize.ServiceAuthorizationManager
-
已过时。
- ServiceAuthorizationManager - org.apache.hadoop.security.authorize中的类
-
An authorization manager which handles service-level authorization
for incoming service requests.
- ServiceAuthorizationManager() - 类 的构造器org.apache.hadoop.security.authorize.ServiceAuthorizationManager
-
- ServicePlugin - org.apache.hadoop.util中的接口
-
Service plug-in interface.
- serviceRPCAddress - 类 中的变量org.apache.hadoop.hdfs.server.namenode.NameNode
-
RPC server for DN address
- ServletUtil - org.apache.hadoop.util中的类
-
- ServletUtil() - 类 的构造器org.apache.hadoop.util.ServletUtil
-
- SESSION_TIMEZONE_KEY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.OracleDBRecordReader
-
Configuration key to set to a timezone string.
- set(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the
value
of the name
property.
- set(int, int) - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
-
Set the left and right values.
- set(boolean, Checksum, int, int) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
Set the checksum related parameters
- set(String) - 类 中的方法org.apache.hadoop.fs.GlobPattern
-
Set and compile a glob pattern
- set(long, long, long) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- set(Writable[]) - 类 中的方法org.apache.hadoop.io.ArrayWritable
-
- set(boolean) - 类 中的方法org.apache.hadoop.io.BooleanWritable
-
Set the value of the BooleanWritable
- set(BytesWritable) - 类 中的方法org.apache.hadoop.io.BytesWritable
-
Set the BytesWritable to the contents of the given newData.
- set(byte[], int, int) - 类 中的方法org.apache.hadoop.io.BytesWritable
-
Set the value to a copy of the given byte range
- set(byte) - 类 中的方法org.apache.hadoop.io.ByteWritable
-
Set the value of this ByteWritable.
- set(double) - 类 中的方法org.apache.hadoop.io.DoubleWritable
-
- set(float) - 类 中的方法org.apache.hadoop.io.FloatWritable
-
Set the value of this FloatWritable.
- set(Writable) - 类 中的方法org.apache.hadoop.io.GenericWritable
-
Set the instance that is wrapped.
- set(int) - 类 中的方法org.apache.hadoop.io.IntWritable
-
Set the value of this IntWritable.
- set(long) - 类 中的方法org.apache.hadoop.io.LongWritable
-
Set the value of this LongWritable.
- set(MD5Hash) - 类 中的方法org.apache.hadoop.io.MD5Hash
-
Copy the contents of another instance into this instance.
- set(Object) - 类 中的方法org.apache.hadoop.io.ObjectWritable
-
Reset the instance.
- set(Text, Text) - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
-
- set(String) - 类 中的方法org.apache.hadoop.io.Text
-
Set to contain the contents of a string.
- set(byte[]) - 类 中的方法org.apache.hadoop.io.Text
-
Set to a utf8 byte array
- set(Text) - 类 中的方法org.apache.hadoop.io.Text
-
copy a text.
- set(byte[], int, int) - 类 中的方法org.apache.hadoop.io.Text
-
Set the Text to range of bytes
- set(Writable[][]) - 类 中的方法org.apache.hadoop.io.TwoDArrayWritable
-
- set(String) - 类 中的方法org.apache.hadoop.io.UTF8
-
已过时。
Set to contain the contents of a string.
- set(UTF8) - 类 中的方法org.apache.hadoop.io.UTF8
-
已过时。
Set to contain the contents of a string.
- set(int) - 类 中的方法org.apache.hadoop.io.VIntWritable
-
Set the value of this VIntWritable.
- set(long) - 类 中的方法org.apache.hadoop.io.VLongWritable
-
Set the value of this LongWritable.
- set(int) - 类 中的方法org.apache.hadoop.metrics.util.MetricsIntValue
-
已过时。
Set the value
- set(long) - 类 中的方法org.apache.hadoop.metrics.util.MetricsLongValue
-
已过时。
Set the value
- set(int) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeInt
-
Set the value of the metric
- set(long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeLong
-
Set the value of the metric
- set(byte[]) - 类 中的方法org.apache.hadoop.record.Buffer
-
Use the specified bytes array as underlying sequence.
- set(byte[], double) - 类 中的方法org.apache.hadoop.util.bloom.Key
-
- set(float) - 类 中的方法org.apache.hadoop.util.Progress
-
Called during execution on a leaf node to set its progress.
- SET_GROUP_COMMAND - 类 中的静态变量org.apache.hadoop.util.Shell
-
- SET_OWNER_COMMAND - 类 中的静态变量org.apache.hadoop.util.Shell
-
a Unix command to set owner
- SET_PERMISSION_COMMAND - 类 中的静态变量org.apache.hadoop.util.Shell
-
a Unix command to set permission
- setAdminState(DatanodeInfo.AdminStates) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Sets the admin state of this node.
- setAggregatorDescriptors(JobConf, Class<? extends ValueAggregatorDescriptor>[]) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
-
- setArchiveSizes(JobID, long[]) - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
Set the sizes for any archives, files, or directories in the private
distributed cache.
- setArchiveTimestamps(Configuration, String) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
This is to check the timestamp of the archives to be localized.
- setAssignedJobID(JobID) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
Set the mapred ID for this job as assigned by the
mapred framework.
- setAtomicCommit(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set if data need to be committed automatically
- setAtomicWorkPath(Path) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set the work path for atomic commit
- setAttemptsToStartSkipping(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Set the number of Task attempts AFTER which skip mode
will be kicked off.
- setAttribute(String, Object) - 类 中的方法org.apache.hadoop.http.HttpServer
-
Set a value in the webapp context.
- setAttribute(Context, String, Object) - 类 中的方法org.apache.hadoop.http.HttpServer
-
Set a value in the webapp context.
- setAttribute(String, Object) - 类 中的方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
Sets the named factory attribute to the specified value, creating it
if it did not already exist.
- setAttribute(Attribute) - 类 中的方法org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
-
已过时。
- setAttributes(AttributeList) - 类 中的方法org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
-
已过时。
- setAuthenticationMethod(UserGroupInformation.AuthenticationMethod) - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Sets the authentication method in the subject
- setAutoIncrMapperProcCount(Configuration, boolean) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Set the flag which if set to true,
SkipBadRecords.COUNTER_MAP_PROCESSED_RECORDS
is incremented
by MapRunner after invoking the map function.
- setAutoIncrReducerProcCount(Configuration, boolean) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Set the flag which if set to true,
SkipBadRecords.COUNTER_REDUCE_PROCESSED_GROUPS
is incremented
by framework after invoking the reduce function.
- setBalancerBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Requests the namenode to tell all datanodes to use a new, non-persistent
bandwidth value for dfs.balance.bandwidthPerSec.
- setBalancerBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Requests the namenode to tell all datanodes to use a new, non-persistent
bandwidth value for dfs.balance.bandwidthPerSec.
- setBalancerBandwidth(long) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Tell all datanodes to use a new, non-persistent bandwidth value for
dfs.balance.bandwidthPerSec.
- setBalancerBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
-
- setBalancerBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Tell all datanodes to use a new, non-persistent bandwidth value for
dfs.balance.bandwidthPerSec.
- setBalancerBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Tell all datanodes to use a new, non-persistent bandwidth value for
dfs.balance.bandwidthPerSec.
- setBalancerBandwidth(String[], int) - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
Command to ask the namenode to set the balancer bandwidth for all of the
datanodes.
- setBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.util.DataTransferThrottler
-
Sets throttle bandwidth.
- setBlockId(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- setBlocking(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set if Disctp should run blocking or non-blocking
- setBlockToken(Token<BlockTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- setBoolean(String, boolean) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the value of the
name
property to a boolean
.
- setBooleanIfUnset(String, boolean) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the given property, if it is currently unset.
- setBoundingQuery(Configuration, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
-
Set the user-defined bounding query to use with a user-defined query.
- setCacheArchives(URI[], Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Set the configuration with the given set of archives.
- setCacheFiles(URI[], Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Set the configuration with the given set of files.
- setCancelDelegationTokenUponJobCompletion(boolean) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Sets the flag that will allow the JobTracker to cancel the HDFS delegation
tokens upon job completion.
- setCapacity(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Sets raw capacity.
- setCapacity(int) - 类 中的方法org.apache.hadoop.io.BytesWritable
-
Change the capacity of the backing storage.
- setCapacity(int) - 类 中的方法org.apache.hadoop.record.Buffer
-
Change the capacity of the backing storage.
- setChanged() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutable
-
Set the changed flag in mutable operations
- setChannelPosition(Block, FSDatasetInterface.BlockWriteStreams, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Sets the offset in the block to which the
the next write will write data to.
- setChannelPosition(Block, FSDatasetInterface.BlockWriteStreams, long, long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Sets the file pointer of the data stream and checksum stream to
the specified values.
- setClass(String, Class<?>, Class<?>) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the value of the
name
property to the name of a
theClass
implementing the given interface xface
.
- setClassLoader(ClassLoader) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the class loader that will be used to load the various objects.
- setCodecClasses(Configuration, List<Class>) - 类 中的静态方法org.apache.hadoop.io.compress.CompressionCodecFactory
-
Sets a list of codec classes in the configuration.
- setCombinerClass(Class<? extends Reducer>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the user-defined combiner class used to combine map-outputs
before being sent to the reducers.
- setCombinerClass(Class<? extends Reducer>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the combiner class for the job.
- setCommitDirectory(Job, Path) - 类 中的静态方法org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
-
Setter for the final directory for DistCp (where files copied will be
moved, atomically.)
- setCompressionLevel(Configuration, ZlibCompressor.CompressionLevel) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
-
- setCompressionStrategy(Configuration, ZlibCompressor.CompressionStrategy) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
-
- setCompressionType(Configuration, SequenceFile.CompressionType) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
-
已过时。
Use the one of the many SequenceFile.createWriter methods to specify
the
SequenceFile.CompressionType
while creating the SequenceFile
or
SequenceFileOutputFormat.setOutputCompressionType(org.apache.hadoop.mapred.JobConf, org.apache.hadoop.io.SequenceFile.CompressionType)
to specify the SequenceFile.CompressionType
for job-outputs.
or
- setCompressMapOutput(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Should the map outputs be compressed before transfer?
- setCompressOutput(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
Set whether the output of the job is compressed.
- setCompressOutput(Job, boolean) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Set whether the output of the job is compressed.
- setConf(Configuration) - 接口 中的方法org.apache.hadoop.conf.Configurable
-
Set the configuration to be used by this object.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.conf.Configured
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hdfs.server.balancer.Balancer
-
set this balancer's configuration
- setConf(Configuration) - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
-
Set the configuration to be used by this object.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.io.GenericWritable
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.io.ObjectWritable
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Set the configuration to be used by this object.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter.MD5Filter
-
configure the filter according to configuration
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter.PercentFilter
-
configure the filter by checking the configuration
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter.RegexFilter
-
configure the Filter by checking the configuration
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.Task
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.TaskController
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
Set the configuration to be used by this object.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.MD5Filter
-
configure the filter according to configuration
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.PercentFilter
-
configure the filter by checking the configuration
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.RegexFilter
-
configure the Filter by checking the configuration
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
-
Read in the partition file and build indexing data structures.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.net.ScriptBasedMapping
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.streaming.DumpTypedBytes
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.streaming.LoadTypedBytes
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.tools.DistCp
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.tools.HadoopArchives
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.tools.Logalyzer.LogComparator
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- setConf(Object, Configuration) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
-
Check and set 'configuration' if necessary.
- setConfiguration(Configuration) - 类 中的静态方法org.apache.hadoop.security.KerberosName
-
Set the static configuration to get the rules.
- setConfiguration(Configuration) - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
-
Set the static configuration for UGI.
- setConfirmationNeeded(boolean) - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
-
- setContentionTracing(boolean) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
-
- setContext(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Set the metrics context tag
- setContext(String) - 类 中的方法org.apache.hadoop.metrics2.MetricsRecordBuilder
-
Set the context tag
- setCopyStrategy(String) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set the copy strategy to use.
- setCounters(Counters) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Set the task's counters.
- setCountersEnabled(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Enables or disables counters for the named outputs.
- setCountersEnabled(Job, boolean) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
-
Enables or disables counters for the named outputs.
- setCredentials(Credentials) - 类 中的方法org.apache.hadoop.tools.distcp2.CopyListing
-
set Credentials store, on which FS delegatin token will be cached
- setCumulativeCpuUsage(long) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Set the cumulative CPU usage.
- setDebugStream(PrintStream) - 类 中的方法org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- setDecommissioned() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Sets the admin state to indicate that decommision is complete.
- setDefaultAuthenticator(Class<? extends Authenticator>) - 类 中的静态方法org.apache.hadoop.security.authentication.client.AuthenticatedURL
-
Sets the default
Authenticator
class to use when an AuthenticatedURL
instance
is created without specifying an authenticator.
- setDefaultUri(Configuration, URI) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Set the default filesystem URI in a configuration.
- setDefaultUri(Configuration, String) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Set the default filesystem URI in a configuration.
- setDelegationToken(Token<T>) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- setDelegationToken(Token<T>) - 接口 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenRenewer.Renewable
-
Set delegation token.
- setDelegationToken(Token<T>) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- setDelete(Term) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
-
Set the instance to be a delete operation.
- setDeleteMissing(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set if files only present in target should be deleted
- setDestdir(File) - 类 中的方法org.apache.hadoop.record.compiler.ant.RccTask
-
Sets directory where output files will be generated
- setDiagnosticInfo(String) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
-
- setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
-
- setDictionary(byte[], int, int) - 接口 中的方法org.apache.hadoop.io.compress.Compressor
-
Sets preset dictionary for compression.
- setDictionary(byte[], int, int) - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
-
Sets preset dictionary for compression.
- setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Does nothing.
- setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
-
Does nothing.
- setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
-
Sets preset dictionary for compression.
- setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
- setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
-
- setDigest(String) - 类 中的方法org.apache.hadoop.io.MD5Hash
-
Sets the digest value from a hex string.
- setDisplayName(String) - 类 中的方法org.apache.hadoop.mapred.Counters.Counter
-
- setDisplayName(String) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
Set the display name
- setDisplayName(String) - 类 中的方法org.apache.hadoop.mapreduce.Counter
-
已过时。
- setDistributionPolicyClass(Class<? extends IDistributionPolicy>) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the distribution policy class.
- setDocumentAnalyzerClass(Class<? extends Analyzer>) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the analyzer class.
- setDoubleValue(Object, double) - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
-
Set the given counter to the given value
- setEditLog(FSEditLog) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
Testing hook
- setEnd(long) - 类 中的方法org.apache.hadoop.io.compress.SplitCompressionInputStream
-
- setEnum(String, T) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the value of the
name
property to the given type.
- setEnvironment(Map<String, String>) - 类 中的方法org.apache.hadoop.util.Shell
-
set the environment for the command
- setEventId(int) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
set event Id. should be assigned incrementally starting from 0.
- setExcludesFile(String) - 类 中的方法org.apache.hadoop.util.HostsFileReader
-
- setExecutable(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Set the URI for the application's executable.
- setExpires(long) - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
-
Sets the expiration of the token.
- setExpiryDate(long) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- setExpiryDate(long) - 类 中的方法org.apache.hadoop.security.token.delegation.DelegationKey
-
- setFactor(int) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Set the number of streams to merge at once.
- setFactory(Class, WritableFactory) - 类 中的静态方法org.apache.hadoop.io.WritableFactories
-
Define a factory for a class.
- setFailonerror(boolean) - 类 中的方法org.apache.hadoop.record.compiler.ant.RccTask
-
Given multiple files (via fileset), set the error handling behavior
- setFailureInfo(String) - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
set the reason for failuire of this job
- setFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
-
Set common storage fields.
- setFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataStorage
-
- setFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
Write last checkpoint time and version file into the storage directory.
- SetFile - org.apache.hadoop.io中的类
-
A file-based set of keys.
- SetFile() - 类 的构造器org.apache.hadoop.io.SetFile
-
- setFile(File) - 类 中的方法org.apache.hadoop.record.compiler.ant.RccTask
-
Sets the record definition file attribute
- SetFile.Reader - org.apache.hadoop.io中的类
-
Provide access to an existing set file.
- SetFile.Reader(FileSystem, String, Configuration) - 类 的构造器org.apache.hadoop.io.SetFile.Reader
-
Construct a set reader for the named set.
- SetFile.Reader(FileSystem, String, WritableComparator, Configuration) - 类 的构造器org.apache.hadoop.io.SetFile.Reader
-
Construct a set reader for the named set using the named comparator.
- SetFile.Writer - org.apache.hadoop.io中的类
-
Write a new set file.
- SetFile.Writer(FileSystem, String, Class<? extends WritableComparable>) - 类 的构造器org.apache.hadoop.io.SetFile.Writer
-
已过时。
pass a Configuration too
- SetFile.Writer(Configuration, FileSystem, String, Class<? extends WritableComparable>, SequenceFile.CompressionType) - 类 的构造器org.apache.hadoop.io.SetFile.Writer
-
Create a set naming the element class and compression type.
- SetFile.Writer(Configuration, FileSystem, String, WritableComparator, SequenceFile.CompressionType) - 类 的构造器org.apache.hadoop.io.SetFile.Writer
-
Create a set naming the element comparator and compression type.
- setFileLength(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
-
Sets the file length of the file.
- setFileTimestamps(Configuration, String) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
This is to check the timestamp of the files to be localized.
- setFilterClass(Configuration, Class) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileInputFilter
-
set the filter class
- setFilterClass(Job, Class<?>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter
-
set the filter class
- setFinalSync(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.examples.terasort.TeraOutputFormat
-
Set the requirement for a final sync before the stream is closed.
- setFloat(String, float) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the value of the
name
property to a float
.
- setForce(int) - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
-
- setFormat(JobConf) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputFormat
-
Interpret a given string as a composite expression.
- setFrequency(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileInputFilter.MD5Filter
-
set the filtering frequency in configuration
- setFrequency(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileInputFilter.PercentFilter
-
set the frequency and stores it in conf
- setFrequency(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.MD5Filter
-
set the filtering frequency in configuration
- setFrequency(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.PercentFilter
-
set the frequency and stores it in conf
- setFsImageLoadTime(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- setGenerationStamp(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- setGenerationStamp(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Sets the generation stamp for this filesystem
- setGroup(String) - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Sets group.
- setGroupingComparatorClass(Class<? extends RawComparator>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Define the comparator that controls which keys are grouped together
for a single call to
Reducer.reduce(Object, Iterable,
org.apache.hadoop.mapreduce.Reducer.Context)
- setHeapUsage(long) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Set the total heap usage.
- setHostName(String) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
- setHosts(String[]) - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Set the hosts hosting this block
- setID(int) - 类 中的方法org.apache.hadoop.mapred.join.Parser.Node
-
- setIfUnset(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Sets a property if it is currently unset.
- setIgnoreFailures(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set if failures during copy be ignored
- setIncludeCounters(boolean) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- setIncludesFile(String) - 类 中的方法org.apache.hadoop.util.HostsFileReader
-
- setIndexInputFormatClass(Class<? extends InputFormat>) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the index input format class.
- setIndexInterval(int) - 类 中的方法org.apache.hadoop.io.MapFile.Writer
-
Sets the index interval.
- setIndexInterval(Configuration, int) - 类 中的静态方法org.apache.hadoop.io.MapFile.Writer
-
Sets the index interval and stores it in conf
- setIndexMaxFieldLength(int) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the max field length for a Lucene instance.
- setIndexMaxNumSegments(int) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the max number of segments for a Lucene instance.
- setIndexShards(String) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the string representation of a number of shards.
- setIndexShards(IndexUpdateConfiguration, Shard[]) - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.Shard
-
- setIndexUpdaterClass(Class<? extends IIndexUpdater>) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the index updater class.
- setIndexUseCompoundFile(boolean) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set whether use the compound file format for a Lucene instance.
- setInfoPort(int) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
- setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
-
- setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
-
- setInput(byte[], int, int) - 接口 中的方法org.apache.hadoop.io.compress.Compressor
-
Sets input data for compression.
- setInput(byte[], int, int) - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
-
Sets input data for decompression.
- setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Sets input data for compression.
- setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
-
Sets input data for decompression.
- setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
-
Sets input data for decompression.
- setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
- setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
-
- setInput(JobConf, Class<? extends DBWritable>, String, String, String, String...) - 类 中的静态方法org.apache.hadoop.mapred.lib.db.DBInputFormat
-
Initializes the map-part of the job with the appropriate input settings.
- setInput(JobConf, Class<? extends DBWritable>, String, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.db.DBInputFormat
-
Initializes the map-part of the job with the appropriate input settings.
- setInput(Job, Class<? extends DBWritable>, String, String, String, String...) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
-
Note that the "orderBy" column is called the "splitBy" in this version.
- setInput(Job, Class<? extends DBWritable>, String, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
-
setInput() takes a custom query and a separate "bounding query" to use
instead of the custom "count query" used by DBInputFormat.
- setInput(Job, Class<? extends DBWritable>, String, String, String, String...) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
Initializes the map-part of the job with the appropriate input settings.
- setInput(Job, Class<? extends DBWritable>, String, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
Initializes the map-part of the job with the appropriate input settings.
- setInputBoundingQuery(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setInputClass(Class<? extends DBWritable>) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setInputConditions(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setInputCountQuery(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setInputDataLength(long) - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
-
- setInputDataLocations(String[]) - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
-
- setInputFieldNames(String...) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setInputFormat(Class<? extends InputFormat>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the
InputFormat
implementation for the map-reduce job.
- setInputFormatClass(Class<? extends InputFormat>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the
InputFormat
for the job.
- setInputOrderBy(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setInputPathFilter(JobConf, Class<? extends PathFilter>) - 类 中的静态方法org.apache.hadoop.mapred.FileInputFormat
-
Set a PathFilter to be applied to the input paths for the map-reduce job.
- setInputPathFilter(Job, Class<? extends PathFilter>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Set a PathFilter to be applied to the input paths for the map-reduce job.
- setInputPaths(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.FileInputFormat
-
Sets the given comma separated paths as the list of inputs
for the map-reduce job.
- setInputPaths(JobConf, Path...) - 类 中的静态方法org.apache.hadoop.mapred.FileInputFormat
-
Set the array of
Path
s as the list of inputs
for the map-reduce job.
- setInputPaths(Job, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Sets the given comma separated paths as the list of inputs
for the map-reduce job.
- setInputPaths(Job, Path...) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Set the array of
Path
s as the list of inputs
for the map-reduce job.
- setInputQuery(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setInputSplit(InputSplit) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- setInputTableName(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setInputWriterClass(Class<? extends InputWriter>) - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
Sets the
InputWriter
class.
- setInsert(Document) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
-
Set the instance to be an insert operation.
- setInt(String, int) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the value of the
name
property to an int
.
- setInteractive(boolean) - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
-
- setIOSortMB(int) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the IO sort space in MB.
- setIpcPort(int) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
- setIsCleanup(boolean) - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
-
Set whether the task is a cleanup attempt or not.
- setIsJavaMapper(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Set whether the Mapper is written in Java.
- setIsJavaRecordReader(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Set whether the job is using a Java RecordReader.
- setIsJavaRecordWriter(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Set whether the job will use a Java RecordWriter.
- setIsJavaReducer(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Set whether the Reducer is written in Java.
- setIssueDate(long) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- setJar(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the user jar for the map-reduce job.
- setJarByClass(Class) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the job's jar file by finding an example class location.
- setJarByClass(Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the Jar by finding where a given class came from.
- setJob(Job) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
Set the mapreduce job
- setJobACLs(Map<JobACL, AccessControlList>) - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
Set the job acls
- setJobConf(JobConf) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
Set the mapred job conf for this job.
- setJobConf() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- setJobEndNotificationURI(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the uri to be invoked in-order to send a notification after the job
has completed (success/failure).
- setJobFile(String) - 类 中的方法org.apache.hadoop.mapred.Task
-
- setJobID(String) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
Set the job ID for this job.
- setJobID(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
Set the job ID for this job.
- setJobName(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the user-specified job name.
- setJobName(String) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
Set the job name for this job.
- setJobName(String) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the user-specified job name.
- setJobName(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
Set the job name for this job.
- setJobPriority(JobPriority) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set
JobPriority
for this job.
- setJobPriority(JobPriority) - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
Set the priority of the job, defaulting to NORMAL.
- setJobPriority(JobID, String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- setJobPriority(JobID, String) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- setJobPriority(String) - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Set the priority of a running job.
- setJobState(ControlledJob.State) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
Set the state for this job.
- setJobToken(Token<? extends TokenIdentifier>, Credentials) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
-
store job token
- setJobTokenSecret(SecretKey) - 类 中的方法org.apache.hadoop.mapred.Task
-
Set the job token secret
- setJvmContext(JvmContext) - 类 中的方法org.apache.hadoop.mapred.Task
-
Set the task JvmContext
- setKeepCommandFile(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Set whether to keep the command file for debugging
- setKeepFailedTaskFiles(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set whether the framework should keep the intermediate files for
failed tasks.
- setKeepTaskFilesPattern(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set a regular expression for task names that should be kept.
- setKeyComparator(Class<? extends WritableComparator>) - 类 中的方法org.apache.hadoop.mapred.join.Parser.Node
-
- setKeyFieldComparatorOptions(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the
KeyFieldBasedComparator
options used to compare keys.
- setKeyFieldComparatorOptions(Job, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
-
Set the
KeyFieldBasedComparator
options used to compare keys.
- setKeyFieldPartitionerOptions(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the
KeyFieldBasedPartitioner
options used for
Partitioner
- setKeyFieldPartitionerOptions(Job, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
-
Set the
KeyFieldBasedPartitioner
options used for
Partitioner
- setKeyId(int) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- setKeys(ExportedBlockKeys) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
-
Set block keys, only to be used in slave mode
- setKeyValue(Text, Text, byte[], int, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
-
- setKind(Text) - 类 中的方法org.apache.hadoop.security.token.Token
-
Set the token kind.
- setLanguage(String) - 类 中的方法org.apache.hadoop.record.compiler.ant.RccTask
-
Sets the output language option
- setLastContact(long) - 类 中的方法org.apache.hadoop.ipc.Server.Connection
-
- setLastSeen(long) - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
- setLastUpdate(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Sets time when this information was accurate.
- setLeasePeriod(long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.LeaseManager
-
- setLeftOffset(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
-
Set the subarray to be used for partitioning to
bytes[offset:]
in Python syntax.
- setLength(long) - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Set the length of block
- setLevel(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
- setLevel(int) - 接口 中的方法org.apache.hadoop.net.Node
-
Set this node's level in the tree.
- setLevel(int) - 类 中的方法org.apache.hadoop.net.NodeBase
-
Set this node's level in the tree
- setLoadNativeLibraries(Configuration, boolean) - 类 中的方法org.apache.hadoop.util.NativeCodeLoader
-
Set if native hadoop libraries, if present, can be used for this job.
- setLocalAnalysisClass(Class<? extends ILocalAnalysis>) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the local analysis class.
- setLocalArchives(Configuration, String) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Set the conf to contain the location for localized archives.
- setLocalFiles(Configuration, String) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Set the conf to contain the location for localized files.
- setLocalMaxRunningMaps(JobContext, int) - 类 中的静态方法org.apache.hadoop.mapred.LocalJobRunner
-
Set the max number of map tasks to run concurrently in the LocalJobRunner.
- setLogPath(Path) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set the log path where distcp output logs are stored
Uses JobStagingDir/_logs by default
- setLong(String, long) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the value of the
name
property to a long
.
- setLongValue(Object, long) - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
-
Set the given counter to the given value
- setMapBandwidth(int) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set per map bandwidth
- setMapDebugScript(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the debug script to run when the map tasks fail.
- setMapOutputCompressorClass(Class<? extends CompressionCodec>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the given class as the
CompressionCodec
for the map outputs.
- setMapOutputKeyClass(Class<?>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the key class for the map output data.
- setMapOutputKeyClass(Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the key class for the map output data.
- setMapOutputValueClass(Class<?>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the value class for the map output data.
- setMapOutputValueClass(Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the value class for the map output data.
- setMapperClass(Class<? extends Mapper>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the
Mapper
class for the job.
- setMapperClass(Class<? extends Mapper>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the
Mapper
for the job.
- setMapperClass(Job, Class<? extends Mapper<K1, V1, K2, V2>>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.map.MultithreadedMapper
-
Set the application's mapper class.
- setMapperMaxSkipRecords(Configuration, long) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Set the number of acceptable skip records surrounding the bad record PER
bad record in mapper.
- setMapredJobID(String) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
已过时。
use
Job.setAssignedJobID(JobID)
instead
- setMapRunnerClass(Class<? extends MapRunnable>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Expert: Set the
MapRunnable
class for the job.
- setMapSlots(int) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
-
Set the number of map slot for the node.
- setMapSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Turn speculative execution on or off for this job for map tasks.
- setMapSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Turn speculative execution on or off for this job for map tasks.
- SETMASK - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
This constant is accessible by subclasses for historical purposes.
- setMasterKeyId(int) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- setMaxDate(long) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- setMaxInputSplitSize(Job, long) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Set the maximum split size
- setMaxItems(long) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
-
Set the limit on the number of unique values
- setMaxMapAttempts(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Expert: Set the number of maximum attempts that will be made to run a
map task.
- setMaxMaps(int) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set the max number of maps to use for copy
- setMaxMapTaskFailuresPercent(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Expert: Set the maximum percentage of map tasks that can fail without the
job being aborted.
- setMaxPhysicalMemoryForTask(long) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
已过时。
- setMaxReduceAttempts(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Expert: Set the number of maximum attempts that will be made to run a
reduce task.
- setMaxReduceTaskFailuresPercent(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the maximum percentage of reduce tasks that can fail without the job
being aborted.
- setMaxSplitSize(long) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
-
Specify the maximum size (in bytes) of each split.
- setMaxSplitSize(long) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
Specify the maximum size (in bytes) of each split.
- setMaxTaskFailuresPerTracker(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the maximum no. of failures of a given job per tasktracker.
- setMaxVirtualMemoryForTask(long) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- setMemory(int) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Set the total amount of buffer memory, in bytes.
- setMemory(long) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
-
Set the physical memory of the node.
- setMemoryForMapTask(long) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- setMemoryForReduceTask(long) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- setMemoryPerMapSlot(long) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
-
Set the amount of RAM reserved for each map slot.
- setMemoryPerReduceSlot(long) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
-
Set the amount of RAM reserved for each reduce slot.
- setMessage(String) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
Set the message for this job.
- setMessage(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
Set the message for this job.
- setMetric(String, int) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, long) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, short) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, byte) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, float) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, int) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, long) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, short) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, byte) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, float) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named metric to the specified value.
- setMinInputSplitSize(Job, long) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Set the minimum input split size
- setMinSplitSize(long) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
-
- setMinSplitSizeNode(long) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
-
Specify the minimum size (in bytes) of each split per node.
- setMinSplitSizeNode(long) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
Specify the minimum size (in bytes) of each split per node.
- setMinSplitSizeRack(long) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
-
Specify the minimum size (in bytes) of each split per rack.
- setMinSplitSizeRack(long) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
Specify the minimum size (in bytes) of each split per rack.
- setName(String) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
- setName(Class, String) - 类 中的静态方法org.apache.hadoop.io.WritableName
-
Set the name that a class should be known as to something other than the
class name.
- setName(String) - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
-
set the name of the record
- setNames(String[]) - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Set the names (host:port) hosting this block
- setNamesystem(FSNamesystem) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- setNetworkLocation(String) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Sets the network location
- setNetworkLocation(String) - 接口 中的方法org.apache.hadoop.net.Node
-
Set the node's network location
- setNetworkLocation(String) - 类 中的方法org.apache.hadoop.net.NodeBase
-
Set this node's network location
- setNewStorageID(DatanodeRegistration) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- setNext(LightWeightGSet.LinkedElement) - 接口 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet.LinkedElement
-
Set the next element.
- setNextRecordRange(SortedRanges.Range) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Set the next record range which is going to be processed by Task.
- setNodeReplicationLimit(int) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- setNumberOfThreads(Job, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.map.MultithreadedMapper
-
Set the number of threads in the pool for running maps.
- setNumBytes(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- setNumCores(int) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
-
Set the number of cores for the node.
- setNumLinesPerSplit(Job, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
-
Set the number of lines per split
- setNumMapTasks(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the number of map tasks for this job.
- setNumReduceTasks(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the requisite number of reduce tasks for this job.
- setNumReduceTasks(int) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the number of reduce tasks for the job.
- setNumTasksToExecutePerJvm(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Sets the number of tasks that a spawned task JVM should run
before it exits
- setOffset(long) - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Set the start offset of file associated with this block
- setOffsets(Configuration, int, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
-
Set the subarray to be used for partitioning to
bytes[left:(right+1)]
in Python syntax.
- setOp(DocumentAndOp.Op) - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocTextAndOp
-
Set the type of the operation.
- setOutput(JobConf, String, String...) - 类 中的静态方法org.apache.hadoop.mapred.lib.db.DBOutputFormat
-
Initializes the reduce-part of the job with the appropriate output settings
- setOutput(Job, String, String...) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat
-
Initializes the reduce-part of the job with
the appropriate output settings
- setOutput(Job, String, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat
-
Initializes the reduce-part of the job
with the appropriate output settings
- setOutputCommitter(Class<? extends OutputCommitter>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the
OutputCommitter
implementation for the map-reduce job.
- setOutputCompressionType(JobConf, SequenceFile.CompressionType) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileOutputFormat
-
Set the
SequenceFile.CompressionType
for the output SequenceFile
.
- setOutputCompressionType(Job, SequenceFile.CompressionType) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat
-
Set the
SequenceFile.CompressionType
for the output SequenceFile
.
- setOutputCompressorClass(JobConf, Class<? extends CompressionCodec>) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
Set the
CompressionCodec
to be used to compress job outputs.
- setOutputCompressorClass(Job, Class<? extends CompressionCodec>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Set the
CompressionCodec
to be used to compress job outputs.
- setOutputFieldCount(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setOutputFieldNames(String...) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setOutputFormat(Class<? extends OutputFormat>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the
OutputFormat
implementation for the map-reduce job.
- setOutputFormatClass(Class<? extends OutputFormat>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the
OutputFormat
for the job.
- setOutputFormatClass(Job, Class<? extends OutputFormat>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.LazyOutputFormat
-
Set the underlying output format for LazyOutputFormat.
- setOutputKeyClass(Class<?>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the key class for the job output data.
- setOutputKeyClass(Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the key class for the job output data.
- setOutputKeyClass(Class) - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
Sets the output key class class.
- setOutputKeyComparatorClass(Class<? extends RawComparator>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the
RawComparator
comparator used to compare keys.
- setOutputName(JobContext, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Set the base output name for output file to be created.
- setOutputPath(JobConf, Path) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
Set the
Path
of the output directory for the map-reduce job.
- setOutputPath(Job, Path) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Set the
Path
of the output directory for the map-reduce job.
- setOutputReaderClass(Class<? extends OutputReader>) - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
Sets the
OutputReader
class.
- setOutputTableName(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setOutputValueClass(Class<?>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the value class for job outputs.
- setOutputValueClass(Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the value class for job outputs.
- setOutputValueClass(Class) - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
Sets the output value class.
- setOutputValueGroupingComparator(Class<? extends RawComparator>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the user defined
RawComparator
comparator for
grouping keys in the input to the reduce.
- setOverwrite(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set if files should always be overwritten on target
- setOwner(String) - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Sets owner.
- setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Set owner of a path (i.e. a file or a directory).
- setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Set owner of a path (i.e. a file or a directory).
- setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
not implemented.
- setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
Use the command chown to set owner.
- setOwner(String, String, String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Set file or directory owner.
- setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Set owner of a path (i.e. a file or a directory).
- setOwner(String, String, String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Set owner of a path (i.e. a file or a directory).
- setOwner(String, String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Set owner for an existing file.
- setOwner(String, String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Set owner of a path (i.e. a file or a directory).
- setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- setParent(Node) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
- setParent(Node) - 接口 中的方法org.apache.hadoop.net.Node
-
Set this node's parent
- setParent(Node) - 类 中的方法org.apache.hadoop.net.NodeBase
-
Set this node's parent
- setPartitionerClass(Class<? extends Partitioner>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- setPartitionerClass(Class<? extends Partitioner>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the
Partitioner
for the job.
- setPartitionFile(JobConf, Path) - 类 中的静态方法org.apache.hadoop.mapred.lib.TotalOrderPartitioner
-
Set the path to the SequenceFile storing the sorted partition keyset.
- setPartitionFile(Configuration, Path) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
-
Set the path to the SequenceFile storing the sorted partition keyset.
- setPathName(String) - 异常错误 中的方法org.apache.hadoop.hdfs.protocol.QuotaExceededException
-
- setPattern(Configuration, String) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileInputFilter.RegexFilter
-
Define the filtering regex and stores it in conf
- setPattern(Configuration, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.RegexFilter
-
Define the filtering regex and stores it in conf
- setPeriod(int) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Sets the timer period
- setPermission(FsPermission) - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Sets permission.
- setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Set permission of a path.
- setPermission(File, FsPermission) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Set permissions to the required value.
- setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Set permission of a path.
- setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
Not implemented.
- setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
Use the command chmod to set permission.
- setPermission(String, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Set permissions to a file or directory.
- setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Set permission of a path.
- setPermission(String, FsPermission) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Set permissions for an existing file/directory.
- setPermission(String, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Set permissions for an existing file.
- setPermission(String, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Set permissions for an existing file/directory.
- setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- setPhase(TaskStatus.Phase) - 类 中的方法org.apache.hadoop.mapred.Task
-
Set current phase of the task.
- setPhysicalMemoryUsage(long) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Set the physical memory usage.
- setPingInterval(Configuration, int) - 类 中的静态方法org.apache.hadoop.ipc.Client
-
set the ping interval value in configuration
- setPrinter(DancingLinks.SolutionAcceptor<Pentomino.ColumnName>) - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino
-
Set the printer for the puzzle.
- setPriority(JobPriority) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- setProfileEnabled(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set whether the system should collect profiler information for some of
the tasks in this job?
- setProfileParams(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the profiler configuration arguments.
- setProfileTaskRange(boolean, String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the ranges of maps or reduces to profile. setProfileEnabled(true)
must also be called.
- setProgress(float) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- setProgress(float) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- setProgressable(Progressable) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Set the progressable object in order to report progress.
- setQueueName(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the name of the queue to which this job should be submitted.
- setQueueName(String) - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
-
Set the queue name of the JobQueueInfo
- setQueueName(String) - 类 中的方法org.apache.hadoop.mapred.QueueAclsInfo
-
- setQueueState(String) - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
-
Set the state of the queue
- setQuietMode(boolean) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the quietness-mode.
- setQuota(Path, long, long) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Set a directory's quotas
- setQuota(String, long, long) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Set the quota for a directory.
- setQuota(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Set the quota for a directory.
- setReduceDebugScript(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the debug script to run when the reduce tasks fail.
- setReducer(JobConf, Class<? extends Reducer<K1, V1, K2, V2>>, Class<? extends K1>, Class<? extends V1>, Class<? extends K2>, Class<? extends V2>, boolean, JobConf) - 类 中的静态方法org.apache.hadoop.mapred.lib.ChainReducer
-
Sets the Reducer class to the chain job's JobConf.
- setReducerClass(Class<? extends Reducer>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the
Reducer
class for the job.
- setReducerClass(Class<? extends Reducer>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the
Reducer
for the job.
- setReducerMaxSkipGroups(Configuration, long) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Set the number of acceptable skip groups surrounding the bad group PER
bad group in reducer.
- setReduceSlots(int) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
-
Set the number of reduce slot for the node.
- setReduceSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Turn speculative execution on or off for this job for reduce tasks.
- setReduceSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Turn speculative execution on or off for this job for reduce tasks.
- setRemaining(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Sets raw free space.
- setReplication(Path, short) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
Set replication for an existing file.
- setReplication(Path, short) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Set replication for an existing file.
- setReplication(Path, short) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Set replication for an existing file.
- setReplication(Path, short) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
Not implemented.
- setReplication(Path, short) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- setReplication(String, short) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Set replication for an existing file.
- setReplication(Path, short) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- setReplication(String, short) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Set replication for an existing file.
- setReplication(String, short) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Set replication for an existing file.
- setReplication(String, short) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Set replication for an existing file.
- setReplication(Path, short) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- setRetryPolicy(RetryPolicy) - 类 中的方法org.apache.hadoop.tools.distcp2.util.RetriableCommand
-
Fluent-interface to change the RetryHandler.
- setRightOffset(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
-
Set the subarray to be used for partitioning to
bytes[:(offset+1)]
in Python syntax.
- setRpcServiceServerAddress(Configuration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Modifies the configuration passed to contain the service rpc address setting
- setRules(String) - 类 中的静态方法org.apache.hadoop.security.KerberosName
-
Set the rules.
- setRunningTaskAttempts(Collection<TaskAttemptID>) - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
set running attempt(s) of the task.
- setRunState(int) - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
Change the current run state of the job.
- setRunState(TaskStatus.State) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- setSafeMode(FSConstants.SafeModeAction) - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
-
Enter, leave or get safe mode.
- setSafeMode(FSConstants.SafeModeAction) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Enter, leave or get safe mode.
- setSafeMode(FSConstants.SafeModeAction) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Enter, leave or get safe mode.
- setSafeMode(FSConstants.SafeModeAction) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Enter, leave or get safe mode.
- setSafeMode(FSConstants.SafeModeAction) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- setSafeMode(String[], int) - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
Safe mode maintenance command.
- setSafeMode(JobTracker.SafeModeAction) - 接口 中的方法org.apache.hadoop.mapred.AdminOperationsProtocol
-
Set safe mode for the JobTracker.
- setSafeMode(JobTracker.SafeModeAction) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- setSafeModeTime(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- setSchedulingInfo(Object) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- setSchedulingInfo(String) - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
-
Set the scheduling information associated to particular job queue
- setSchedulingInfo(String) - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
Used to set the scheduling information associated to a particular Job.
- setSequenceFileOutputKeyClass(JobConf, Class<?>) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
-
Set the key class for the
SequenceFile
This allows the user to specify the key class to be different
from the actual class (BytesWritable
) used for writing
- setSequenceFileOutputKeyClass(Job, Class<?>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
-
Set the key class for the
SequenceFile
This allows the user to specify the key class to be different
from the actual class (BytesWritable
) used for writing
- setSequenceFileOutputValueClass(JobConf, Class<?>) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
-
Set the value class for the
SequenceFile
This allows the user to specify the value class to be different
from the actual class (BytesWritable
) used for writing
- setSequenceFileOutputValueClass(Job, Class<?>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
-
Set the value class for the
SequenceFile
This allows the user to specify the value class to be different
from the actual class (BytesWritable
) used for writing
- setSequenceNumber(int) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- setService(Text) - 类 中的方法org.apache.hadoop.security.token.Token
-
Set the service on which the token is supposed to be used
- setServiceAddress(Configuration, String) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Set the configuration property for the service rpc address
to address
- setSessionId(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the user-specified session identifier.
- setSessionTimeZone(Configuration, Connection) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.OracleDBRecordReader
-
Set session time zone
- setSize(int) - 类 中的方法org.apache.hadoop.io.BytesWritable
-
Change the size of the buffer.
- setSizes(long[]) - 类 中的方法org.apache.hadoop.filecache.TaskDistributedCacheManager
-
- setSkipCRC(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set if checksum comparison should be skipped while determining if
source and destination files are identical
- setSkipOutputPath(JobConf, Path) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Set the directory to which skipped records are written.
- setSkipping(boolean) - 类 中的方法org.apache.hadoop.mapred.Task
-
Sets whether to run Task in skipping mode.
- setSkipRanges(SortedRanges) - 类 中的方法org.apache.hadoop.mapred.Task
-
Set skipRanges.
- setSocketSendBufSize(int) - 类 中的方法org.apache.hadoop.ipc.Server
-
Sets the socket buffer size used for responding to RPCs
- setSortComparatorClass(Class<? extends RawComparator>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Define the comparator that controls how the keys are sorted before they
are passed to the
Reducer
.
- setSourcePaths(List<Path>) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Setter for sourcePaths.
- setSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Turn speculative execution on or off for this job.
- setSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Turn speculative execution on or off for this job.
- setSslConfigurationFile(String) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set the SSL configuration file path to use with hftps:// (local path)
- setStamp(long) - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
-
Sets the current generation stamp
- setStart(long) - 类 中的方法org.apache.hadoop.io.compress.SplitCompressionInputStream
-
- setState(int) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
Set the state for this job.
- setStatement(PreparedStatement) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- setStateString(String) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- setStatus(String) - 接口 中的方法org.apache.hadoop.mapred.Reporter
-
Set the status description for the task.
- setStatus(String) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- setStatus(TaskTrackerStatus) - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
-
Set the current
TaskTrackerStatus
of the TaskTracker
.
- setStatus(String) - 类 中的方法org.apache.hadoop.mapreduce.StatusReporter
-
- setStatus(String) - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptContext
-
Set the current status of the task to the given string.
- setStatus(String) - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
-
- setStatus(String) - 类 中的方法org.apache.hadoop.util.Progress
-
- setStorageID(String) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
sets the data storage ID.
- setStorageInfo(StorageInfo) - 类 中的方法org.apache.hadoop.hdfs.server.common.StorageInfo
-
- setStorageInfo(DataStorage) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
- setStrings(String, String...) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the array of string values for the
name
property as
as comma delimited values.
- setSuccessfulAttempt(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
set successful attempt ID of the task.
- setSyncFolder(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set if source and target folder contents be sync'ed up
- setTabSize(int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- setTag(Text) - 类 中的方法org.apache.hadoop.contrib.utils.join.TaggedMapOutput
-
- setTag(String, String) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named tag to the specified value.
- setTag(String, int) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named tag to the specified value.
- setTag(String, long) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named tag to the specified value.
- setTag(String, short) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named tag to the specified value.
- setTag(String, byte) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named tag to the specified value.
- setTag(String, String) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named tag to the specified value.
- setTag(String, int) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named tag to the specified value.
- setTag(String, long) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named tag to the specified value.
- setTag(String, short) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named tag to the specified value.
- setTag(String, byte) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named tag to the specified value.
- setTaskId(String) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
已过时。
use
TaskCompletionEvent.setTaskID(TaskAttemptID)
instead.
- setTaskID(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
Sets task id.
- setTaskId(String) - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
-
- setTaskOutputFilter(JobClient.TaskStatusFilter) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
已过时。
- setTaskOutputFilter(JobConf, JobClient.TaskStatusFilter) - 类 中的静态方法org.apache.hadoop.mapred.JobClient
-
Modify the JobConf to set the task output filter.
- setTaskRunTime(int) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
Set the task completion time
- setTaskStatus(TaskCompletionEvent.Status) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
Set task status.
- setTaskTracker(String) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- setTaskTrackerHttp(String) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
Set task tracker http location.
- setThreads(int, int) - 类 中的方法org.apache.hadoop.http.HttpServer
-
Set the min, max number of worker threads (simultaneous connections).
- setTimes(Path, long, long) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Set access time of a file
- setTimes(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
set the modification and access time of a file
- setTimes(Path, long, long) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Set access time of a file
- setTimes(String, long, long) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Sets the modification and access time of the file to the specified time.
- setTimes(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
stores the modification and access time for this inode.
- setTimes(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- setTimes(Path, long, long) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- setTokenLifetime(long) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
-
set token lifetime.
- setTokenService(Token<?>, InetSocketAddress) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
Set the given token's service to the format expected by the RPC client
- setTopologyPaths(String[]) - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Set the network topology paths of the hosts
- setTotalLogFileSize(long) - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
-
- setUMask(Configuration, FsPermission) - 类 中的静态方法org.apache.hadoop.fs.permission.FsPermission
-
Set the user file creation mask (umask)
- setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedLocation
-
- setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedNetworkTopology
-
- setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedSingleRelativeRanking
-
- setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- setup(LocalDirAllocator, TaskTracker.LocalStorage) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
-
- setup(LocalDirAllocator, TaskTracker.LocalStorage) - 类 中的方法org.apache.hadoop.mapred.TaskController
-
Does initialization and setup.
- setup(Mapper<K, V, Text, Text>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionMapper
-
- setup(Reducer<Text, Text, Text, Text>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionReducer
-
- setup(Mapper<K1, V1, K2, V2>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingMapper
-
- setup(Mapper<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Mapper
-
Called once at the beginning of the task.
- setup(Reducer<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Reducer
-
Called once at the start of the task.
- setup(Mapper<Text, FileStatus, Text, Text>.Context) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.CopyMapper
-
Implementation of the Mapper::setup() method.
- setupCache(Configuration, String, String) - 类 中的方法org.apache.hadoop.filecache.TaskDistributedCacheManager
-
Retrieve public distributed cache files into the local cache and updates
the task configuration (which has been passed in via the constructor).
- setUpdate(Document, Term) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
-
Set the instance to be an update operation.
- setUpgradeState(boolean, int) - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- setupJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.FileOutputCommitter
-
- setupJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
-
For the framework to setup the job output during initialization
- setupJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
-
This method implements the new interface by calling the old method.
- setupJob(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
-
Create the temporary directory that is the root of all of the task
work directories.
- setupJob(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputCommitter
-
For the framework to setup the job output during initialization
- setupJobConf(int, int, long, int, long, int) - 类 中的方法org.apache.hadoop.examples.SleepJob
-
- setupProgress() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- setupProgress() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get the progress of the job's setup-tasks, as a float between 0.0
and 1.0.
- setupProgress() - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Get the progress of the job's setup, as a float between 0.0
and 1.0.
- setupSsl(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DelegationTokenFetcher
-
Set up SSL resources
- setupTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.FileOutputCommitter
-
- setupTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
-
Sets up output for the task.
- setupTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
-
This method implements the new interface by calling the old method.
- setupTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
-
No task setup required.
- setupTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputCommitter
-
Sets up output for the task.
- setURL(URL) - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream.URLOpener
-
- setUseNewMapper(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set whether the framework should use the new api for the mapper.
- setUseNewReducer(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set whether the framework should use the new api for the reducer.
- setUser(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the reported username for this job.
- setValue(long) - 类 中的方法org.apache.hadoop.mapreduce.Counter
-
Set this counter by the given value
- setValue(Object) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritable
-
Set the typed bytes from a given Java object.
- setVerbose(boolean) - 类 中的方法org.apache.hadoop.streaming.JarBuilder
-
- setVerifyChecksum(boolean) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
Set whether to verify checksum.
- setVerifyChecksum(boolean) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Set the verify checksum flag.
- setVerifyChecksum(boolean) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Set the verify checksum flag.
- setVerifyChecksum(boolean) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- setVirtualMemoryUsage(long) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Set the virtual memory usage.
- setVisibleLength(Block, long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- setVisibleLength(Block, long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
update the specified blocks visible meta data.
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Set the current working directory for the given file system.
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Set the current working directory for the given file system.
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
-
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
Set the working directory to the given directory.
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
Set the working directory to the given directory.
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the current working directory for the default file system.
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the current working directory for the default file system.
- setWorkingDirectory(Job, Path) - 类 中的静态方法org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
-
Setter for the working directory for DistCp (where files will be copied
before they are moved to the final commit-directory.)
- setWorkingDirectory(File) - 类 中的方法org.apache.hadoop.util.Shell
-
set the working directory
- setWriter(IFile.Writer<K, V>) - 类 中的方法org.apache.hadoop.mapred.Task.CombineOutputCollector
-
- setWriteSkipRecs(boolean) - 类 中的方法org.apache.hadoop.mapred.Task
-
Set whether to write skip records.
- setXceiverCount(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Sets number of active connections
- Shard - org.apache.hadoop.contrib.index.mapred中的类
-
This class represents the metadata of a shard.
- Shard() - 类 的构造器org.apache.hadoop.contrib.index.mapred.Shard
-
Constructor.
- Shard(long, String, long) - 类 的构造器org.apache.hadoop.contrib.index.mapred.Shard
-
Construct a shard from a versio number, a directory and a generation
number.
- Shard(Shard) - 类 的构造器org.apache.hadoop.contrib.index.mapred.Shard
-
Construct using a shard object.
- ShardWriter - org.apache.hadoop.contrib.index.lucene中的类
-
The initial version of an index is stored in the perm dir.
- ShardWriter(FileSystem, Shard, String, IndexUpdateConfiguration) - 类 的构造器org.apache.hadoop.contrib.index.lucene.ShardWriter
-
Constructor
- Shell - org.apache.hadoop.util中的类
-
A base class for running a Unix command.
- Shell() - 类 的构造器org.apache.hadoop.util.Shell
-
- Shell(long) - 类 的构造器org.apache.hadoop.util.Shell
-
- Shell.ExitCodeException - org.apache.hadoop.util中的异常错误
-
This is an IOException with exit code added.
- Shell.ExitCodeException(int, String) - 异常错误 的构造器org.apache.hadoop.util.Shell.ExitCodeException
-
- Shell.ShellCommandExecutor - org.apache.hadoop.util中的类
-
A simple shell command executor.
- Shell.ShellCommandExecutor(String[]) - 类 的构造器org.apache.hadoop.util.Shell.ShellCommandExecutor
-
- Shell.ShellCommandExecutor(String[], File) - 类 的构造器org.apache.hadoop.util.Shell.ShellCommandExecutor
-
- Shell.ShellCommandExecutor(String[], File, Map<String, String>) - 类 的构造器org.apache.hadoop.util.Shell.ShellCommandExecutor
-
- Shell.ShellCommandExecutor(String[], File, Map<String, String>, long) - 类 的构造器org.apache.hadoop.util.Shell.ShellCommandExecutor
-
Create a new instance of the ShellCommandExecutor to execute a command.
- ShellBasedUnixGroupsMapping - org.apache.hadoop.security中的类
-
A simple shell-based implementation of
GroupMappingServiceProvider
that exec's the groups
shell command to fetch the group
memberships of a given user.
- ShellBasedUnixGroupsMapping() - 类 的构造器org.apache.hadoop.security.ShellBasedUnixGroupsMapping
-
- ShellBasedUnixGroupsNetgroupMapping - org.apache.hadoop.security中的类
-
A simple shell-based implementation of
GroupMappingServiceProvider
that exec's the groups
shell command to fetch the group
memberships of a given user.
- ShellBasedUnixGroupsNetgroupMapping() - 类 的构造器org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
-
- shippedCanonFiles_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- shouldAtomicCommit() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Should the data be committed atomically?
- shouldAvoidStaleDataNodesForWrite() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.FSClusterStats
-
Indicate whether or not the cluster is now avoiding to use stale DataNodes
for writing.
- shouldAvoidStaleDataNodesForWrite() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- shouldBlock() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Should DistCp be running in blocking mode
- shouldCopy(Path, DistCpOptions) - 类 中的方法org.apache.hadoop.tools.distcp2.SimpleCopyListing
-
Provide an option to skip copy of a path, Allows for exclusion
of files such as
FileOutputCommitter.SUCCEEDED_FILE_NAME
- shouldDeleteMissing() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Should target files missing in source should be deleted?
- shouldDie() - 类 中的方法org.apache.hadoop.mapred.JvmTask
-
- shouldIgnoreFailures() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Should failures be logged and ignored during copy?
- shouldOverwrite() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Should files be overwritten always?
- shouldPreserve(DistCpOptions.FileAttribute) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Checks if the input attibute should be preserved or not
- shouldPreserveInput() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
-
- shouldReset() - 类 中的方法org.apache.hadoop.mapred.MapTaskCompletionEventsUpdate
-
- shouldRetry(Exception, int) - 类 中的方法org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry
-
- shouldRetry(Exception, int) - 接口 中的方法org.apache.hadoop.io.retry.RetryPolicy
-
Determines whether the framework should retry a
method for the given exception, and the number
of retries that have been made for that operation
so far.
- shouldSkipCRC() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Should CRC/checksum check be skipped while checking files are identical
- shouldSyncFolder() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Should the data be sync'ed between source and target paths?
- shouldTruncateLogs(JVMInfo) - 类 中的方法org.apache.hadoop.mapred.TaskLogsTruncater
-
Check the log file sizes generated by the attempts that ran in a
particular JVM
- shuffleError(TaskAttemptID, String, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
A reduce-task failed to shuffle the map-outputs.
- shuffleError(TaskAttemptID, String, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
-
Report that a reduce-task couldn't shuffle map-outputs.
- ShuffleExceptionTracker - org.apache.hadoop.mapred中的类
-
This class is used to track shuffle exceptions.
- shutdown() - 类 中的方法org.apache.hadoop.fs.DU
-
Shut down the refreshing thread.
- shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Shut down this instance of the datanode.
- shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- shutdown() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Shutdown the FSDataset
- shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
shutdown FSNamesystem
- shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
-
Shut down this instance of the datanode.
- shutdown() - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
-
Shutdown the instrumentation for the process
- shutdown() - 类 中的方法org.apache.hadoop.mapred.JobHistoryServer
-
Shutsdown the history server if already initialized
- shutdown() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- shutdown() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
- shutdown() - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
- shutdown() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem
-
Shutdown the metrics system completely (usually during server shutdown.)
- sign(String) - 类 中的方法org.apache.hadoop.security.authentication.util.Signer
-
Returns a signed string.
- signalTask(String, int, ProcessTree.Signal) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
-
- signalTask(String, int, ProcessTree.Signal) - 类 中的方法org.apache.hadoop.mapred.TaskController
-
Send a signal to a task pid as the user.
- SIGNATURE_SECRET - 类 中的静态变量org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Constant for the property that specifies the secret to use for signing the HTTP Cookies.
- Signer - org.apache.hadoop.security.authentication.util中的类
-
Signs strings and verifies signed strings using a SHA digest.
- Signer(byte[]) - 类 的构造器org.apache.hadoop.security.authentication.util.Signer
-
Creates a Signer instance using the specified secret.
- SignerException - org.apache.hadoop.security.authentication.util中的异常错误
-
Exception thrown by
Signer
when a string signature is invalid.
- SignerException(String) - 异常错误 的构造器org.apache.hadoop.security.authentication.util.SignerException
-
Creates an exception instance.
- SimpleCharStream - org.apache.hadoop.record.compiler.generated中的类
-
An implementation of interface CharStream, where the stream is assumed to
contain only ASCII characters (without unicode processing).
- SimpleCharStream(Reader, int, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCharStream(Reader, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCharStream(Reader) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCharStream(InputStream, String, int, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCharStream(InputStream, int, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCharStream(InputStream, String, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCharStream(InputStream, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCharStream(InputStream, String) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCharStream(InputStream) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCopyListing - org.apache.hadoop.tools.distcp2中的类
-
The SimpleCopyListing is responsible for making the exhaustive list of
all files/directories under its specified list of input-paths.
- SimpleCopyListing(Configuration, Credentials) - 类 的构造器org.apache.hadoop.tools.distcp2.SimpleCopyListing
-
Protected constructor, to initialize configuration.
- simpleHostname(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Given a full hostname, return the word upto the first dot.
- size() - 类 中的方法org.apache.hadoop.conf.Configuration
-
Return the number of keys in the configuration.
- size() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CorruptReplicasMap
-
- size() - 接口 中的方法org.apache.hadoop.hdfs.util.GSet
-
- size() - 类 中的方法org.apache.hadoop.hdfs.util.GSetByHashMap
-
- size() - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
-
- size() - 类 中的方法org.apache.hadoop.io.file.tfile.ByteArray
-
- size() - 接口 中的方法org.apache.hadoop.io.file.tfile.RawComparable
-
Get the size of the byte range in the byte array.
- size() - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils.Version
-
Get the size of the serialized Version object.
- size() - 类 中的方法org.apache.hadoop.io.MapWritable
- size() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- size() - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
Returns the number of counters in this group.
- size() - 类 中的方法org.apache.hadoop.mapred.Counters
-
Returns the total number of counters, by summing the number of counters
in each group.
- size() - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
-
The number of children in this Tuple.
- size() - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
-
Returns the number of counters in this group.
- size() - 类 中的方法org.apache.hadoop.metrics.util.MetricsRegistry
-
已过时。
- size() - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Returns the size of the serialized data
- size() - 类 中的方法org.apache.hadoop.util.PriorityQueue
-
Returns the number of elements currently stored in the PriorityQueue.
- SIZE_OF_INTEGER - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
-
- SIZE_OF_INTEGER - 类 中的静态变量org.apache.hadoop.util.DataChecksum
-
- SIZE_UNKNOWN - 类 中的静态变量org.apache.hadoop.fs.LocalDirAllocator
-
Used when size of file to be allocated is unknown.
- skip(long) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
-
- skip(long) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
Skips over and discards
n
bytes of data from the
input stream.
- skip(long) - 接口 中的方法org.apache.hadoop.hdfs.BlockReader
-
- skip(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
- skip(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
- skip(long) - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
-
- skip(DataInput) - 类 中的静态方法org.apache.hadoop.io.Text
-
Skips over one Text in the input.
- skip(DataInput) - 类 中的静态方法org.apache.hadoop.io.UTF8
-
已过时。
Skips over one UTF8 in the input.
- skip(K) - 接口 中的方法org.apache.hadoop.mapred.join.ComposableRecordReader
-
Skip key-value pairs with keys less than or equal to the key provided.
- skip(K) - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Pass skip key to child RRs.
- skip(K) - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
-
Skip key-value pairs with keys less than or equal to the key provided.
- skip(RecordInput, String, TypeID) - 类 中的静态方法org.apache.hadoop.record.meta.Utils
-
read/skip bytes from stream based on a type
- skip(long) - 类 中的方法org.apache.hadoop.security.SaslInputStream
-
Skips
n
bytes of input from the bytes that can be read from
this input stream without blocking.
- SkipBadRecords - org.apache.hadoop.mapred中的类
-
Utility class for skip bad records functionality.
- SkipBadRecords() - 类 的构造器org.apache.hadoop.mapred.SkipBadRecords
-
- skipCompressedByteArray(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
- skipFully(InputStream, long) - 类 中的静态方法org.apache.hadoop.io.IOUtils
-
Similar to readFully().
- skipFully(DataInput, int) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
Skip len number of bytes in input streamin
- skipToNextMarker(long, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
-
This method tries to find the marker (passed to it as the first parameter)
in the stream.
- skipType() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Skips a type byte.
- SleepJob - org.apache.hadoop.examples中的类
-
Dummy class for testing MR framefork.
- SleepJob() - 类 的构造器org.apache.hadoop.examples.SleepJob
-
- SleepJob.EmptySplit - org.apache.hadoop.examples中的类
-
- SleepJob.EmptySplit() - 类 的构造器org.apache.hadoop.examples.SleepJob.EmptySplit
-
- SleepJob.SleepInputFormat - org.apache.hadoop.examples中的类
-
- SleepJob.SleepInputFormat() - 类 的构造器org.apache.hadoop.examples.SleepJob.SleepInputFormat
-
- SMALL_BUFFER_SIZE - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
-
- SMALL_THRESH - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
This constant is accessible by subclasses for historical purposes.
- SnappyCodec - org.apache.hadoop.io.compress中的类
-
This class creates snappy compressors/decompressors.
- SnappyCodec() - 类 的构造器org.apache.hadoop.io.compress.SnappyCodec
-
- SnappyCompressor - org.apache.hadoop.io.compress.snappy中的类
-
A
Compressor
based on the snappy compression algorithm.
- SnappyCompressor(int) - 类 的构造器org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Creates a new compressor.
- SnappyCompressor() - 类 的构造器org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Creates a new compressor with the default buffer size.
- SnappyDecompressor - org.apache.hadoop.io.compress.snappy中的类
-
A
Decompressor
based on the snappy compression algorithm.
- SnappyDecompressor(int) - 类 的构造器org.apache.hadoop.io.compress.snappy.SnappyDecompressor
-
Creates a new compressor.
- SnappyDecompressor() - 类 的构造器org.apache.hadoop.io.compress.snappy.SnappyDecompressor
-
Creates a new decompressor with the default buffer size.
- snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutable
-
Get a snapshot/snapshot of the metric
- snapshot(MetricsRecordBuilder) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutable
-
Get a sampe/snapshot of metric if changed
- snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableCounterInt
-
- snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableCounterLong
-
- snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeInt
-
- snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeLong
-
- snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableStat
-
- snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Sample all the mutable metrics and put the snapshot in the builder
- SocketInputStream - org.apache.hadoop.net中的类
-
This implements an input stream that can have a timeout while reading.
- SocketInputStream(ReadableByteChannel, long) - 类 的构造器org.apache.hadoop.net.SocketInputStream
-
Create a new input stream with the given timeout.
- SocketInputStream(Socket, long) - 类 的构造器org.apache.hadoop.net.SocketInputStream
-
Same as SocketInputStream(socket.getChannel(), timeout):
Create a new input stream with the given timeout.
- SocketInputStream(Socket) - 类 的构造器org.apache.hadoop.net.SocketInputStream
-
Same as SocketInputStream(socket.getChannel(), socket.getSoTimeout())
:
Create a new input stream with the given timeout.
- SocketOutputStream - org.apache.hadoop.net中的类
-
This implements an output stream that can have a timeout while writing.
- SocketOutputStream(WritableByteChannel, long) - 类 的构造器org.apache.hadoop.net.SocketOutputStream
-
Create a new ouput stream with the given timeout.
- SocketOutputStream(Socket, long) - 类 的构造器org.apache.hadoop.net.SocketOutputStream
-
Same as SocketOutputStream(socket.getChannel(), timeout):
Create a new ouput stream with the given timeout.
- SocksSocketFactory - org.apache.hadoop.net中的类
-
Specialized SocketFactory to create sockets with a SOCKS proxy
- SocksSocketFactory() - 类 的构造器org.apache.hadoop.net.SocksSocketFactory
-
Default empty constructor (for use with the reflection API).
- SocksSocketFactory(Proxy) - 类 的构造器org.apache.hadoop.net.SocksSocketFactory
-
Constructor with a supplied Proxy
- solution(List<List<ColumnName>>) - 接口 中的方法org.apache.hadoop.examples.dancing.DancingLinks.SolutionAcceptor
-
A callback to return a solution to the application.
- solve(int[], DancingLinks.SolutionAcceptor<ColumnName>) - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
-
Given a prefix, find solutions under it.
- solve(DancingLinks.SolutionAcceptor<ColumnName>) - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
-
Solve a complete problem
- solve(int[]) - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino
-
Find all of the solutions that start with the given prefix.
- solve() - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino
-
Find all of the solutions to the puzzle.
- solve() - 类 中的方法org.apache.hadoop.examples.dancing.Sudoku
-
- Sort<K,V> - org.apache.hadoop.examples中的类
-
This is the trivial map/reduce program that does absolutely nothing
other than use the framework to fragment and sort the input values.
- Sort() - 类 的构造器org.apache.hadoop.examples.Sort
-
- sort(Path[], Path, boolean) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Perform a file sort from a set of input files into an output file.
- sort(Path, Path) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
The backwards compatible interface to sort.
- sort(IndexedSortable, int, int) - 类 中的方法org.apache.hadoop.util.HeapSort
-
Sort the given range of items using heap sort.
- sort(IndexedSortable, int, int, Progressable) - 类 中的方法org.apache.hadoop.util.HeapSort
-
Same as
IndexedSorter.sort(IndexedSortable,int,int)
, but indicate progress
periodically.
- sort(IndexedSortable, int, int) - 接口 中的方法org.apache.hadoop.util.IndexedSorter
-
Sort the items accessed through the given IndexedSortable over the given
range of logical indices.
- sort(IndexedSortable, int, int, Progressable) - 接口 中的方法org.apache.hadoop.util.IndexedSorter
-
Same as
IndexedSorter.sort(IndexedSortable,int,int)
, but indicate progress
periodically.
- sort(IndexedSortable, int, int) - 类 中的方法org.apache.hadoop.util.QuickSort
-
Sort the given range of items using quick sort.
- sort(IndexedSortable, int, int, Progressable) - 类 中的方法org.apache.hadoop.util.QuickSort
-
Same as
IndexedSorter.sort(IndexedSortable,int,int)
, but indicate progress
periodically.
- sortAndIterate(Path[], Path, boolean) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Perform a file sort from a set of input files and return an iterator.
- SortedMapWritable - org.apache.hadoop.io中的类
-
A Writable SortedMap.
- SortedMapWritable() - 类 的构造器org.apache.hadoop.io.SortedMapWritable
-
default constructor.
- SortedMapWritable(SortedMapWritable) - 类 的构造器org.apache.hadoop.io.SortedMapWritable
-
Copy constructor.
- sortListing(FileSystem, Configuration, Path) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
Sort sequence file containing FileStatus and Text as key and value respecitvely
- sortNodeList(ArrayList<DatanodeDescriptor>, String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- SOURCE_TAGS_FIELD - 类 中的静态变量org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
-
- specialConstructor - 异常错误 中的变量org.apache.hadoop.record.compiler.generated.ParseException
-
This variable determines which constructor was used to create
this object and thereby affects the semantics of the
"getMessage" method (see below).
- specialToken - 类 中的变量org.apache.hadoop.record.compiler.generated.Token
-
This field is used to access special tokens that occur prior to this
token, but after the immediately preceding regular (non-special) token.
- specToString(String, String, int, List<Integer>, List<Integer>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
-
- spilledRecordsCounter - 类 中的变量org.apache.hadoop.mapred.Task
-
- split(int) - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
-
Generate a list of row choices to cover the first moves.
- split - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
- split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.BigDecimalSplitter
-
- split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.BooleanSplitter
-
- split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DateSplitter
-
- split(Configuration, ResultSet, String) - 接口 中的方法org.apache.hadoop.mapreduce.lib.db.DBSplitter
-
Given a ResultSet containing one record (and already advanced to that record)
with two columns (a low value, and a high value, both of the same type), determine
a set of splits that span the given values.
- split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.FloatSplitter
-
- split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.IntegerSplitter
-
- split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.TextSplitter
-
This method needs to determine the splits between two user-provided strings.
- split - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
- split(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Split a string using the default separator
- split(String, char, char) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Split a string using the given separator
- SPLIT_MINSIZE_PERNODE - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
- SPLIT_MINSIZE_PERRACK - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
- SplitCompressionInputStream - org.apache.hadoop.io.compress中的类
-
An InputStream covering a range of compressed data.
- SplitCompressionInputStream(InputStream, long, long) - 类 的构造器org.apache.hadoop.io.compress.SplitCompressionInputStream
-
- splitKerberosName(String) - 类 中的静态方法org.apache.hadoop.security.SaslRpcServer
-
Splitting fully qualified Kerberos name into parts
- splitKeyVal(byte[], int, int, Text, Text, int, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamKeyValUtil
-
split a UTF-8 byte array into key and value
assuming that the delimilator is at splitpos.
- splitKeyVal(byte[], int, int, Text, Text, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamKeyValUtil
-
split a UTF-8 byte array into key and value
assuming that the delimilator is at splitpos.
- splitKeyVal(byte[], Text, Text, int, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamKeyValUtil
-
split a UTF-8 byte array into key and value
assuming that the delimilator is at splitpos.
- splitKeyVal(byte[], Text, Text, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamKeyValUtil
-
split a UTF-8 byte array into key and value
assuming that the delimilator is at splitpos.
- splitKeyVal(byte[], int, int, Text, Text, int, int) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
-
- splitKeyVal(byte[], int, int, Text, Text, int) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
-
- splitKeyVal(byte[], Text, Text, int, int) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
-
- splitKeyVal(byte[], Text, Text, int) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
-
- SplitMetaInfoReader - org.apache.hadoop.mapreduce.split中的类
-
A (internal) utility that reads the split meta info and creates
split meta info objects
- SplitMetaInfoReader() - 类 的构造器org.apache.hadoop.mapreduce.split.SplitMetaInfoReader
-
- splitNodesWithRack(Collection<DatanodeDescriptor>, Map<String, List<DatanodeDescriptor>>, List<DatanodeDescriptor>, List<DatanodeDescriptor>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
-
Split data nodes into two sets, one set includes nodes on rack with
more than one replica, the other set contains the remaining nodes.
- SplittableCompressionCodec - org.apache.hadoop.io.compress中的接口
-
This interface is meant to be implemented by those compression codecs
which are capable to compress / decompress a stream starting at any
arbitrary position.
- SplittableCompressionCodec.READ_MODE - org.apache.hadoop.io.compress中的枚举
-
During decompression, data can be read off from the decompressor in two
modes, namely continuous and blocked.
- SPNEGO_FILTER - 类 中的静态变量org.apache.hadoop.http.HttpServer
-
- stallReplicationWork() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- StandardSocketFactory - org.apache.hadoop.net中的类
-
Specialized SocketFactory to create sockets with a SOCKS proxy
- StandardSocketFactory() - 类 的构造器org.apache.hadoop.net.StandardSocketFactory
-
Default empty constructor (for use with the reflection API).
- start() - 类 中的方法org.apache.hadoop.fs.DU
-
Start the disk usage checking thread.
- start() - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenRenewer
-
- start() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter
-
- start() - 类 中的方法org.apache.hadoop.http.HttpServer
-
Start the server.
- start() - 类 中的方法org.apache.hadoop.ipc.Server
-
Starts the service.
- start() - 类 中的方法org.apache.hadoop.mapred.JobHistoryServer
-
- start() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
-
Starts managing the logs
- start() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
- start() - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
- start() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystemMXBean
-
Start the metrics system
- start(Object) - 接口 中的方法org.apache.hadoop.util.ServicePlugin
-
This method is invoked when the service instance has been started.
- startBlockRecovery(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- startBlockRecovery(long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- startBlockRecovery(long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
- startBlockRecovery(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.InterDatanodeProtocol
-
Begin recovery on a block - this interrupts writers and returns the
necessary metadata for recovery to begin.
- startCleanupThread() - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
Start the background thread
- startCommunicationThread() - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- startCycle(int) - 类 中的方法org.apache.hadoop.util.QueueProcessingStatistics
-
- startDecommission() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Start decommissioning a node.
- startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
- startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Returns a local File that the user can write output to.
- startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Returns a local File that the user can write output to.
- startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
not implemented.
- startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- startMap(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- startMap(TreeMap, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
-
- startMap(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- startMap(TreeMap, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
-
- startMap(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Check the mark for start of the serialized map.
- startMap(TreeMap, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
-
Mark the start of a map to be serialized.
- startMap(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- startMap(TreeMap, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
-
- startMap(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- startMap(TreeMap, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
- startMonitoring() - 类 中的方法org.apache.hadoop.metrics.file.FileContext
-
已过时。
Starts or restarts monitoring, by opening in append-mode, the
file specified by the
fileName
attribute,
if specified.
- startMonitoring() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
-
已过时。
Starts or restarts monitoring, the emitting of metrics records as they are
updated.
- startMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Starts or restarts monitoring, the emitting of metrics records.
- startMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
-
已过时。
- startMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.NullContext
-
已过时。
Do-nothing version of startMonitoring
- startNextPhase() - 类 中的方法org.apache.hadoop.util.Progress
-
Called during execution to move to the next phase at this level in the
tree.
- startNotifier() - 类 中的静态方法org.apache.hadoop.mapred.JobEndNotifier
-
- startPos - 类 中的变量org.apache.hadoop.hdfs.ByteRangeInputStream
-
- startRecord(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- startRecord(Record, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
-
- startRecord(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- startRecord(Record, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
-
- startRecord(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Check the mark for start of the serialized record.
- startRecord(Record, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
-
Mark the start of a record to be serialized.
- startRecord(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- startRecord(Record, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
-
- startRecord(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- startRecord(Record, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
- startThreads() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
should be called before this object is used
- startTracker(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
-
Start the JobTracker with given configuration.
- startTracker(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
-
- startTracker(JobConf, String, boolean) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
-
- startUpgrade() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
-
Prepare for the upgrade.
- startUpgrade() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- startUpgrade() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.UpgradeObjectNamenode
-
- startupShutdownMessage(Class<?>, String[], Log) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Print a log message for starting up and shutting down
- startVector(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- startVector(ArrayList, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
-
- startVector(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- startVector(ArrayList, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
-
- startVector(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Check the mark for start of the serialized vector.
- startVector(ArrayList, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
-
Mark the start of a vector to be serialized.
- startVector(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- startVector(ArrayList, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
-
- startVector(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- startVector(ArrayList, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
- stat2Paths(FileStatus[]) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
convert an array of FileStatus to an array of Path
- stat2Paths(FileStatus[], Path) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
convert an array of FileStatus to an array of Path.
- state - 枚举 中的变量org.apache.hadoop.security.SaslRpcServer.SaslStatus
-
- state - 类 中的变量org.apache.hadoop.tools.rumen.TaskAttemptInfo
-
- stateChangeLog - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.NameNode
-
- statement - 类 中的变量org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- staticFlag - 类 中的静态变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- StaticUserWebFilter - org.apache.hadoop.http.lib中的类
-
Provides a servlet filter that pretends to authenticate a fake user (Dr.Who)
so that the web UI is usable for a secure cluster without authentication.
- StaticUserWebFilter() - 类 的构造器org.apache.hadoop.http.lib.StaticUserWebFilter
-
- StaticUserWebFilter.StaticUserFilter - org.apache.hadoop.http.lib中的类
-
- StaticUserWebFilter.StaticUserFilter() - 类 的构造器org.apache.hadoop.http.lib.StaticUserWebFilter.StaticUserFilter
-
- statistics - 类 中的变量org.apache.hadoop.fs.FileSystem
-
The statistics for this file system.
- status - 类 中的变量org.apache.hadoop.hdfs.server.common.UpgradeObject
-
- StatusReporter - org.apache.hadoop.mapreduce中的类
-
- StatusReporter() - 类 的构造器org.apache.hadoop.mapreduce.StatusReporter
-
- statusUpdate(TaskUmbilicalProtocol) - 类 中的方法org.apache.hadoop.mapred.Task
-
- statusUpdate(TaskAttemptID, TaskStatus, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
Called periodically to report Task progress, from 0.0 to 1.0.
- statusUpdate(TaskAttemptID, TaskStatus, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
-
Report child's progress to parent.
- stddev() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
-
- stop() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter
-
- stop() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Stop all NameNode threads and wait for all to finish.
- stop() - 类 中的方法org.apache.hadoop.http.HttpServer
-
stop the server
- stop() - 类 中的方法org.apache.hadoop.ipc.Client
-
Stop all threads related to this client.
- stop() - 类 中的方法org.apache.hadoop.ipc.Server
-
Stops the service.
- stop() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
set the thread state to STOPPING so that the
thread will stop when it wakes up.
- stop() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
set the thread state to STOPPING so that the
thread will stop when it wakes up.
- stop() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
- stop() - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
- stop() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystemMXBean
-
Stop the metrics system
- stop() - 接口 中的方法org.apache.hadoop.util.ServicePlugin
-
This method is invoked when the service instance is about to be shut down.
- stopCleanupThread() - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
Stop the background thread
- stopCommunicationThread() - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- stopDecommission() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Stop decommissioning a node.
- stopDecommission(DatanodeDescriptor) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Stop decommissioning the specified datanodes.
- stopMonitoring() - 类 中的方法org.apache.hadoop.metrics.file.FileContext
-
已过时。
Stops monitoring, closing the file.
- stopMonitoring() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
-
已过时。
Stops monitoring.
- stopMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Stops monitoring.
- stopMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
-
已过时。
- stopNotifier() - 类 中的静态方法org.apache.hadoop.mapred.JobEndNotifier
-
- stopProxy(VersionedProtocol) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Stop this proxy and release its invoker's resource
- stopRunning() - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager.CleanupThread
-
- stopThreads() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
- stopTracker() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- Storage - org.apache.hadoop.hdfs.server.common中的类
-
Storage information file.
- Storage(HdfsConstants.NodeType) - 类 的构造器org.apache.hadoop.hdfs.server.common.Storage
-
Create empty storage info of the specified type
- Storage(HdfsConstants.NodeType, int, long) - 类 的构造器org.apache.hadoop.hdfs.server.common.Storage
-
- Storage(HdfsConstants.NodeType, StorageInfo) - 类 的构造器org.apache.hadoop.hdfs.server.common.Storage
-
- Storage.StorageDirectory - org.apache.hadoop.hdfs.server.common中的类
-
One of the storage directories.
- Storage.StorageDirectory(File) - 类 的构造器org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
- Storage.StorageDirectory(File, Storage.StorageDirType) - 类 的构造器org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
- Storage.StorageDirType - org.apache.hadoop.hdfs.server.common中的接口
-
An interface to denote storage directory type
Implementations can define a type for storage directory by implementing
this interface.
- Storage.StorageState - org.apache.hadoop.hdfs.server.common中的枚举
-
- STORAGE_DIR_CURRENT - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
-
- STORAGE_FILE_VERSION - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
-
- storageDirs - 类 中的变量org.apache.hadoop.hdfs.server.common.Storage
-
- storageID - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeID
-
- StorageInfo - org.apache.hadoop.hdfs.server.common中的类
-
Common class for storage information.
- StorageInfo() - 类 的构造器org.apache.hadoop.hdfs.server.common.StorageInfo
-
- StorageInfo(int, int, long) - 类 的构造器org.apache.hadoop.hdfs.server.common.StorageInfo
-
- StorageInfo(StorageInfo) - 类 的构造器org.apache.hadoop.hdfs.server.common.StorageInfo
-
- storageInfo - 类 中的变量org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
- store(Configuration, K, String) - 类 中的静态方法org.apache.hadoop.io.DefaultStringifier
-
Stores the item in the configuration with the given keyName.
- storeArray(Configuration, K[], String) - 类 中的静态方法org.apache.hadoop.io.DefaultStringifier
-
Stores the array of items in the configuration with the given keyName.
- storeBlock(Block, File) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
-
- storeINode(Path, INode) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
-
- StreamBackedIterator<X extends Writable> - org.apache.hadoop.mapred.join中的类
-
This class provides an implementation of ResetableIterator.
- StreamBackedIterator() - 类 的构造器org.apache.hadoop.mapred.join.StreamBackedIterator
-
- StreamBaseRecordReader - org.apache.hadoop.streaming中的类
-
Shared functionality for hadoopStreaming formats.
- StreamBaseRecordReader(FSDataInputStream, FileSplit, Reporter, JobConf, FileSystem) - 类 的构造器org.apache.hadoop.streaming.StreamBaseRecordReader
-
- streamBlockInAscii(InetSocketAddress, long, Token<BlockTokenIdentifier>, long, long, long, long, JspWriter, Configuration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- StreamFile - org.apache.hadoop.hdfs.server.namenode中的类
-
- StreamFile() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.StreamFile
-
- StreamInputFormat - org.apache.hadoop.streaming中的类
-
An input format that selects a RecordReader based on a JobConf property.
- StreamInputFormat() - 类 的构造器org.apache.hadoop.streaming.StreamInputFormat
-
- StreamJob - org.apache.hadoop.streaming中的类
-
All the client-side work happens here.
- StreamJob(String[], boolean) - 类 的构造器org.apache.hadoop.streaming.StreamJob
-
已过时。
use StreamJob() with ToolRunner or set the
Configuration using
StreamJob.setConf(Configuration)
and
run with StreamJob.run(String[])
.
- StreamJob() - 类 的构造器org.apache.hadoop.streaming.StreamJob
-
- StreamKeyValUtil - org.apache.hadoop.streaming中的类
-
- StreamKeyValUtil() - 类 的构造器org.apache.hadoop.streaming.StreamKeyValUtil
-
- StreamUtil - org.apache.hadoop.streaming中的类
-
Utilities not available elsewhere in Hadoop.
- StreamUtil() - 类 的构造器org.apache.hadoop.streaming.StreamUtil
-
- StreamXmlRecordReader - org.apache.hadoop.streaming中的类
-
A way to interpret XML fragments as Mapper input records.
- StreamXmlRecordReader(FSDataInputStream, FileSplit, Reporter, JobConf, FileSystem) - 类 的构造器org.apache.hadoop.streaming.StreamXmlRecordReader
-
- STRING - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
-
- string2Bytes(String) - 类 中的静态方法org.apache.hadoop.hdfs.DFSUtil
-
Converts a string to a byte array using UTF8 encoding.
- string2ChunkSizeToView(String, int) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
Convert a String to chunk-size-to-view.
- string2long(String) - 枚举 中的静态方法org.apache.hadoop.util.StringUtils.TraditionalBinaryPrefix
-
Convert a string to long.
- STRING_VALUE_MAX - 类 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
-
- STRING_VALUE_MIN - 类 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
-
- Stringifier<T> - org.apache.hadoop.io中的接口
-
Stringifier interface offers two methods to convert an object
to a string representation and restore the object given its
string representation.
- stringifyException(Throwable) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Make a string representation of the exception.
- stringifySolution(int, int, List<List<Pentomino.ColumnName>>) - 类 中的静态方法org.apache.hadoop.examples.dancing.Pentomino
-
Convert a solution to the puzzle returned by the model into a string
that represents the placement of the pieces onto the board.
- stringifyToken(Token<DelegationTokenIdentifier>) - 类 中的静态方法org.apache.hadoop.hdfs.DFSClient
-
A test method for printing out tokens
- stringToPath(String[]) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
- stringToURI(String[]) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
- StringTypeID - 类 中的静态变量org.apache.hadoop.record.meta.TypeID
-
- StringUtils - org.apache.hadoop.util中的类
-
General string utils
- StringUtils() - 类 的构造器org.apache.hadoop.util.StringUtils
-
- StringUtils.TraditionalBinaryPrefix - org.apache.hadoop.util中的枚举
-
The traditional binary prefixes, kilo, mega, ..., exa,
which can be represented by a 64-bit integer.
- StringValueMax - org.apache.hadoop.mapred.lib.aggregate中的类
-
This class implements a value aggregator that maintain the biggest of
a sequence of strings.
- StringValueMax() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.StringValueMax
-
the default constructor
- StringValueMin - org.apache.hadoop.mapred.lib.aggregate中的类
-
This class implements a value aggregator that maintain the smallest of
a sequence of strings.
- StringValueMin() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.StringValueMin
-
the default constructor
- STRUCT - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
-
- StructTypeID - org.apache.hadoop.record.meta中的类
-
Represents typeID for a struct
- StructTypeID(RecordTypeInfo) - 类 的构造器org.apache.hadoop.record.meta.StructTypeID
-
Create a StructTypeID based on the RecordTypeInfo of some record
- SUBDIR - 类 中的静态变量org.apache.hadoop.mapred.TaskTracker
-
- subMap(WritableComparable, WritableComparable) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- submit() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
Submit this job to mapred.
- submit() - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Submit the job to the cluster and return immediately.
- submit() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
Submit this job to mapred.
- submitAndMonitorJob() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- submitJob(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Submit a job to the MR system.
- submitJob(JobConf) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Submit a job to the MR system.
- submitJob(JobID, String, Credentials) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
JobTracker.submitJob() kicks off a new job.
- submitJob(JobID, String, Credentials) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- submitJob(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
已过时。
- submitJobInternal(JobConf) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Internal method for submitting jobs to the system.
- submitReadahead(String, FileDescriptor, long, long) - 类 中的方法org.apache.hadoop.io.ReadaheadPool
-
Submit a request to readahead on the given file descriptor.
- Submitter - org.apache.hadoop.mapred.pipes中的类
-
The main entry point and job submitter.
- Submitter() - 类 的构造器org.apache.hadoop.mapred.pipes.Submitter
-
- Submitter(Configuration) - 类 的构造器org.apache.hadoop.mapred.pipes.Submitter
-
- SUBSTITUTE_TOKEN - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
-
If users are providing their own query, the following string is expected to
appear in the WHERE clause, which will be substituted with a pair of conditions
on the input to allow input splits to parallelise the import.
- SUCCEEDED - 类 中的静态变量org.apache.hadoop.mapred.JobStatus
-
- SUCCEEDED_FILE_NAME - 类 中的静态变量org.apache.hadoop.mapred.FileOutputCommitter
-
- SUCCEEDED_FILE_NAME - 类 中的静态变量org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
-
- SUCCESS - 类 中的静态变量org.apache.hadoop.hdfs.server.balancer.Balancer
-
- SUCCESS - 类 中的静态变量org.apache.hadoop.mapred.jobcontrol.Job
-
- success() - 类 中的方法org.apache.hadoop.mapred.ShuffleExceptionTracker
-
Mark the request as success.
- SUCCESS - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
Constants for DistCp return code to shell / consumer of ToolRunner's run
- Sudoku - org.apache.hadoop.examples.dancing中的类
-
This class uses the dancing links algorithm from Knuth to solve sudoku
puzzles.
- Sudoku(InputStream) - 类 的构造器org.apache.hadoop.examples.dancing.Sudoku
-
Set up a puzzle board to the given size.
- Sudoku.ColumnName - org.apache.hadoop.examples.dancing中的接口
-
This interface is a marker class for the columns created for the
Sudoku solver.
- suffix(String) - 类 中的方法org.apache.hadoop.fs.Path
-
Adds a suffix to the final name in the path.
- sum(Counters, Counters) - 类 中的静态方法org.apache.hadoop.mapred.Counters
-
Convenience method for computing the sum of two sets of counters.
- SUPPORT_SPARSE_METRICS_DEFAULT - 类 中的静态变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
-
- SUPPORT_SPARSE_METRICS_PROPERTY - 类 中的静态变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
-
- supportIsolationRunner(JobConf) - 类 中的方法org.apache.hadoop.mapred.Task
-
- supports(LayoutVersion.Feature, int) - 类 中的静态方法org.apache.hadoop.hdfs.protocol.LayoutVersion
-
Returns true if a given feature is supported in the given layout version
- suspend() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
suspend the running thread
- suspend() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
suspend the running thread
- swap(Node[], int, int) - 类 中的静态方法org.apache.hadoop.net.NetworkTopology
-
- swap(int, int) - 接口 中的方法org.apache.hadoop.util.IndexedSortable
-
Swap items at the given addresses.
- SWITCH_TO_SIMPLE_AUTH - 类 中的静态变量org.apache.hadoop.security.SaslRpcServer
-
- SwitchTo(int) - 类 中的方法org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- SYMBOL - 枚举 中的变量org.apache.hadoop.fs.permission.FsAction
-
Symbolic representation
- symbol - 枚举 中的变量org.apache.hadoop.util.StringUtils.TraditionalBinaryPrefix
-
- symLink(String, String) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Create a soft link between a src and destination
only on a local disk.
- sync() - 类 中的方法org.apache.hadoop.fs.FSDataOutputStream
-
Synchronize all buffer with the underlying devices.
- sync() - 接口 中的方法org.apache.hadoop.fs.Syncable
-
Synchronize all buffer with the underlying devices.
- sync(long) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Seek to the next sync mark past a given position.
- sync() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
-
create a sync point
- SYNC_FILE_RANGE_WAIT_AFTER - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- SYNC_FILE_RANGE_WAIT_BEFORE - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- SYNC_FILE_RANGE_WRITE - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- SYNC_INTERVAL - 类 中的静态变量org.apache.hadoop.io.SequenceFile
-
The number of bytes between sync points.
- Syncable - org.apache.hadoop.fs中的接口
-
This interface declare the sync() operation.
- syncFileRangeIfPossible(FileDescriptor, long, long, int) - 类 中的静态方法org.apache.hadoop.io.nativeio.NativeIO
-
Call sync_file_range on the given file descriptor.
- syncFs() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
-
flush all currently written data to the file system
- syncLogs(String, TaskAttemptID, boolean, boolean) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
- syncSeen() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Returns true iff the previous call to next passed a sync mark.
T
- tabSize - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- tag - 类 中的变量org.apache.hadoop.contrib.utils.join.TaggedMapOutput
-
- tag(String, String, String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Add a tag to the metrics
- tag(String, String, String, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Add a tag to the metrics
- tag(String, String, String) - 类 中的方法org.apache.hadoop.metrics2.MetricsRecordBuilder
-
Add a metrics tag
- TAG - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
-
- TaggedMapOutput - org.apache.hadoop.contrib.utils.join中的类
-
This abstract class serves as the base class for the values that
flow from the mappers to the reducers in a data join job.
- TaggedMapOutput() - 类 的构造器org.apache.hadoop.contrib.utils.join.TaggedMapOutput
-
- tags() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsRecordImpl
-
- tags() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Get the tags
- tags() - 接口 中的方法org.apache.hadoop.metrics2.MetricsRecord
-
Get the tags of the record
- tailMap(WritableComparable) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- targets - 类 中的变量org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor.BlockTargetPair
-
- Task - org.apache.hadoop.mapred中的类
-
Base class for tasks.
- Task() - 类 的构造器org.apache.hadoop.mapred.Task
-
- Task(String, TaskAttemptID, int, int) - 类 的构造器org.apache.hadoop.mapred.Task
-
- TASK - 类 中的静态变量org.apache.hadoop.mapreduce.TaskID
-
- Task.CombineOutputCollector<K,V> - org.apache.hadoop.mapred中的类
-
OutputCollector for the combiner.
- Task.CombineOutputCollector(Counters.Counter, Progressable, Configuration) - 类 的构造器org.apache.hadoop.mapred.Task.CombineOutputCollector
-
- Task.CombinerRunner<K,V> - org.apache.hadoop.mapred中的类
-
- Task.CombineValuesIterator<KEY,VALUE> - org.apache.hadoop.mapred中的类
-
- Task.CombineValuesIterator(RawKeyValueIterator, RawComparator<KEY>, Class<KEY>, Class<VALUE>, Configuration, Reporter, Counters.Counter) - 类 的构造器org.apache.hadoop.mapred.Task.CombineValuesIterator
-
- Task.Counter - org.apache.hadoop.mapred中的枚举
-
- Task.NewCombinerRunner<K,V> - org.apache.hadoop.mapred中的类
-
- Task.OldCombinerRunner<K,V> - org.apache.hadoop.mapred中的类
-
- Task.OldCombinerRunner(Class<? extends Reducer<K, V, K, V>>, JobConf, Counters.Counter, Task.TaskReporter) - 类 的构造器org.apache.hadoop.mapred.Task.OldCombinerRunner
-
- Task.TaskReporter - org.apache.hadoop.mapred中的类
-
- Task20LineHistoryEventEmitter - org.apache.hadoop.tools.rumen中的类
-
- Task20LineHistoryEventEmitter() - 类 的构造器org.apache.hadoop.tools.rumen.Task20LineHistoryEventEmitter
-
- TASK_LAUNCH_SCRIPT_PERMISSION - 类 中的静态变量org.apache.hadoop.mapred.TaskController
-
- TaskAttempt20LineEventEmitter - org.apache.hadoop.tools.rumen中的类
-
- TaskAttempt20LineEventEmitter() - 类 的构造器org.apache.hadoop.tools.rumen.TaskAttempt20LineEventEmitter
-
- TaskAttemptContext - org.apache.hadoop.mapred中的类
-
- TaskAttemptContext - org.apache.hadoop.mapreduce中的类
-
The context for task attempts.
- TaskAttemptContext(Configuration, TaskAttemptID) - 类 的构造器org.apache.hadoop.mapreduce.TaskAttemptContext
-
- TaskAttemptFinishedEvent - org.apache.hadoop.tools.rumen中的类
-
Event to record successful task completion
- TaskAttemptFinishedEvent(TaskAttemptID, TaskType, String, long, String, String, Counters) - 类 的构造器org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Create an event to record successful finishes for setup and cleanup
attempts
- TaskAttemptID - org.apache.hadoop.mapred中的类
-
TaskAttemptID represents the immutable and unique identifier for
a task attempt.
- TaskAttemptID(TaskID, int) - 类 的构造器org.apache.hadoop.mapred.TaskAttemptID
-
Constructs a TaskAttemptID object from given
TaskID
.
- TaskAttemptID(String, int, boolean, int, int) - 类 的构造器org.apache.hadoop.mapred.TaskAttemptID
-
Constructs a TaskId object from given parts.
- TaskAttemptID() - 类 的构造器org.apache.hadoop.mapred.TaskAttemptID
-
- TaskAttemptID - org.apache.hadoop.mapreduce中的类
-
TaskAttemptID represents the immutable and unique identifier for
a task attempt.
- TaskAttemptID(TaskID, int) - 类 的构造器org.apache.hadoop.mapreduce.TaskAttemptID
-
Constructs a TaskAttemptID object from given
TaskID
.
- TaskAttemptID(String, int, boolean, int, int) - 类 的构造器org.apache.hadoop.mapreduce.TaskAttemptID
-
Constructs a TaskId object from given parts.
- TaskAttemptID() - 类 的构造器org.apache.hadoop.mapreduce.TaskAttemptID
-
- TaskAttemptInfo - org.apache.hadoop.tools.rumen中的类
-
TaskAttemptInfo
is a collection of statistics about a particular
task-attempt gleaned from job-history of the job.
- TaskAttemptInfo(TaskStatus.State, TaskInfo) - 类 的构造器org.apache.hadoop.tools.rumen.TaskAttemptInfo
-
- TaskAttemptStartedEvent - org.apache.hadoop.tools.rumen中的类
-
Event to record start of a task attempt
- TaskAttemptStartedEvent(TaskAttemptID, TaskType, long, String, int, String, String) - 类 的构造器org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Create an event to record the start of an attempt
- TaskAttemptUnsuccessfulCompletionEvent - org.apache.hadoop.tools.rumen中的类
-
Event to record unsuccessful (Killed/Failed) completion of task attempts
- TaskAttemptUnsuccessfulCompletionEvent(TaskAttemptID, TaskType, String, long, String, String) - 类 的构造器org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
-
Create an event to record the unsuccessful completion of attempts
- taskCleanup - 类 中的变量org.apache.hadoop.mapred.Task
-
- TaskCompletionEvent - org.apache.hadoop.mapred中的类
-
This is used to track task completion events on
job tracker.
- TaskCompletionEvent() - 类 的构造器org.apache.hadoop.mapred.TaskCompletionEvent
-
Default constructor for Writable.
- TaskCompletionEvent(int, TaskAttemptID, int, boolean, TaskCompletionEvent.Status, String) - 类 的构造器org.apache.hadoop.mapred.TaskCompletionEvent
-
Constructor. eventId should be created externally and incremented
per event for each job.
- TaskCompletionEvent.Status - org.apache.hadoop.mapred中的枚举
-
- taskContext - 类 中的变量org.apache.hadoop.mapred.Task
-
- TaskController - org.apache.hadoop.mapred中的类
-
Controls initialization, finalization and clean up of tasks, and
also the launching and killing of task JVMs.
- TaskController() - 类 的构造器org.apache.hadoop.mapred.TaskController
-
- TaskDistributedCacheManager - org.apache.hadoop.filecache中的类
-
Helper class of
TrackerDistributedCacheManager
that represents
the cached files of a single job.
- TaskFailedEvent - org.apache.hadoop.tools.rumen中的类
-
Event to record the failure of a task
- TaskFailedEvent(TaskID, long, TaskType, String, String, TaskAttemptID) - 类 的构造器org.apache.hadoop.tools.rumen.TaskFailedEvent
-
Create an event to record task failure
- taskFailedPing(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.TaskTrackerMetricsSource
-
- TaskFinishedEvent - org.apache.hadoop.tools.rumen中的类
-
Event to record the successful completion of a task
- TaskFinishedEvent(TaskID, long, TaskType, String, Counters) - 类 的构造器org.apache.hadoop.tools.rumen.TaskFinishedEvent
-
Create an event to record the successful completion of a task
- TaskGraphServlet - org.apache.hadoop.mapred中的类
-
The servlet that outputs svg graphics for map / reduce task
statuses
- TaskGraphServlet() - 类 的构造器org.apache.hadoop.mapred.TaskGraphServlet
-
- TaskID - org.apache.hadoop.mapred中的类
-
TaskID represents the immutable and unique identifier for
a Map or Reduce Task.
- TaskID(JobID, boolean, int) - 类 的构造器org.apache.hadoop.mapred.TaskID
-
Constructs a TaskID object from given
JobID
.
- TaskID(String, int, boolean, int) - 类 的构造器org.apache.hadoop.mapred.TaskID
-
Constructs a TaskInProgressId object from given parts.
- TaskID() - 类 的构造器org.apache.hadoop.mapred.TaskID
-
- TaskID - org.apache.hadoop.mapreduce中的类
-
TaskID represents the immutable and unique identifier for
a Map or Reduce Task.
- TaskID(JobID, boolean, int) - 类 的构造器org.apache.hadoop.mapreduce.TaskID
-
Constructs a TaskID object from given
JobID
.
- TaskID(String, int, boolean, int) - 类 的构造器org.apache.hadoop.mapreduce.TaskID
-
Constructs a TaskInProgressId object from given parts.
- TaskID() - 类 的构造器org.apache.hadoop.mapreduce.TaskID
-
- taskInfo - 类 中的变量org.apache.hadoop.tools.rumen.TaskAttemptInfo
-
- TaskInfo - org.apache.hadoop.tools.rumen中的类
-
- TaskInfo(long, int, long, int, long) - 类 的构造器org.apache.hadoop.tools.rumen.TaskInfo
-
- TaskInfo(long, int, long, int, long, ResourceUsageMetrics) - 类 的构造器org.apache.hadoop.tools.rumen.TaskInfo
-
- TaskInputOutputContext<KEYIN,VALUEIN,KEYOUT,VALUEOUT> - org.apache.hadoop.mapreduce中的类
-
A context object that allows input and output from the task.
- TaskInputOutputContext(Configuration, TaskAttemptID, RecordWriter<KEYOUT, VALUEOUT>, OutputCommitter, StatusReporter) - 类 的构造器org.apache.hadoop.mapreduce.TaskInputOutputContext
-
- TaskLog - org.apache.hadoop.mapred中的类
-
A simple logger to handle the task-specific user logs.
- TaskLog() - 类 的构造器org.apache.hadoop.mapred.TaskLog
-
- TaskLog.LogName - org.apache.hadoop.mapred中的枚举
-
The filter for userlogs.
- TaskLogAppender - org.apache.hadoop.mapred中的类
-
A simple log4j-appender for the task child's
map-reduce system logs.
- TaskLogAppender() - 类 的构造器org.apache.hadoop.mapred.TaskLogAppender
-
- TaskLogServlet - org.apache.hadoop.mapred中的类
-
A servlet that is run by the TaskTrackers to provide the task logs via http.
- TaskLogServlet() - 类 的构造器org.apache.hadoop.mapred.TaskLogServlet
-
- TaskLogsTruncater - org.apache.hadoop.mapred中的类
-
The class for truncating the user logs.
- TaskLogsTruncater(Configuration) - 类 的构造器org.apache.hadoop.mapred.TaskLogsTruncater
-
- TaskReport - org.apache.hadoop.mapred中的类
-
A report on the state of a task.
- TaskReport() - 类 的构造器org.apache.hadoop.mapred.TaskReport
-
- TaskStartedEvent - org.apache.hadoop.tools.rumen中的类
-
Event to record the start of a task
- TaskStartedEvent(TaskID, long, TaskType, String) - 类 的构造器org.apache.hadoop.tools.rumen.TaskStartedEvent
-
Create an event to record start of a task
- TaskStatus - org.apache.hadoop.mapred中的类
-
Describes the current status of a task.
- TaskStatus() - 类 的构造器org.apache.hadoop.mapred.TaskStatus
-
- TaskStatus(TaskAttemptID, float, int, TaskStatus.State, String, String, String, TaskStatus.Phase, Counters) - 类 的构造器org.apache.hadoop.mapred.TaskStatus
-
- TaskStatus.Phase - org.apache.hadoop.mapred中的枚举
-
- TaskStatus.State - org.apache.hadoop.mapred中的枚举
-
- TaskTracker - org.apache.hadoop.mapred中的类
-
TaskTracker is a process that starts and tracks MR Tasks
in a networked environment.
- TaskTracker(JobConf) - 类 的构造器org.apache.hadoop.mapred.TaskTracker
-
Start with the local machine name, and the default JobTracker
- TaskTracker - org.apache.hadoop.mapreduce.server.jobtracker中的类
-
The representation of a single
TaskTracker
as seen by
the JobTracker
.
- TaskTracker(String) - 类 的构造器org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
-
Create a new
TaskTracker
.
- TaskTracker.MapOutputServlet - org.apache.hadoop.mapred中的类
-
This class is used in TaskTracker's Jetty to serve the map outputs
to other nodes.
- TaskTracker.MapOutputServlet() - 类 的构造器org.apache.hadoop.mapred.TaskTracker.MapOutputServlet
-
- TaskTrackerMetricsSource - org.apache.hadoop.mapred中的类
-
Instrumentation for metrics v2
- TaskTrackerMetricsSource(TaskTracker) - 类 的构造器org.apache.hadoop.mapred.TaskTrackerMetricsSource
-
- TaskTrackerMXBean - org.apache.hadoop.mapred中的接口
-
MXBean interface for TaskTracker
- taskTrackerNames() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Get the active, blacklisted, and graylisted task tracker names in the
cluster.
- taskTrackers() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Get all the task trackers in the cluster
- TaskTrackerStatus - org.apache.hadoop.mapred中的类
-
A TaskTrackerStatus is a MapReduce primitive.
- TaskTrackerStatus() - 类 的构造器org.apache.hadoop.mapred.TaskTrackerStatus
-
- TaskTrackerStatus(String, String, int, List<TaskStatus>, int, int, int, int) - 类 的构造器org.apache.hadoop.mapred.TaskTrackerStatus
-
- TaskType - org.apache.hadoop.mapreduce中的枚举
-
Enum for map, reduce, job-setup, job-cleanup, task-cleanup task types.
- TaskUmbilicalProtocol - org.apache.hadoop.mapred中的接口
-
Protocol that task child process uses to contact its parent process.
- TaskUpdatedEvent - org.apache.hadoop.tools.rumen中的类
-
Event to record updates to a task
- TaskUpdatedEvent(TaskID, long) - 类 的构造器org.apache.hadoop.tools.rumen.TaskUpdatedEvent
-
Create an event to record task updates
- TEMP_DIR_NAME - 类 中的静态变量org.apache.hadoop.mapred.FileOutputCommitter
-
Temporary directory name
- TEMP_DIR_NAME - 类 中的静态变量org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
-
Temporary directory name
- TeraGen - org.apache.hadoop.examples.terasort中的类
-
Generate the official terasort input data set.
- TeraGen() - 类 的构造器org.apache.hadoop.examples.terasort.TeraGen
-
- TeraGen.SortGenMapper - org.apache.hadoop.examples.terasort中的类
-
The Mapper class that given a row number, will generate the appropriate
output line.
- TeraGen.SortGenMapper() - 类 的构造器org.apache.hadoop.examples.terasort.TeraGen.SortGenMapper
-
- TeraInputFormat - org.apache.hadoop.examples.terasort中的类
-
An input format that reads the first 10 characters of each line as the key
and the rest of the line as the value.
- TeraInputFormat() - 类 的构造器org.apache.hadoop.examples.terasort.TeraInputFormat
-
- TeraOutputFormat - org.apache.hadoop.examples.terasort中的类
-
A streamlined text output format that writes key, value, and "\r\n".
- TeraOutputFormat() - 类 的构造器org.apache.hadoop.examples.terasort.TeraOutputFormat
-
- TeraSort - org.apache.hadoop.examples.terasort中的类
-
Generates the sampled split points, launches the job, and waits for it to
finish.
- TeraSort() - 类 的构造器org.apache.hadoop.examples.terasort.TeraSort
-
- TeraValidate - org.apache.hadoop.examples.terasort中的类
-
Generate 1 mapper per a file that checks to make sure the keys
are sorted within each file.
- TeraValidate() - 类 的构造器org.apache.hadoop.examples.terasort.TeraValidate
-
- Text - org.apache.hadoop.io中的类
-
This class stores text using standard UTF8 encoding.
- Text() - 类 的构造器org.apache.hadoop.io.Text
-
- Text(String) - 类 的构造器org.apache.hadoop.io.Text
-
Construct from a string.
- Text(Text) - 类 的构造器org.apache.hadoop.io.Text
-
Construct from another text.
- Text(byte[]) - 类 的构造器org.apache.hadoop.io.Text
-
Construct from a byte array.
- Text.Comparator - org.apache.hadoop.io中的类
-
A WritableComparator optimized for Text keys.
- Text.Comparator() - 类 的构造器org.apache.hadoop.io.Text.Comparator
-
- TEXT_ID - 类 中的静态变量org.apache.hadoop.streaming.io.IdentifierResolver
-
- TextInputFormat - org.apache.hadoop.mapred中的类
-
An
InputFormat
for plain text files.
- TextInputFormat() - 类 的构造器org.apache.hadoop.mapred.TextInputFormat
-
- TextInputFormat - org.apache.hadoop.mapreduce.lib.input中的类
-
An
InputFormat
for plain text files.
- TextInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.TextInputFormat
-
- TextInputWriter - org.apache.hadoop.streaming.io中的类
-
InputWriter that writes the client's input as text.
- TextInputWriter() - 类 的构造器org.apache.hadoop.streaming.io.TextInputWriter
-
- TextOutputFormat<K,V> - org.apache.hadoop.mapred中的类
-
An
OutputFormat
that writes plain text files.
- TextOutputFormat() - 类 的构造器org.apache.hadoop.mapred.TextOutputFormat
-
- TextOutputFormat<K,V> - org.apache.hadoop.mapreduce.lib.output中的类
-
An
OutputFormat
that writes plain text files.
- TextOutputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.TextOutputFormat
-
- TextOutputFormat.LineRecordWriter<K,V> - org.apache.hadoop.mapred中的类
-
- TextOutputFormat.LineRecordWriter(DataOutputStream, String) - 类 的构造器org.apache.hadoop.mapred.TextOutputFormat.LineRecordWriter
-
- TextOutputFormat.LineRecordWriter(DataOutputStream) - 类 的构造器org.apache.hadoop.mapred.TextOutputFormat.LineRecordWriter
-
- TextOutputFormat.LineRecordWriter<K,V> - org.apache.hadoop.mapreduce.lib.output中的类
-
- TextOutputFormat.LineRecordWriter(DataOutputStream, String) - 类 的构造器org.apache.hadoop.mapreduce.lib.output.TextOutputFormat.LineRecordWriter
-
- TextOutputFormat.LineRecordWriter(DataOutputStream) - 类 的构造器org.apache.hadoop.mapreduce.lib.output.TextOutputFormat.LineRecordWriter
-
- TextOutputReader - org.apache.hadoop.streaming.io中的类
-
OutputReader that reads the client's output as text.
- TextOutputReader() - 类 的构造器org.apache.hadoop.streaming.io.TextOutputReader
-
- TextSplitter - org.apache.hadoop.mapreduce.lib.db中的类
-
Implement DBSplitter over text strings.
- TextSplitter() - 类 的构造器org.apache.hadoop.mapreduce.lib.db.TextSplitter
-
- TFile - org.apache.hadoop.io.file.tfile中的类
-
A TFile is a container of key-value pairs.
- TFile.Reader - org.apache.hadoop.io.file.tfile中的类
-
TFile Reader.
- TFile.Reader(FSDataInputStream, long, Configuration) - 类 的构造器org.apache.hadoop.io.file.tfile.TFile.Reader
-
Constructor
- TFile.Reader.Scanner - org.apache.hadoop.io.file.tfile中的类
-
The TFile Scanner.
- TFile.Reader.Scanner(TFile.Reader, long, long) - 类 的构造器org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
-
Constructor
- TFile.Reader.Scanner(TFile.Reader, RawComparable, RawComparable) - 类 的构造器org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
-
Constructor
- TFile.Reader.Scanner.Entry - org.apache.hadoop.io.file.tfile中的类
-
Entry to a <Key, Value> pair.
- TFile.Reader.Scanner.Entry() - 类 的构造器org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
- TFile.Writer - org.apache.hadoop.io.file.tfile中的类
-
TFile Writer.
- TFile.Writer(FSDataOutputStream, int, String, String, Configuration) - 类 的构造器org.apache.hadoop.io.file.tfile.TFile.Writer
-
Constructor
- throttle(long) - 类 中的方法org.apache.hadoop.hdfs.util.DataTransferThrottler
-
Given the numOfBytes sent/received since last time throttle was called,
make the current thread sleep if I/O rate is too fast
compared to the given bandwidth.
- ThrottledInputStream - org.apache.hadoop.tools.distcp2.util中的类
-
The ThrottleInputStream provides bandwidth throttling on a specified
InputStream.
- ThrottledInputStream(InputStream) - 类 的构造器org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
-
- ThrottledInputStream(InputStream, long) - 类 的构造器org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
-
- timedoutTask(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.TaskTrackerMetricsSource
-
- timeOutInterval - 类 中的变量org.apache.hadoop.util.Shell
-
Time after which the executing script would be timedout
- timestamp() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsRecordImpl
-
- timestamp() - 接口 中的方法org.apache.hadoop.metrics2.MetricsRecord
-
Get the timestamp of the metrics
- TIPStatus - org.apache.hadoop.mapred中的枚举
-
The states of a
TaskInProgress
as seen by the JobTracker.
- toArray() - 类 中的方法org.apache.hadoop.io.ArrayWritable
-
- toArray() - 类 中的方法org.apache.hadoop.io.TwoDArrayWritable
-
- toArray(Class<T>, List<T>) - 类 中的静态方法org.apache.hadoop.util.GenericsUtil
-
Converts the given
List<T>
to a an array of
T[]
.
- toArray(List<T>) - 类 中的静态方法org.apache.hadoop.util.GenericsUtil
-
Converts the given
List<T>
to a an array of
T[]
.
- toByteArray(Writable...) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
Convert writables to a byte array
- toContentSummary(Map<?, ?>) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
-
Convert a Json map to a ContentSummary.
- toDelegationToken(Map<?, ?>) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
-
Convert a Json map to a Token of DelegationTokenIdentifier.
- toFileStatus(Map<?, ?>, boolean) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
-
Convert a Json map to a HdfsFileStatus object.
- toHex(byte[]) - 类 中的静态方法org.apache.hadoop.mapreduce.security.SecureShuffleUtils
-
byte array to Hex String
- toJsonString(Token<? extends TokenIdentifier>) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
-
Convert a token object to a Json string.
- toJsonString(Exception) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
-
Convert an exception object to a Json string.
- toJsonString(String, Object) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
-
Convert a key-value pair to a Json string.
- toJsonString(HdfsFileStatus, boolean) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
-
Convert a HdfsFileStatus object to a Json string.
- toJsonString(LocatedBlocks) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
-
Convert LocatedBlocks to a Json string.
- toJsonString(ContentSummary) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
-
Convert a ContentSummary to a Json string.
- toJsonString(MD5MD5CRC32FileChecksum) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
-
Convert a MD5MD5CRC32FileChecksum to a Json string.
- TOKEN - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.CancelDelegationTokenServlet
-
- TOKEN - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.RenewDelegationTokenServlet
-
- token - 类 中的变量org.apache.hadoop.record.compiler.generated.Rcc
-
- Token - org.apache.hadoop.record.compiler.generated中的类
-
Describes the input token stream.
- Token() - 类 的构造器org.apache.hadoop.record.compiler.generated.Token
-
- Token<T extends TokenIdentifier> - org.apache.hadoop.security.token中的类
-
The client-side form of the token.
- Token(T, SecretManager<T>) - 类 的构造器org.apache.hadoop.security.token.Token
-
Construct a token given a token identifier and a secret manager for the
type of the token identifier.
- Token(byte[], byte[], Text, Text) - 类 的构造器org.apache.hadoop.security.token.Token
-
Construct a token from the components.
- Token() - 类 的构造器org.apache.hadoop.security.token.Token
-
Default constructor
- Token(Token<T>) - 类 的构造器org.apache.hadoop.security.token.Token
-
Clone a token.
- Token.TrivialRenewer - org.apache.hadoop.security.token中的类
-
A trivial renewer for token kinds that aren't managed.
- Token.TrivialRenewer() - 类 的构造器org.apache.hadoop.security.token.Token.TrivialRenewer
-
- TOKEN_KIND - 类 中的静态变量org.apache.hadoop.hdfs.HftpFileSystem
-
- TOKEN_KIND - 类 中的静态变量org.apache.hadoop.hdfs.HsftpFileSystem
-
- TOKEN_KIND - 类 中的静态变量org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
Delegation token kind
- token_source - 类 中的变量org.apache.hadoop.record.compiler.generated.Rcc
-
- TokenArgumentParam - org.apache.hadoop.hdfs.web.resources中的类
-
Represents delegation token parameter as method arguments.
- TokenArgumentParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.TokenArgumentParam
-
Constructor.
- TokenCache - org.apache.hadoop.mapreduce.security中的类
-
This class provides user facing APIs for transferring secrets from
the job client to the tasks.
- TokenCache() - 类 的构造器org.apache.hadoop.mapreduce.security.TokenCache
-
- TokenCounterMapper - org.apache.hadoop.mapreduce.lib.map中的类
-
Tokenize the input values and emit each word with a count of 1.
- TokenCounterMapper() - 类 的构造器org.apache.hadoop.mapreduce.lib.map.TokenCounterMapper
-
- TokenCountMapper<K> - org.apache.hadoop.mapred.lib中的类
-
A
Mapper
that maps text values into pairs.
- TokenCountMapper() - 类 的构造器org.apache.hadoop.mapred.lib.TokenCountMapper
-
- TokenIdentifier - org.apache.hadoop.security.token中的类
-
An identifier that identifies a token, may contain public information
about a token, including its kind (or type).
- TokenIdentifier() - 类 的构造器org.apache.hadoop.security.token.TokenIdentifier
-
- tokenImage - 异常错误 中的变量org.apache.hadoop.record.compiler.generated.ParseException
-
This is a reference to the "tokenImage" array of the generated
parser within which the parse error occurred.
- tokenImage - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- TokenInfo - org.apache.hadoop.security.token中的注释类型
-
Indicates Token related information to be used
- TokenMgrError - org.apache.hadoop.record.compiler.generated中的错误
-
- TokenMgrError() - 错误 的构造器org.apache.hadoop.record.compiler.generated.TokenMgrError
-
- TokenMgrError(String, int) - 错误 的构造器org.apache.hadoop.record.compiler.generated.TokenMgrError
-
- TokenMgrError(boolean, int, int, int, String, char, int) - 错误 的构造器org.apache.hadoop.record.compiler.generated.TokenMgrError
-
- TokenRenewer - org.apache.hadoop.security.token中的类
-
This is the interface for plugins that handle tokens.
- TokenRenewer() - 类 的构造器org.apache.hadoop.security.token.TokenRenewer
-
- tokenSecret - 类 中的变量org.apache.hadoop.mapred.Task
-
- TokenSelector<T extends TokenIdentifier> - org.apache.hadoop.security.token中的接口
-
Select token of type T from tokens for use with named service
- tokenStorage - 类 中的变量org.apache.hadoop.mapred.JobInProgress
-
- toLocatedBlocks(Map<?, ?>) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
-
Convert a Json map to LocatedBlock.
- toMap() - 类 中的方法org.apache.hadoop.streaming.Environment
-
- toMD5MD5CRC32FileChecksum(Map<?, ?>) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
-
Convert a Json map to a MD5MD5CRC32FileChecksum.
- Tool - org.apache.hadoop.util中的接口
-
A tool interface that supports handling of generic command-line options.
- ToolRunner - org.apache.hadoop.util中的类
-
A utility to help run
Tool
s.
- ToolRunner() - 类 的构造器org.apache.hadoop.util.ToolRunner
-
- top() - 类 中的方法org.apache.hadoop.util.PriorityQueue
-
Returns the least element of the PriorityQueue in constant time.
- TopologyBuilder - org.apache.hadoop.tools.rumen中的类
-
Building the cluster topology.
- TopologyBuilder() - 类 的构造器org.apache.hadoop.tools.rumen.TopologyBuilder
-
- toQueryString() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
-
- toQueryString() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
-
- toQueryString() - 接口 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Op
-
- toQueryString() - 类 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.TemporaryRedirectOp
-
- toQueryString() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
-
- toQueryString() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
-
- toRemoteException(Map<?, ?>) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
-
Convert a Json map to a RemoteException.
- toResponse(Exception) - 类 中的方法org.apache.hadoop.hdfs.web.resources.ExceptionHandler
-
- toShort() - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
-
Encode the object to a short.
- toSortedString(String, Param<?, ?>...) - 类 中的静态方法org.apache.hadoop.hdfs.web.resources.Param
-
Convert the parameters to a sorted String.
- toString() - 类 中的方法org.apache.hadoop.conf.Configuration.IntegerRanges
-
- toString() - 类 中的方法org.apache.hadoop.conf.Configuration
-
- toString() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocTextAndOp
-
- toString() - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
-
- toString() - 类 中的方法org.apache.hadoop.contrib.index.lucene.ShardWriter
-
- toString() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp.Op
-
- toString() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
-
- toString() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentID
-
- toString() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
-
- toString() - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
-
- toString() - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
- toString() - 类 中的方法org.apache.hadoop.fs.ContentSummary
- toString(boolean) - 类 中的方法org.apache.hadoop.fs.ContentSummary
-
Return the string representation of the object in the output format.
- toString() - 类 中的方法org.apache.hadoop.fs.DF
-
- toString() - 类 中的方法org.apache.hadoop.fs.DU
-
- toString() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
- toString() - 类 中的方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
- toString() - 类 中的方法org.apache.hadoop.fs.Path
-
- toString() - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
- toString() - 类 中的方法org.apache.hadoop.fs.permission.PermissionStatus
- toString() - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- toString() - 类 中的方法org.apache.hadoop.fs.s3.Block
-
- toString() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
- toString() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- toString() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- toString() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
- toString() - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
-
- toString() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- toString() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
-
Print basic upgradeStatus details.
- toString() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- toString() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- toString() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Stringifies the name of the storage
- toString() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CheckpointSignature
-
- toString() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- toString() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.LeaseManager
- toString() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
- toString() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockRecoveryInfo
-
- toString() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
- toString() - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
-
- toString() - 类 中的方法org.apache.hadoop.hdfs.web.resources.Param
-
- toString() - 类 中的方法org.apache.hadoop.io.BooleanWritable
-
- toString() - 类 中的方法org.apache.hadoop.io.BytesWritable
-
Generate the stream of bytes as hex pairs separated by ' '.
- toString() - 类 中的方法org.apache.hadoop.io.ByteWritable
-
- toString() - 类 中的方法org.apache.hadoop.io.compress.CompressionCodecFactory
-
Print the extension map out as a string.
- toString(T) - 类 中的方法org.apache.hadoop.io.DefaultStringifier
-
- toString() - 类 中的方法org.apache.hadoop.io.DoubleWritable
-
- toString() - 类 中的方法org.apache.hadoop.io.file.tfile.Utils.Version
-
Return a string representation of the version.
- toString() - 类 中的方法org.apache.hadoop.io.FloatWritable
-
- toString() - 类 中的方法org.apache.hadoop.io.GenericWritable
-
- toString() - 类 中的方法org.apache.hadoop.io.IntWritable
-
- toString() - 类 中的方法org.apache.hadoop.io.LongWritable
-
- toString() - 类 中的方法org.apache.hadoop.io.MD5Hash
-
Returns a string representation of this object.
- toString() - 类 中的方法org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- toString() - 异常错误 中的方法org.apache.hadoop.io.nativeio.NativeIOException
-
- toString() - 类 中的方法org.apache.hadoop.io.NullWritable
-
- toString() - 类 中的方法org.apache.hadoop.io.ObjectWritable
-
- toString() - 类 中的方法org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry.Pair
-
- toString() - 类 中的方法org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry
-
- toString() - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
-
- toString() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Returns the name of the file.
- toString(T) - 接口 中的方法org.apache.hadoop.io.Stringifier
-
Converts the object to a string representation
- toString() - 类 中的方法org.apache.hadoop.io.Text
-
Convert text back to string
- toString() - 类 中的方法org.apache.hadoop.io.UTF8
-
已过时。
Convert to a String.
- toString() - 异常错误 中的方法org.apache.hadoop.io.VersionMismatchException
-
Returns a string representation of this object.
- toString() - 类 中的方法org.apache.hadoop.io.VIntWritable
-
- toString() - 类 中的方法org.apache.hadoop.io.VLongWritable
-
- toString() - 类 中的方法org.apache.hadoop.ipc.Server.Connection
-
- toString() - 类 中的方法org.apache.hadoop.mapred.Counters
-
Return textual representation of the counter values.
- toString() - 类 中的方法org.apache.hadoop.mapred.FileSplit
-
- toString() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- toString() - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
-
Convert Tuple to String as in the following.
- toString() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UserDefinedValueAggregatorDescriptor
-
- toString() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
- toString() - 类 中的方法org.apache.hadoop.mapred.MultiFileSplit
-
已过时。
- toString() - 类 中的方法org.apache.hadoop.mapred.Task
-
- toString() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
- toString() - 枚举 中的方法org.apache.hadoop.mapred.TaskLog.LogName
-
- toString() - 类 中的方法org.apache.hadoop.mapreduce.Counters
-
Return textual representation of the counter values.
- toString() - 类 中的方法org.apache.hadoop.mapreduce.ID
-
- toString() - 类 中的方法org.apache.hadoop.mapreduce.JobID
-
- toString() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
- toString() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
-
- toString() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- toString() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
-
- toString() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
-
- toString() - 类 中的方法org.apache.hadoop.mapreduce.TaskID
-
- toString() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsRecordImpl
-
- toString() - 类 中的方法org.apache.hadoop.metrics2.Metric
-
- toString() - 类 中的方法org.apache.hadoop.metrics2.MetricsTag
-
- toString() - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
convert a network tree to a string
- toString() - 类 中的方法org.apache.hadoop.net.NodeBase
-
Return this node's string representation
- toString() - 类 中的方法org.apache.hadoop.record.Buffer
-
- toString(String) - 类 中的方法org.apache.hadoop.record.Buffer
-
Convert the byte buffer to a string an specific character encoding
- toString() - 类 中的方法org.apache.hadoop.record.compiler.CodeBuffer
-
- toString() - 类 中的方法org.apache.hadoop.record.compiler.generated.Token
-
Returns the image.
- toString() - 类 中的方法org.apache.hadoop.record.Record
-
- toString() - 类 中的方法org.apache.hadoop.security.authentication.client.AuthenticatedURL.Token
-
Returns the string representation of the token.
- toString() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
-
Returns the string representation of the token.
- toString() - 类 中的方法org.apache.hadoop.security.authorize.AccessControlList
-
- toString() - 类 中的方法org.apache.hadoop.security.KerberosName
-
Put the name back together from the parts.
- toString() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- toString() - 类 中的方法org.apache.hadoop.security.token.Token
-
- toString() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Return the username.
- toString() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Utility to easily string-ify Options, for logging.
- toString() - 枚举 中的方法org.apache.hadoop.tools.distcp2.DistCpOptionSwitch
-
- toString() - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
-
- toString() - 类 中的方法org.apache.hadoop.tools.rumen.Node
-
- toString() - 类 中的方法org.apache.hadoop.tools.rumen.TreePath
-
- toString() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritable
-
Generate a suitable string representation.
- toString() - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
-
- toString() - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
-
- toString() - 类 中的方法org.apache.hadoop.util.bloom.DynamicBloomFilter
-
- toString() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Returns a string printing PIDs of process present in the
ProcfsBasedProcessTree.
- toString() - 类 中的方法org.apache.hadoop.util.Progress
-
- toString() - 类 中的方法org.apache.hadoop.util.Shell.ShellCommandExecutor
-
Returns the commands of this instance.
- toStringChecked() - 类 中的方法org.apache.hadoop.io.UTF8
-
已过时。
Convert to a string, checking for valid UTF8.
- toStrings() - 类 中的方法org.apache.hadoop.io.ArrayWritable
-
- TotalOrderPartitioner<K extends WritableComparable,V> - org.apache.hadoop.mapred.lib中的类
-
Partitioner effecting a total order by reading split points from
an externally generated source.
- TotalOrderPartitioner() - 类 的构造器org.apache.hadoop.mapred.lib.TotalOrderPartitioner
-
- TotalOrderPartitioner<K extends WritableComparable<?>,V> - org.apache.hadoop.mapreduce.lib.partition中的类
-
Partitioner effecting a total order by reading split points from
an externally generated source.
- TotalOrderPartitioner() - 类 的构造器org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
-
- totalRawCapacity() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
- totalRawUsed() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
- toToken(Map<?, ?>) - 类 中的静态方法org.apache.hadoop.hdfs.web.JsonUtil
-
Convert a Json map to a Token.
- touch(File) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- touchFile(String) - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
-
- toUri() - 类 中的方法org.apache.hadoop.fs.Path
-
Convert this to a URI.
- toWriteSkipRecs() - 类 中的方法org.apache.hadoop.mapred.Task
-
Get whether to write skip records.
- TraceBuilder - org.apache.hadoop.tools.rumen中的类
-
The main driver of the Rumen Parser.
- TraceBuilder() - 类 的构造器org.apache.hadoop.tools.rumen.TraceBuilder
-
- TrackerDistributedCacheManager - org.apache.hadoop.filecache中的类
-
Manages a single machine's instance of a cross-job
cache.
- TrackerDistributedCacheManager(Configuration, TaskController) - 类 的构造器org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
- TrackerDistributedCacheManager.BaseDirManager - org.apache.hadoop.filecache中的类
-
This class holds properties of each base directories and is responsible
for clean up unused cache files in base directories.
- TrackerDistributedCacheManager.BaseDirManager() - 类 的构造器org.apache.hadoop.filecache.TrackerDistributedCacheManager.BaseDirManager
-
- TrackerDistributedCacheManager.CleanupThread - org.apache.hadoop.filecache中的类
-
A thread to check and cleanup the unused files periodically
- TrackerDistributedCacheManager.CleanupThread(Configuration) - 类 的构造器org.apache.hadoop.filecache.TrackerDistributedCacheManager.CleanupThread
-
- transferToFully(FileChannel, long, int) - 类 中的方法org.apache.hadoop.net.SocketOutputStream
-
Transfers data from FileChannel using
FileChannel.transferTo(long, long, WritableByteChannel)
.
- transform(InputStream, InputStream, Writer) - 类 中的静态方法org.apache.hadoop.util.XMLUtils
-
Transform input xml given a stylesheet.
- Trash - org.apache.hadoop.fs中的类
-
Provides a trash feature.
- Trash(Configuration) - 类 的构造器org.apache.hadoop.fs.Trash
-
Construct a trash can accessor.
- Trash(FileSystem, Configuration) - 类 的构造器org.apache.hadoop.fs.Trash
-
Construct a trash can accessor for the FileSystem provided.
- TreePath - org.apache.hadoop.tools.rumen中的类
-
This describes a path from a node to the root.
- TreePath(TreePath, String) - 类 的构造器org.apache.hadoop.tools.rumen.TreePath
-
- TreePath(TreePath, String, int) - 类 的构造器org.apache.hadoop.tools.rumen.TreePath
-
- truncate() - 类 中的方法org.apache.hadoop.record.Buffer
-
Change the capacity of the backing store to be the same as the current
count of buffer.
- truncateLogs(JVMInfo) - 类 中的方法org.apache.hadoop.mapred.TaskLogsTruncater
-
Process the removed task's logs.
- truncateLogsAsUser(String, List<Task>) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
-
- truncateLogsAsUser(String, List<Task>) - 类 中的方法org.apache.hadoop.mapred.TaskController
-
Run the passed command as the user
- TRY_ONCE_DONT_FAIL - 类 中的静态变量org.apache.hadoop.io.retry.RetryPolicies
-
Try once, and fail silently for
void
methods, or by
re-throwing the exception for non-void
methods.
- TRY_ONCE_THEN_FAIL - 类 中的静态变量org.apache.hadoop.io.retry.RetryPolicies
-
Try once, and fail by re-throwing the exception.
- tryDivide(BigDecimal, BigDecimal) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.BigDecimalSplitter
-
Divide numerator by denominator.
- TryIterator<T> - org.apache.hadoop.metrics2.util中的类
-
A base class for unmodifiable iterators (throws on remove)
This class also makes writing filtering iterators easier, where the only
way to discover the end of data is by trying to read it.
- TryIterator() - 类 的构造器org.apache.hadoop.metrics2.util.TryIterator
-
- tryNext() - 类 中的方法org.apache.hadoop.metrics2.util.TryIterator
-
Return the next element.
- TT_KEYTAB_FILE - 类 中的静态变量org.apache.hadoop.mapred.TaskTracker
-
- TT_LOG_TMP_DIR - 类 中的静态变量org.apache.hadoop.mapred.TaskTracker
-
- TT_RESOURCE_CALCULATOR_PLUGIN - 类 中的静态变量org.apache.hadoop.mapred.TaskTracker
-
- TT_USER_NAME - 类 中的静态变量org.apache.hadoop.mapred.TaskTracker
-
- ttConf - 类 中的变量org.apache.hadoop.mapred.JobLocalizer
-
- TupleWritable - org.apache.hadoop.mapred.join中的类
-
Writable type storing multiple
Writable
s.
- TupleWritable() - 类 的构造器org.apache.hadoop.mapred.join.TupleWritable
-
Create an empty tuple with no allocated storage for writables.
- TupleWritable(Writable[]) - 类 的构造器org.apache.hadoop.mapred.join.TupleWritable
-
Initialize tuple with storage; unknown whether any of them contain
"written" values.
- TwoDArrayWritable - org.apache.hadoop.io中的类
-
A Writable for 2D arrays containing a matrix of instances of a class.
- TwoDArrayWritable(Class) - 类 的构造器org.apache.hadoop.io.TwoDArrayWritable
-
- TwoDArrayWritable(Class, Writable[][]) - 类 的构造器org.apache.hadoop.io.TwoDArrayWritable
-
- twoRotations - 类 中的静态变量org.apache.hadoop.examples.dancing.Pentomino
-
Is the piece identical if rotated 180 degrees?
- Type() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- TYPE - 类 中的静态变量org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
-
Constant that identifies the authentication mechanism.
- TYPE - 类 中的静态变量org.apache.hadoop.security.authentication.server.PseudoAuthenticationHandler
-
Constant that identifies the authentication mechanism.
- Type - org.apache.hadoop.typedbytes中的枚举
-
The possible type codes.
- TYPE_SEPARATOR - 接口 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorDescriptor
-
- TYPED_BYTES_ID - 类 中的静态变量org.apache.hadoop.streaming.io.IdentifierResolver
-
- TypedBytesInput - org.apache.hadoop.typedbytes中的类
-
Provides functionality for reading typed bytes.
- TypedBytesInput(DataInput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesInput
-
Creates a new instance of TypedBytesInput.
- TypedBytesInputWriter - org.apache.hadoop.streaming.io中的类
-
InputWriter that writes the client's input as typed bytes.
- TypedBytesInputWriter() - 类 的构造器org.apache.hadoop.streaming.io.TypedBytesInputWriter
-
- TypedBytesOutput - org.apache.hadoop.typedbytes中的类
-
Provides functionality for writing typed bytes.
- TypedBytesOutput(DataOutput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesOutput
-
Creates a new instance of TypedBytesOutput.
- TypedBytesOutputReader - org.apache.hadoop.streaming.io中的类
-
OutputReader that reads the client's output as typed bytes.
- TypedBytesOutputReader() - 类 的构造器org.apache.hadoop.streaming.io.TypedBytesOutputReader
-
- TypedBytesRecordInput - org.apache.hadoop.typedbytes中的类
-
Serializer for records that writes typed bytes.
- TypedBytesRecordInput(TypedBytesInput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
Creates a new instance of TypedBytesRecordInput.
- TypedBytesRecordInput(DataInput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
Creates a new instance of TypedBytesRecordInput.
- TypedBytesRecordOutput - org.apache.hadoop.typedbytes中的类
-
Deserialized for records that reads typed bytes.
- TypedBytesRecordOutput(TypedBytesOutput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
Creates a new instance of TypedBytesRecordOutput.
- TypedBytesRecordOutput(DataOutput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
Creates a new instance of TypedBytesRecordOutput.
- TypedBytesWritable - org.apache.hadoop.typedbytes中的类
-
Writable for typed bytes.
- TypedBytesWritable() - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesWritable
-
Create a TypedBytesWritable.
- TypedBytesWritable(byte[]) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesWritable
-
Create a TypedBytesWritable with a given byte array as initial value.
- TypedBytesWritableInput - org.apache.hadoop.typedbytes中的类
-
Provides functionality for reading typed bytes as Writable objects.
- TypedBytesWritableInput(TypedBytesInput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
Creates a new instance of TypedBytesWritableInput.
- TypedBytesWritableInput(DataInput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
Creates a new instance of TypedBytesWritableInput.
- TypedBytesWritableOutput - org.apache.hadoop.typedbytes中的类
-
Provides functionality for writing Writable objects as typed bytes.
- TypedBytesWritableOutput(TypedBytesOutput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
Creates a new instance of TypedBytesWritableOutput.
- TypedBytesWritableOutput(DataOutput) - 类 的构造器org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
Creates a new instance of TypedBytesWritableOutput.
- TypeID - org.apache.hadoop.record.meta中的类
-
Represents typeID for basic types.
- TypeID.RIOType - org.apache.hadoop.record.meta中的类
-
constants representing the IDL types we support
- TypeID.RIOType() - 类 的构造器org.apache.hadoop.record.meta.TypeID.RIOType
-
- typeVal - 类 中的变量org.apache.hadoop.record.meta.TypeID
-
U
- UC_ACTION_REPORT_STATUS - 类 中的静态变量org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
-
- UC_ACTION_START_UPGRADE - 类 中的静态变量org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
-
- ugi - 类 中的变量org.apache.hadoop.hdfs.HftpFileSystem
-
- ugi - 类 中的变量org.apache.hadoop.mapreduce.JobContext
-
The UserGroupInformation object that has a reference to the current user
- ULIMIT_COMMAND - 类 中的静态变量org.apache.hadoop.util.Shell
-
a Unix command to get ulimit of a process.
- UMASK_LABEL - 类 中的静态变量org.apache.hadoop.fs.permission.FsPermission
-
- umbilical - 类 中的变量org.apache.hadoop.mapred.Task
-
- UNAVAILABLE - 类 中的静态变量org.apache.hadoop.mapred.TaskTrackerStatus
-
- uncompressedValSerializer - 类 中的变量org.apache.hadoop.io.SequenceFile.Writer
-
- unEscapeString(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Unescape commas in the string using the default escape char
- unEscapeString(String, char, char) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Unescape
charToEscape
in the string
with the escape char escapeChar
- unEscapeString(String, char, char[]) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
- unfinalizeBlock(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Remove the temporary block file (if any)
- unfinalizeBlock(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Unfinalizes the block previously opened for writing using writeToBlock.
- UNIFORMSIZE - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- UniformSizeInputFormat - org.apache.hadoop.tools.distcp2.mapred中的类
-
UniformSizeInputFormat extends the InputFormat<> class, to produce
input-splits for DistCp.
- UniformSizeInputFormat() - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.UniformSizeInputFormat
-
- UNINITIALIZED_MEMORY_VALUE - 类 中的静态变量org.apache.hadoop.mapred.ClusterStatus
-
- UNIQ_VALUE_COUNT - 类 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
-
- UniqValueCount - org.apache.hadoop.mapred.lib.aggregate中的类
-
This class implements a value aggregator that dedupes a sequence of objects.
- UniqValueCount() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
-
the default constructor
- UniqValueCount(long) - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
-
constructor
- unJar(File, File) - 类 中的静态方法org.apache.hadoop.util.RunJar
-
Unpack a jar file into a directory.
- UNKNOWN_ERROR - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- UNKOWN_SEQNO - 类 中的静态变量org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
-
- unlock() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
Unlock storage.
- unlockAll() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
-
Unlock all storage directories.
- unmarkJobFromLogDeletion(JobID) - 类 中的方法org.apache.hadoop.mapred.UserLogCleaner
-
Remove job from user log deletion.
- unpackAttributes(String) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
Un packs preservation attribute string containing the first character of
each preservation attribute back to a set of attributes to preserve
- unquoteHtmlChars(String) - 类 中的静态方法org.apache.hadoop.http.HtmlQuoting
-
Remove HTML quoting from a string.
- unregister(ObjectName) - 类 中的静态方法org.apache.hadoop.metrics2.util.MBeans
-
- UnregisteredDatanodeException - org.apache.hadoop.hdfs.protocol中的异常错误
-
This exception is thrown when a datanode that has not previously
registered is trying to access the name node.
- UnregisteredDatanodeException(DatanodeID) - 异常错误 的构造器org.apache.hadoop.hdfs.protocol.UnregisteredDatanodeException
-
- UnregisteredDatanodeException(DatanodeID, DatanodeInfo) - 异常错误 的构造器org.apache.hadoop.hdfs.protocol.UnregisteredDatanodeException
-
- unregisterMBean(ObjectName) - 类 中的静态方法org.apache.hadoop.metrics.util.MBeanUtil
-
已过时。
- unRegisterMXBean() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- unregisterUpdater(Updater) - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
-
已过时。
Removes a callback, if it exists.
- unregisterUpdater(Updater) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Removes a callback, if it exists.
- unregisterUpdater(Updater) - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
-
已过时。
- unreserveSlots(TaskType, JobInProgress) - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
-
Free map slots on this
TaskTracker
which were reserved for
taskType
.
- unreserveTaskTracker(TaskTracker, TaskType) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- unset(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Unset a previously set property.
- UnsupportedActionException - org.apache.hadoop.hdfs.server.namenode中的异常错误
-
This exception is thrown when an operation is not supported.
- UnsupportedActionException(String) - 异常错误 的构造器org.apache.hadoop.hdfs.server.namenode.UnsupportedActionException
-
- unTar(File, File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Given a Tar File as input it will untar the file in a the untar directory
passed as the second parameter
This utility will untar ".tar" files and ".tar.gz","tgz" files.
- unwrapRemoteException(Class<?>...) - 异常错误 中的方法org.apache.hadoop.ipc.RemoteException
-
If this remote exception wraps up one of the lookupTypes
then return this exception.
- unwrapRemoteException() - 异常错误 中的方法org.apache.hadoop.ipc.RemoteException
-
Instantiate and return the exception wrapped up by this remote exception.
- unZip(File, File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Given a File input it will unzip the file in a the unzip directory
passed as the second parameter
- UPDATE - 类 中的静态变量org.apache.hadoop.contrib.index.mapred.DocumentAndOp.Op
-
- update() - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Updates the table of buffered data which is to be sent periodically.
- update(MetricsRecordImpl) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Called by MetricsRecordImpl.update().
- update() - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Updates the table of buffered data which is to be sent periodically.
- update(MetricsRecordImpl) - 类 中的方法org.apache.hadoop.metrics.spi.NullContext
-
已过时。
Do-nothing version of update
- update(MetricsRecordImpl) - 类 中的方法org.apache.hadoop.metrics.spi.NullContextWithUpdateThread
-
已过时。
Do-nothing version of update
- update(MetricsRecord, boolean) - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache
-
Update the cache and return the cached record
- update(MetricsRecord) - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache
-
- update(byte[], int, int) - 类 中的方法org.apache.hadoop.util.DataChecksum
-
- update(int) - 类 中的方法org.apache.hadoop.util.DataChecksum
-
- update(byte[], int, int) - 类 中的方法org.apache.hadoop.util.PureJavaCrc32
- update(int) - 类 中的方法org.apache.hadoop.util.PureJavaCrc32
- updateBlock(Block, Block, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Update the block to the new generation stamp and length.
- updateBlock(Block, Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Update the block to the new generation stamp and length.
- updateBlock(Block, Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Update the block to the new generation stamp and length.
- updateBlock(Block, Block, boolean) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.InterDatanodeProtocol
-
Update the block to the new generation stamp and length.
- updateChunkChecksum(byte[], int, int, int, DataChecksum) - 类 中的静态方法org.apache.hadoop.util.ChecksumUtil
-
updates the checksum for a buffer
- updateFileNames(String, String) - 类 中的方法org.apache.hadoop.util.HostsFileReader
-
- UpdateIndex - org.apache.hadoop.contrib.index.main中的类
-
A distributed "index" is partitioned into "shards".
- UpdateIndex() - 类 的构造器org.apache.hadoop.contrib.index.main.UpdateIndex
-
- updateKeys() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
-
Update block keys, only to be used in master mode
- UpdateLineColumn(char) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- updatePersistedMasterKey(DelegationKey) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
-
Add a MasterKey to the list of keys.
- updatePersistedTokenCancellation(DelegationTokenIdentifier) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
-
Update the token cache with the cancel record in edit logs
- updatePersistedTokenRenewal(DelegationTokenIdentifier, long) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
-
Update the token cache with renewal record in edit logs.
- updatePrivateDistributedCacheSizes(JobID, long[]) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- updatePrivateDistributedCacheSizes(JobID, long[]) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
-
The job initializer needs to report the sizes of the archive
objects and directories in the private distributed cache.
- updateProcessedByteCount(int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
-
This method keeps track of raw processed compressed
bytes.
- updateQuery(String) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- Updater - org.apache.hadoop.metrics中的接口
-
已过时。
in favor of
org.apache.hadoop.metrics2
usage.
- updateRegInfo(DatanodeID) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
Update fields when a new registration request comes in.
- updateReportedByteCount(int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
-
This method is called by the client of this
class in case there are any corrections in
the stream position.
- updateTaskStatus(TaskInProgress, TaskStatus) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Assuming
JobTracker
is locked on entry.
- Upgradeable - org.apache.hadoop.hdfs.server.common中的接口
-
Common interface for distributed upgrade objects.
- UpgradeCommand - org.apache.hadoop.hdfs.server.protocol中的类
-
This as a generic distributed upgrade command.
- UpgradeCommand() - 类 的构造器org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
-
- UpgradeCommand(int, int, short) - 类 的构造器org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
-
- UpgradeManager - org.apache.hadoop.hdfs.server.common中的类
-
Generic upgrade manager.
- UpgradeManager() - 类 的构造器org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- UpgradeObject - org.apache.hadoop.hdfs.server.common中的类
-
Abstract upgrade object.
- UpgradeObject() - 类 的构造器org.apache.hadoop.hdfs.server.common.UpgradeObject
-
- UpgradeObjectCollection - org.apache.hadoop.hdfs.server.common中的类
-
Collection of upgrade objects.
- UpgradeObjectCollection() - 类 的构造器org.apache.hadoop.hdfs.server.common.UpgradeObjectCollection
-
- UpgradeObjectDatanode - org.apache.hadoop.hdfs.server.datanode中的类
-
Base class for data-node upgrade objects.
- UpgradeObjectDatanode() - 类 的构造器org.apache.hadoop.hdfs.server.datanode.UpgradeObjectDatanode
-
- UpgradeObjectNamenode - org.apache.hadoop.hdfs.server.namenode中的类
-
Base class for name-node upgrade objects.
- UpgradeObjectNamenode() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.UpgradeObjectNamenode
-
- upgradeProgress(String[], int) - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
Command to request current distributed upgrade status,
a detailed status, or to force the upgrade to proceed.
- upgradeState - 类 中的变量org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- upgradeStatus - 类 中的变量org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
-
- UpgradeStatusReport - org.apache.hadoop.hdfs.server.common中的类
-
Base upgrade upgradeStatus class.
- UpgradeStatusReport() - 类 的构造器org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
-
- UpgradeStatusReport(int, short, boolean) - 类 的构造器org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
-
- upgradeVersion - 类 中的变量org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- UPPER_LIMIT_ON_TASK_VMEM_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
已过时。
- upperBound(byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
-
Move the cursor to the first entry whose key is strictly greater than
the input key.
- upperBound(byte[], int, int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
-
Move the cursor to the first entry whose key is strictly greater than
the input key.
- upperBound(List<? extends T>, T, Comparator<? super T>) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
-
Upper bound binary search.
- upperBound(List<? extends Comparable<? super T>>, T) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
-
Upper bound binary search.
- UriFsPathParam - org.apache.hadoop.hdfs.web.resources中的类
-
The FileSystem path parameter.
- UriFsPathParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.UriFsPathParam
-
Constructor.
- uriToString(URI[]) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
- url - 类 中的变量org.apache.hadoop.hdfs.ByteRangeInputStream.URLOpener
-
- URL_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
-
JDBC Database access URL
- URL_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
JDBC Database access URL
- USAGE - 类 中的静态变量org.apache.hadoop.fs.shell.Count
-
- usage() - 类 中的静态方法org.apache.hadoop.record.compiler.generated.Rcc
-
- usage() - 类 中的静态方法org.apache.hadoop.tools.distcp2.OptionsParser
-
- USAGES - 类 中的静态变量org.apache.hadoop.log.LogLevel
-
- useKsslAuth() - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
- USER_LOG_RETAIN_HOURS - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
-
- USER_NAME - 类 中的静态变量org.apache.hadoop.security.authentication.client.PseudoAuthenticator
-
Name of the additional parameter that carries the 'user.name' value.
- USER_NAME_COMMAND - 类 中的静态变量org.apache.hadoop.util.Shell
-
a Unix command to get the current user's name
- UserDefinedValueAggregatorDescriptor - org.apache.hadoop.mapred.lib.aggregate中的类
-
This class implements a wrapper for a user defined value aggregator descriptor.
- UserDefinedValueAggregatorDescriptor(String, JobConf) - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.UserDefinedValueAggregatorDescriptor
-
- UserGroupInformation - org.apache.hadoop.security中的类
-
User and group information for Hadoop.
- UserGroupInformation.AuthenticationMethod - org.apache.hadoop.security中的枚举
-
existing types of authentications' methods
- UserGroupInformation.HadoopLoginModule - org.apache.hadoop.security中的类
-
A login module that looks at the Kerberos, Unix, or Windows principal and
adds the corresponding UserName.
- UserGroupInformation.HadoopLoginModule() - 类 的构造器org.apache.hadoop.security.UserGroupInformation.HadoopLoginModule
-
- UserLogCleaner - org.apache.hadoop.mapred中的类
-
This is used only in UserLogManager, to manage cleanup of user logs.
- UserLogCleaner(UserLogManager, Configuration) - 类 的构造器org.apache.hadoop.mapred.UserLogCleaner
-
- UserLogEvent - org.apache.hadoop.mapreduce.server.tasktracker.userlogs中的类
-
A directive from the various components of
TaskTracker
to the
UserLogManager
to inform about an event.
- UserLogEvent(UserLogEvent.EventType) - 类 的构造器org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogEvent
-
- UserLogEvent.EventType - org.apache.hadoop.mapreduce.server.tasktracker.userlogs中的枚举
-
- UserLogManager - org.apache.hadoop.mapreduce.server.tasktracker.userlogs中的类
-
This manages user logs on the
TaskTracker
.
- UserLogManager(Configuration, TaskController) - 类 的构造器org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
-
Create the user log manager to manage user logs on
TaskTracker
.
- UserLogManager(Configuration) - 类 的构造器org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
-
Create the user log manager to manage user logs on
TaskTracker
.
- USERNAME_PROPERTY - 类 中的静态变量org.apache.hadoop.mapred.lib.db.DBConfiguration
-
User name to access the database
- USERNAME_PROPERTY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
User name to access the database
- UserParam - org.apache.hadoop.hdfs.web.resources中的类
-
User parameter.
- UserParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.UserParam
-
Constructor.
- UserParam(UserGroupInformation) - 类 的构造器org.apache.hadoop.hdfs.web.resources.UserParam
-
Construct an object from a UGI.
- UserProvider - org.apache.hadoop.hdfs.web.resources中的类
-
Inject user information to http operations.
- UserProvider() - 类 的构造器org.apache.hadoop.hdfs.web.resources.UserProvider
-
- userToNetgroupsMap - 类 中的静态变量org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
-
- USTRING_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- UTF8 - org.apache.hadoop.io中的类
-
已过时。
replaced by Text
- UTF8() - 类 的构造器org.apache.hadoop.io.UTF8
-
已过时。
- UTF8(String) - 类 的构造器org.apache.hadoop.io.UTF8
-
已过时。
Construct from a given string.
- UTF8(UTF8) - 类 的构造器org.apache.hadoop.io.UTF8
-
已过时。
Construct from a given string.
- UTF8.Comparator - org.apache.hadoop.io中的类
-
已过时。
A WritableComparator optimized for UTF8 keys.
- UTF8.Comparator() - 类 的构造器org.apache.hadoop.io.UTF8.Comparator
-
已过时。
- UTF8ByteArrayUtils - org.apache.hadoop.streaming中的类
-
已过时。
use
UTF8ByteArrayUtils
and
StreamKeyValUtil
instead
- UTF8ByteArrayUtils() - 类 的构造器org.apache.hadoop.streaming.UTF8ByteArrayUtils
-
已过时。
- UTF8ByteArrayUtils - org.apache.hadoop.util中的类
-
- UTF8ByteArrayUtils() - 类 的构造器org.apache.hadoop.util.UTF8ByteArrayUtils
-
- utf8Length(String) - 类 中的静态方法org.apache.hadoop.io.Text
-
For the given string, returns the number of UTF-8 bytes
required to encode the string.
- Util - org.apache.hadoop.hdfs.server.common中的类
-
- Util() - 类 的构造器org.apache.hadoop.hdfs.server.common.Util
-
- Util - org.apache.hadoop.metrics.spi中的类
-
Static utility methods
- Utils - org.apache.hadoop.io.file.tfile中的类
-
Supporting Utility classes used by TFile, and shared by users of TFile.
- Utils - org.apache.hadoop.mapred中的类
-
A utility class.
- Utils() - 类 的构造器org.apache.hadoop.mapred.Utils
-
- Utils - org.apache.hadoop.record.meta中的类
-
Various utility functions for Hadooop record I/O platform.
- Utils - org.apache.hadoop.record中的类
-
Various utility functions for Hadooop record I/O runtime.
- Utils.OutputFileUtils - org.apache.hadoop.mapred中的类
-
- Utils.OutputFileUtils() - 类 的构造器org.apache.hadoop.mapred.Utils.OutputFileUtils
-
- Utils.OutputFileUtils.OutputFilesFilter - org.apache.hadoop.mapred中的类
-
This class filters output(part) files from the given directory
It does not accept files with filenames _logs and _SUCCESS.
- Utils.OutputFileUtils.OutputFilesFilter() - 类 的构造器org.apache.hadoop.mapred.Utils.OutputFileUtils.OutputFilesFilter
-
- Utils.OutputFileUtils.OutputLogFilter - org.apache.hadoop.mapred中的类
-
This class filters log files from directory given
It doesnt accept paths having _logs.
- Utils.OutputFileUtils.OutputLogFilter() - 类 的构造器org.apache.hadoop.mapred.Utils.OutputFileUtils.OutputLogFilter
-
- Utils.Version - org.apache.hadoop.io.file.tfile中的类
-
A generic Version class.
- Utils.Version(DataInput) - 类 的构造器org.apache.hadoop.io.file.tfile.Utils.Version
-
Construct the Version object by reading from the input stream.
- Utils.Version(short, short) - 类 的构造器org.apache.hadoop.io.file.tfile.Utils.Version
-
Constructor.
V
- validate(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
This is part of the framework API.
- validate(DistCpOptionSwitch, boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
- validateBlockMetadata(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Validate that the contents in the Block matches
the file on disk.
- validateBlockMetadata(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Validate that the contents in the Block matches
the file on disk.
- validatePaths(DistCpOptions) - 类 中的方法org.apache.hadoop.tools.distcp2.CopyListing
-
Validate input and output paths
- validatePaths(DistCpOptions) - 类 中的方法org.apache.hadoop.tools.distcp2.FileBasedCopyListing
-
Validate input and output paths
- validatePaths(DistCpOptions) - 类 中的方法org.apache.hadoop.tools.distcp2.GlobbedCopyListing
-
Validate input and output paths
- validatePaths(DistCpOptions) - 类 中的方法org.apache.hadoop.tools.distcp2.SimpleCopyListing
-
- validateUTF8(byte[]) - 类 中的静态方法org.apache.hadoop.io.Text
-
Check if a byte array contains valid utf-8
- validateUTF8(byte[], int, int) - 类 中的静态方法org.apache.hadoop.io.Text
-
Check to see if a byte array is valid utf-8
- value() - 类 中的方法org.apache.hadoop.metrics2.Metric
-
Get the value of the metric
- value() - 类 中的方法org.apache.hadoop.metrics2.MetricCounter
-
- value() - 类 中的方法org.apache.hadoop.metrics2.MetricGauge
-
- value() - 类 中的方法org.apache.hadoop.metrics2.MetricsTag
-
Get the value of the tag
- value - 类 中的变量org.apache.hadoop.tools.rumen.JhCounter
-
- value - 枚举 中的变量org.apache.hadoop.util.StringUtils.TraditionalBinaryPrefix
-
- VALUE_CLASS - 类 中的静态变量org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
-
- VALUE_HISTOGRAM - 类 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
-
- ValueAggregator - org.apache.hadoop.mapred.lib.aggregate中的接口
-
This interface defines the minimal protocol for value aggregators.
- ValueAggregatorBaseDescriptor - org.apache.hadoop.mapred.lib.aggregate中的类
-
This class implements the common functionalities of
the subclasses of ValueAggregatorDescriptor class.
- ValueAggregatorBaseDescriptor() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
-
- ValueAggregatorCombiner<K1 extends WritableComparable,V1 extends Writable> - org.apache.hadoop.mapred.lib.aggregate中的类
-
This class implements the generic combiner of Aggregate.
- ValueAggregatorCombiner() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorCombiner
-
- ValueAggregatorDescriptor - org.apache.hadoop.mapred.lib.aggregate中的接口
-
This interface defines the contract a value aggregator descriptor must
support.
- ValueAggregatorJob - org.apache.hadoop.mapred.lib.aggregate中的类
-
This is the main class for creating a map/reduce job using Aggregate
framework.
- ValueAggregatorJob() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
-
- ValueAggregatorJobBase<K1 extends WritableComparable,V1 extends Writable> - org.apache.hadoop.mapred.lib.aggregate中的类
-
This abstract class implements some common functionalities of the
the generic mapper, reducer and combiner classes of Aggregate.
- ValueAggregatorJobBase() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJobBase
-
- ValueAggregatorMapper<K1 extends WritableComparable,V1 extends Writable> - org.apache.hadoop.mapred.lib.aggregate中的类
-
This class implements the generic mapper of Aggregate.
- ValueAggregatorMapper() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorMapper
-
- ValueAggregatorReducer<K1 extends WritableComparable,V1 extends Writable> - org.apache.hadoop.mapred.lib.aggregate中的类
-
This class implements the generic reducer of Aggregate.
- ValueAggregatorReducer() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorReducer
-
- valueAt(double) - 类 中的方法org.apache.hadoop.tools.rumen.CDFPiecewiseLinearRandomGenerator
-
TODO This code assumes that the empirical minimum resp. maximum is the
epistomological minimum resp. maximum.
- valueAt(double) - 类 中的方法org.apache.hadoop.tools.rumen.CDFRandomGenerator
-
- ValueHistogram - org.apache.hadoop.mapred.lib.aggregate中的类
-
This class implements a value aggregator that computes the
histogram of a sequence of strings.
- ValueHistogram() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
-
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.examples.dancing.Pentomino.SolutionCategory
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.fs.HardLink.OSType
-
返回带有指定名称的该类型的枚举常量。
- valueOf(Attributes) - 类 中的静态方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
-
Return the object represented in the attributes.
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.fs.permission.FsAction
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 类 中的静态方法org.apache.hadoop.fs.permission.FsPermission
-
Create a FsPermission from a Unix symbolic permission string
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.DatanodeInfo.AdminStates
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.FSConstants.DatanodeReportType
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.FSConstants.SafeModeAction
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.FSConstants.UpgradeAction
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.LayoutVersion.Feature
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager.AccessMode
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.server.common.HdfsConstants.NodeType
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.server.common.Storage.StorageState
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
-
返回带有指定名称的该类型的枚举常量。
- valueOf(HttpOpParam.Op) - 类 中的静态方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.TemporaryRedirectOp
-
Get an object for the given op.
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Type
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream.STATE
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.io.compress.SplittableCompressionCodec.READ_MODE
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibCompressor.CompressionHeader
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibCompressor.CompressionLevel
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibCompressor.CompressionStrategy
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor.CompressionHeader
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.io.nativeio.Errno
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.io.SequenceFile.CompressionType
-
返回带有指定名称的该类型的枚举常量。
- valueOf(Attributes) - 异常错误 中的静态方法org.apache.hadoop.ipc.RemoteException
-
Create RemoteException from attributes
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.FileInputFormat.Counter
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.FileOutputFormat.Counter
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.JobClient.TaskStatusFilter
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.JobHistory.Keys
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.JobHistory.RecordTypes
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.JobHistory.Values
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.JobInProgress.Counter
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.JobPriority
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.JobTracker.SafeModeAction
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.JobTracker.State
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.join.Parser.TType
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.Operation
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.Task.Counter
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.TaskCompletionEvent.Status
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.TaskLog.LogName
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.TaskStatus.Phase
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.TaskStatus.State
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapred.TIPStatus
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.Job.JobState
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.JobACL
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.JobStatus.State
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat.Counter
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob.State
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl.ThreadState
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat.Counter
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogEvent.EventType
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.mapreduce.TaskType
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink.GangliaConfType
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink.GangliaSlope
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.security.Krb5AndCertsSslSocketConnector.MODE
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.security.SaslRpcServer.AuthMethod
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.security.SaslRpcServer.QualityOfProtection
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.security.SaslRpcServer.SaslStatus
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.security.UserGroupInformation.AuthenticationMethod
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.distcp2.DistCpOptions.FileAttribute
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.distcp2.DistCpOptionSwitch
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.distcp2.mapred.CopyMapper.Counter
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.rumen.EventType
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.rumen.JobConfPropertyNames
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.rumen.JobHistoryParserFactory.VersionDetector
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.rumen.LoggedJob.JobPriority
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.rumen.LoggedJob.JobType
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.tools.rumen.Pre21JobHistoryConstants.Values
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.typedbytes.Type
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.util.ProcessTree.Signal
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.util.QueueProcessingStatistics.State
-
返回带有指定名称的该类型的枚举常量。
- valueOf(String) - 枚举 中的静态方法org.apache.hadoop.util.StringUtils.TraditionalBinaryPrefix
-
返回带有指定名称的该类型的枚举常量。
- valueOf(char) - 枚举 中的静态方法org.apache.hadoop.util.StringUtils.TraditionalBinaryPrefix
-
- values() - 枚举 中的静态方法org.apache.hadoop.examples.dancing.Pentomino.SolutionCategory
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.fs.HardLink.OSType
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.fs.permission.FsAction
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.DatanodeInfo.AdminStates
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.FSConstants.DatanodeReportType
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.FSConstants.SafeModeAction
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.FSConstants.UpgradeAction
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.hdfs.protocol.LayoutVersion.Feature
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager.AccessMode
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.hdfs.server.common.HdfsConstants.NodeType
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.hdfs.server.common.Storage.StorageState
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Type
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream.STATE
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.io.compress.SplittableCompressionCodec.READ_MODE
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibCompressor.CompressionHeader
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibCompressor.CompressionLevel
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibCompressor.CompressionStrategy
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor.CompressionHeader
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 类 中的方法org.apache.hadoop.io.MapWritable
- values() - 枚举 中的静态方法org.apache.hadoop.io.nativeio.Errno
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.io.SequenceFile.CompressionType
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.FileInputFormat.Counter
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.FileOutputFormat.Counter
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.JobClient.TaskStatusFilter
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.JobHistory.Keys
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.JobHistory.RecordTypes
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.JobHistory.Values
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.JobInProgress.Counter
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.JobPriority
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.JobTracker.SafeModeAction
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.JobTracker.State
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.join.Parser.TType
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.Operation
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.Task.Counter
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.TaskCompletionEvent.Status
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.TaskLog.LogName
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.TaskStatus.Phase
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.TaskStatus.State
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapred.TIPStatus
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.Job.JobState
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.JobACL
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.JobStatus.State
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat.Counter
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob.State
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl.ThreadState
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat.Counter
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogEvent.EventType
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.mapreduce.TaskType
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink.GangliaConfType
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink.GangliaSlope
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.security.Krb5AndCertsSslSocketConnector.MODE
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.security.SaslRpcServer.AuthMethod
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.security.SaslRpcServer.QualityOfProtection
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.security.SaslRpcServer.SaslStatus
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.security.UserGroupInformation.AuthenticationMethod
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.tools.distcp2.DistCpOptions.FileAttribute
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.tools.distcp2.DistCpOptionSwitch
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.tools.distcp2.mapred.CopyMapper.Counter
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.tools.rumen.EventType
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.tools.rumen.JobConfPropertyNames
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.tools.rumen.JobHistoryParserFactory.VersionDetector
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.tools.rumen.LoggedJob.JobPriority
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.tools.rumen.LoggedJob.JobType
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.tools.rumen.Pre21JobHistoryConstants.Values
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.typedbytes.Type
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.util.ProcessTree.Signal
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.util.QueueProcessingStatistics.State
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- values() - 枚举 中的静态方法org.apache.hadoop.util.StringUtils.TraditionalBinaryPrefix
-
按照声明该枚举类型的常量的顺序, 返回
包含这些常量的数组。
- variance() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
-
- Vector() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- VECTOR - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
-
- VECTOR_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- vectorSize - 类 中的变量org.apache.hadoop.util.bloom.Filter
-
The vector size of this filter.
- VectorTypeID - org.apache.hadoop.record.meta中的类
-
Represents typeID for vector.
- VectorTypeID(TypeID) - 类 的构造器org.apache.hadoop.record.meta.VectorTypeID
-
- verbose - 类 中的变量org.apache.hadoop.streaming.JarBuilder
-
- verbose_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- verify(String, SSLSession) - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem.DummyHostnameVerifier
-
- verifyAndExtract(String) - 类 中的方法org.apache.hadoop.security.authentication.util.Signer
-
Verifies a signed string and extracts the original string.
- verifyBlockPlacement(String, LocatedBlock, int) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
-
Verify that the block is replicated on at least minRacks different racks
if there is more than minRacks rack in the system.
- verifyBlockPlacement(String, LocatedBlock, int) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
-
Verify that the block is replicated on at least minRacks different racks
if there is more than minRacks rack in the system.
- verifyHostnames(String[]) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Performs a sanity check on the list of hostnames/IPs to verify they at least
appear to be valid.
- verifyReply(String, String, SecretKey) - 类 中的静态方法org.apache.hadoop.mapreduce.security.SecureShuffleUtils
-
verify that base64Hash is same as HMacHash(msg)
- verifyRequest(DatanodeRegistration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Verify request.
- verifyToken(TokenIdent, byte[]) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
Verifies that the given identifier and password are valid and match.
- verifyVersion(int) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Verify version.
- VERSION - 类 中的静态变量org.apache.hadoop.fs.HarFileSystem
-
- version - 类 中的变量org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
-
- VERSION - 类 中的静态变量org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
WebHdfs version.
- VERSION - 类 中的静态变量org.apache.hadoop.tools.HadoopArchives
-
- VersionedProtocol - org.apache.hadoop.ipc中的接口
-
Superclass of all protocols that use Hadoop RPC.
- VersionedWritable - org.apache.hadoop.io中的类
-
A base class for Writables that provides version checking.
- VersionedWritable() - 类 的构造器org.apache.hadoop.io.VersionedWritable
-
- versionID - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientDatanodeProtocol
-
4: never return null and always return a newly generated access token
- versionID - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Compared to the previous version the following changes have been introduced:
(Only the latest change is reflected.
- versionID - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
-
26: Added an additional member to NamespaceInfo
- versionID - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.InterDatanodeProtocol
-
3: added a finalize parameter to updateBlock
- versionID - 接口 中的静态变量org.apache.hadoop.hdfs.server.protocol.NamenodeProtocol
-
3: new method added: getAccessKeys()
- versionID - 接口 中的静态变量org.apache.hadoop.mapred.AdminOperationsProtocol
-
Version 1: Initial version.
- versionID - 接口 中的静态变量org.apache.hadoop.mapred.TaskUmbilicalProtocol
-
Changed the version to 2, since we have a new method getMapOutputs
Changed version to 3 to have progress() return a boolean
Changed the version to 4, since we have replaced
TaskUmbilicalProtocol.progress(String, float, String,
org.apache.hadoop.mapred.TaskStatus.Phase, Counters)
with statusUpdate(String, TaskStatus)
Version 5 changed counters representation for HADOOP-2248
Version 6 changes the TaskStatus representation for HADOOP-2208
Version 7 changes the done api (via HADOOP-3140).
- versionID - 接口 中的静态变量org.apache.hadoop.security.authorize.RefreshAuthorizationPolicyProtocol
-
Version 1: Initial version
- versionID - 接口 中的静态变量org.apache.hadoop.security.RefreshUserMappingsProtocol
-
Version 1: Initial version.
- VersionInfo - org.apache.hadoop.util中的类
-
This class finds the package info for Hadoop and the HadoopVersionAnnotation
information.
- VersionInfo() - 类 的构造器org.apache.hadoop.util.VersionInfo
-
- VersionMismatchException - org.apache.hadoop.fs.s3中的异常错误
-
Thrown when Hadoop cannot read the version of the data stored
in
S3FileSystem
.
- VersionMismatchException(String, String) - 异常错误 的构造器org.apache.hadoop.fs.s3.VersionMismatchException
-
- VersionMismatchException - org.apache.hadoop.io中的异常错误
-
Thrown by
VersionedWritable.readFields(DataInput)
when the
version of an object being read does not match the current implementation
version as returned by VersionedWritable.getVersion()
.
- VersionMismatchException(byte, byte) - 异常错误 的构造器org.apache.hadoop.io.VersionMismatchException
-
- versionRequest() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- versionRequest() - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
-
- VIntWritable - org.apache.hadoop.io中的类
-
A WritableComparable for integer values stored in variable-length format.
- VIntWritable() - 类 的构造器org.apache.hadoop.io.VIntWritable
-
- VIntWritable(int) - 类 的构造器org.apache.hadoop.io.VIntWritable
-
- visit(MetricsVisitor) - 类 中的方法org.apache.hadoop.metrics2.Metric
-
Accept a visitor interface
- VLongWritable - org.apache.hadoop.io中的类
-
A WritableComparable for longs in a variable-length format.
- VLongWritable() - 类 的构造器org.apache.hadoop.io.VLongWritable
-
- VLongWritable(long) - 类 的构造器org.apache.hadoop.io.VLongWritable
-
W
- waitForCompletion() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Blocks until the job is complete.
- waitForCompletion(boolean) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Submit the job to the cluster and wait for it to finish.
- waitForProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, Configuration) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
- waitForReadable() - 类 中的方法org.apache.hadoop.net.SocketInputStream
-
waits for the underlying channel to be ready for reading.
- waitForWritable() - 类 中的方法org.apache.hadoop.net.SocketOutputStream
-
waits for the underlying channel to be ready for writing.
- WAITING - 类 中的静态变量org.apache.hadoop.mapred.jobcontrol.Job
-
- wasRecoveredOnStartup() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockRecoveryInfo
-
- WEB_UGI_PROPERTY_NAME - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- webAppContext - 类 中的变量org.apache.hadoop.http.HttpServer
-
- WebHdfsFileSystem - org.apache.hadoop.hdfs.web中的类
-
A FileSystem for HDFS over the web.
- WebHdfsFileSystem() - 类 的构造器org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- WebHdfsFileSystem.DtRenewer - org.apache.hadoop.hdfs.web中的类
-
Delegation token renewer.
- WebHdfsFileSystem.DtRenewer() - 类 的构造器org.apache.hadoop.hdfs.web.WebHdfsFileSystem.DtRenewer
-
- webServer - 类 中的变量org.apache.hadoop.http.HttpServer
-
- width - 类 中的变量org.apache.hadoop.examples.dancing.Pentomino
-
- width - 类 中的静态变量org.apache.hadoop.mapred.TaskGraphServlet
-
height of the graph w/o margins
- WILDCARD_ACL_VALUE - 类 中的静态变量org.apache.hadoop.security.authorize.AccessControlList
-
- WILDCARD_STAMP - 类 中的静态变量org.apache.hadoop.hdfs.server.common.GenerationStamp
-
- windowBits() - 枚举 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor.CompressionHeader
-
- windowBits() - 枚举 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor.CompressionHeader
-
- WINDOWS - 类 中的静态变量org.apache.hadoop.util.Shell
-
Set to true on Windows platforms
- WithinMultiLineComment - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- WithinOneLineComment - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- WordCount - org.apache.hadoop.examples中的类
-
- WordCount() - 类 的构造器org.apache.hadoop.examples.WordCount
-
- WordCount.IntSumReducer - org.apache.hadoop.examples中的类
-
- WordCount.IntSumReducer() - 类 的构造器org.apache.hadoop.examples.WordCount.IntSumReducer
-
- WordCount.TokenizerMapper - org.apache.hadoop.examples中的类
-
- WordCount.TokenizerMapper() - 类 的构造器org.apache.hadoop.examples.WordCount.TokenizerMapper
-
- WORK_FACTOR - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
This constant is accessible by subclasses for historical purposes.
- WORKFLOW_ADJACENCY_PREFIX_PATTERN - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
- WORKFLOW_ADJACENCY_PREFIX_STRING - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
- WORKFLOW_ID - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
- WORKFLOW_NAME - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
- WORKFLOW_NODE_NAME - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
- WORKFLOW_TAGS - 类 中的静态变量org.apache.hadoop.mapred.JobConf
-
- wrappedReadForCompressedData(InputStream, byte[], int, int) - 类 中的静态方法org.apache.hadoop.io.IOUtils
-
Utility wrapper for reading from
InputStream
.
- WrappedRecordReader<K extends WritableComparable,U extends Writable> - org.apache.hadoop.mapred.join中的类
-
Proxy class for a RecordReader participating in the join framework.
- Writable - org.apache.hadoop.io中的接口
-
A serializable object which implements a simple, efficient, serialization
protocol, based on
DataInput
and DataOutput
.
- WritableComparable<T> - org.apache.hadoop.io中的接口
-
A
Writable
which is also Comparable
.
- WritableComparator - org.apache.hadoop.io中的类
-
A Comparator for
WritableComparable
s.
- WritableComparator(Class<? extends WritableComparable>) - 类 的构造器org.apache.hadoop.io.WritableComparator
-
Construct for a
WritableComparable
implementation.
- WritableComparator(Class<? extends WritableComparable>, boolean) - 类 的构造器org.apache.hadoop.io.WritableComparator
-
- WritableFactories - org.apache.hadoop.io中的类
-
Factories for non-public writables.
- WritableFactory - org.apache.hadoop.io中的接口
-
A factory for a class of Writable.
- WritableName - org.apache.hadoop.io中的类
-
Utility to permit renaming of Writable implementation classes without
invalidiating files that contain their class name.
- WritableSerialization - org.apache.hadoop.io.serializer中的类
-
A
Serialization
for Writable
s that delegates to
Writable.write(java.io.DataOutput)
and
Writable.readFields(java.io.DataInput)
.
- WritableSerialization() - 类 的构造器org.apache.hadoop.io.serializer.WritableSerialization
-
- WritableUtils - org.apache.hadoop.io中的类
-
- WritableUtils() - 类 的构造器org.apache.hadoop.io.WritableUtils
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.conf.Configuration
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocTextAndOp
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentID
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.WordOffset
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.examples.SleepJob.EmptySplit
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Implement write of Writable
- write(DataOutput) - 类 中的方法org.apache.hadoop.fs.ContentSummary
-
Serialize the fields of this object to
out
.
- write(DataOutput) - 类 中的方法org.apache.hadoop.fs.FileStatus
-
- write(int) - 类 中的方法org.apache.hadoop.fs.FSOutputSummer
-
Write one byte
- write(byte[], int, int) - 类 中的方法org.apache.hadoop.fs.FSOutputSummer
-
Writes
len
bytes from the specified byte array
starting at offset off
and generate a checksum for
each data chunk.
- write(DataOutput) - 类 中的方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
-
Serialize the fields of this object to
out
.
- write(XMLOutputter, MD5MD5CRC32FileChecksum) - 类 中的静态方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
-
Write that object to xml output.
- write(DataOutput) - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
-
Serialize the fields of this object to
out
.
- write(DataOutput) - 类 中的方法org.apache.hadoop.fs.permission.PermissionStatus
-
Serialize the fields of this object to
out
.
- write(DataOutput, String, String, FsPermission) - 类 中的静态方法org.apache.hadoop.fs.permission.PermissionStatus
-
Serialize a
PermissionStatus
from its base components.
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockLocalPathInfo
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
Serialize the fields of this object to
out
.
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Serialize the fields of this object to
out
.
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DirectoryListing
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
-
- write() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
Write version file.
- write(File) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CheckpointSignature
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BalancerBandwidthCommand
-
Writes the bandwidth payload to the Balancer Bandwidth Command packet.
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockCommand
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockMetaDataInfo
-
Serialize the fields of this object to
out
.
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockRecoveryInfo
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations.BlockWithLocations
-
serialization method
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations
-
serialization method
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeCommand
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
Serialize the fields of this object to
out
.
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.KeyUpdateCommand
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
-
Serialize the fields of this object to
out
.
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.ArrayWritable
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.BooleanWritable
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.BytesWritable
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.ByteWritable
-
- write(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.BlockCompressorStream
-
Write the data provided to the compression codec, compressing no more
than the buffer size less the compression overhead as specified during
construction for each block.
- write(int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
- write(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
- write(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.CompressionOutputStream
-
Write compressed bytes to the stream.
- write(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.CompressorStream
-
- write(int) - 类 中的方法org.apache.hadoop.io.compress.CompressorStream
-
- write(int) - 类 中的方法org.apache.hadoop.io.compress.GzipCodec.GzipOutputStream
-
- write(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.GzipCodec.GzipOutputStream
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.CompressedWritable
-
- write(DataInput, int) - 类 中的方法org.apache.hadoop.io.DataOutputBuffer
-
Writes bytes from a DataInput directly into the buffer.
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.DoubleWritable
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.file.tfile.Utils.Version
-
Write the objec to a DataOutput.
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.FloatWritable
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.GenericWritable
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.IntWritable
-
- write(byte[], int, int) - 类 中的方法org.apache.hadoop.io.IOUtils.NullOutputStream
-
- write(int) - 类 中的方法org.apache.hadoop.io.IOUtils.NullOutputStream
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.LongWritable
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.MapWritable
-
Serialize the fields of this object to
out
.
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.MD5Hash
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.NullWritable
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.ObjectWritable
-
- write(InputStream, int) - 类 中的方法org.apache.hadoop.io.OutputBuffer
-
Writes bytes from a InputStream directly into the buffer.
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
-
Serialize the fields of this object to
out
.
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.Text
-
serialize
write this object to out
length uses zero-compressed encoding
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.TwoDArrayWritable
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.UTF8
-
已过时。
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.VersionedWritable
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.VIntWritable
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.io.VLongWritable
-
- write(DataOutput) - 接口 中的方法org.apache.hadoop.io.Writable
-
Serialize the fields of this object to
out
.
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.Counters
-
Write the set of groups.
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.FileSplit
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.JobProfile
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
-
Write splits in the following format.
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
-
Writes each Writable to
out
.
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.JvmTask
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
-
Serialize the fields of this object to
out
.
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.NullDBWritable
-
- write(PreparedStatement) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.NullDBWritable
-
- write(K, V) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBOutputFormat.DBRecordWriter
-
Writes a key/value pair.
- write(PreparedStatement) - 接口 中的方法org.apache.hadoop.mapred.lib.db.DBWritable
-
Sets the fields of the object in the
PreparedStatement
.
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.MapTaskCompletionEventsUpdate
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.QueueAclsInfo
-
- write(K, V) - 接口 中的方法org.apache.hadoop.mapred.RecordWriter
-
Writes a key/value pair.
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.Task
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
- write(K, V) - 类 中的方法org.apache.hadoop.mapred.TextOutputFormat.LineRecordWriter
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.Counter
-
Write the binary representation of the counter
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.Counters
-
Write the set of groups.
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.ID
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.JobID
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat.DataDrivenDBInputSplit
-
Serialize the fields of this object to
out
.
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
-
Serialize the fields of this object to
out
.
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.NullDBWritable
-
- write(PreparedStatement) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.NullDBWritable
-
- write(K, V) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat.DBRecordWriter
-
Writes a key/value pair.
- write(PreparedStatement) - 接口 中的方法org.apache.hadoop.mapreduce.lib.db.DBWritable
-
Sets the fields of the object in the
PreparedStatement
.
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
-
- write(K, V) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat.FilterRecordWriter
-
- write(String, K, V) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
-
Write key and value to the namedOutput.
- write(String, K, V, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
-
Write key and value to baseOutputPath using the namedOutput.
- write(KEYOUT, VALUEOUT, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
-
Write key value to an output file name.
- write(K, V) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.TextOutputFormat.LineRecordWriter
-
- write(K, V) - 类 中的方法org.apache.hadoop.mapreduce.RecordWriter
-
Writes a key/value pair.
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
-
Serialize the fields of this object to
out
.
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitIndex
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.mapreduce.TaskID
-
- write(KEYOUT, VALUEOUT) - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
-
Generate an output key/value pair.
- write(int) - 类 中的方法org.apache.hadoop.net.SocketOutputStream
-
- write(byte[], int, int) - 类 中的方法org.apache.hadoop.net.SocketOutputStream
-
- write(ByteBuffer) - 类 中的方法org.apache.hadoop.net.SocketOutputStream
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.record.Record
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.security.authorize.AccessControlList
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.security.Credentials
-
Stores all the keys to DataOutput
- write(int) - 类 中的方法org.apache.hadoop.security.SaslOutputStream
-
Writes the specified byte to this output stream.
- write(byte[]) - 类 中的方法org.apache.hadoop.security.SaslOutputStream
-
Writes
b.length
bytes from the specified byte array to this
output stream.
- write(byte[], int, int) - 类 中的方法org.apache.hadoop.security.SaslOutputStream
-
Writes
len
bytes from the specified byte array starting at
offset off
to this output stream.
- write(DataOutput) - 枚举 中的方法org.apache.hadoop.security.SaslRpcServer.AuthMethod
-
Write to out
- write(DataOutput) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.security.token.delegation.DelegationKey
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.security.token.Token
-
Serialize the fields of this object to
out
.
- write(T) - 类 中的方法org.apache.hadoop.tools.rumen.JsonObjectMapperWriter
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
- write(Object) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a Java object as a typed bytes sequence.
- write(Writable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.util.bloom.DynamicBloomFilter
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.util.bloom.Filter
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.util.bloom.Key
-
- write(DataOutput) - 类 中的方法org.apache.hadoop.util.bloom.RetouchedBloomFilter
-
- WRITE_TIMEOUT - 接口 中的静态变量org.apache.hadoop.hdfs.server.common.HdfsConstants
-
- WRITE_TIMEOUT_EXTENSION - 接口 中的静态变量org.apache.hadoop.hdfs.server.common.HdfsConstants
-
- writeAll() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
-
Write all data storage files.
- writeArray(ArrayWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
- writeBool(boolean, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
-
- writeBool(boolean, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
-
- writeBool(boolean, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
-
Write a boolean to serialized record.
- writeBool(boolean, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
-
- writeBool(boolean) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a boolean as a typed bytes sequence.
- writeBool(boolean, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
- writeBoolean(BooleanWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
- writeBuffer(Buffer, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
-
- writeBuffer(Buffer, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
-
- writeBuffer(Buffer, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
-
Write a buffer to serialized record.
- writeBuffer(Buffer, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
-
- writeBuffer(Buffer, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
- writeByte(byte, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
-
- writeByte(byte, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
-
- writeByte(byte, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
-
Write a byte to serialized record.
- writeByte(byte, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
-
- writeByte(byte) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a byte as a typed bytes sequence.
- writeByte(byte, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
- writeByte(ByteWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
- writeBytes(byte[], int) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a bytes array as a typed bytes sequence, using a given typecode.
- writeBytes(byte[]) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a bytes array as a typed bytes sequence.
- writeBytes(BytesWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
- writeChunk(byte[], int, int, byte[]) - 类 中的方法org.apache.hadoop.fs.FSOutputSummer
-
- writeCommand(String, FileSystem, Path) - 类 中的静态方法org.apache.hadoop.mapred.TaskController
-
- writeCompressed(DataOutput) - 类 中的方法org.apache.hadoop.io.CompressedWritable
-
Subclasses implement this instead of
CompressedWritable.write(DataOutput)
.
- writeCompressedByteArray(DataOutput, byte[]) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
- writeCompressedBytes(DataOutputStream) - 接口 中的方法org.apache.hadoop.io.SequenceFile.ValueBytes
-
Write compressed bytes to outStream.
- writeCompressedBytes(DataOutputStream) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- writeCompressedBytes(DataOutputStream) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- writeCompressedString(DataOutput, String) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
- writeCompressedStringArray(DataOutput, String[]) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
- writeCorruptedData(RandomAccessFile) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
-
- writeDouble(double, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
-
- writeDouble(double, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
-
- writeDouble(double, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
-
Write a double precision floating point number to serialized record.
- writeDouble(double, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
-
- writeDouble(double) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a double as a typed bytes sequence.
- writeDouble(double, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
- writeDouble(DoubleWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
- writeEnum(DataOutput, Enum<?>) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
writes String value of enum to DataOutput.
- writeFile(SequenceFile.Sorter.RawKeyValueIterator, SequenceFile.Writer) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Writes records from RawKeyValueIterator into a file represented by the
passed writer
- writeFloat(float, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
-
- writeFloat(float, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
-
- writeFloat(float, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
-
Write a single-precision float to serialized record.
- writeFloat(float, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
-
- writeFloat(float) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a float as a typed bytes sequence.
- writeFloat(float, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
- writeFloat(FloatWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
- writeHeader(DataOutputStream) - 类 中的方法org.apache.hadoop.util.DataChecksum
-
Writes the checksum header to the output stream out.
- writeInt(int, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
-
- writeInt(int, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
-
- writeInt(int, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
-
Write an integer to serialized record.
- writeInt(int, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
-
- writeInt(int) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes an integer as a typed bytes sequence.
- writeInt(int, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
- writeInt(IntWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
- writeKey(OutputStream) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Writing the key to the output stream.
- writeKey(K) - 类 中的方法org.apache.hadoop.streaming.io.InputWriter
-
Writes an input key.
- writeKey(Writable) - 类 中的方法org.apache.hadoop.streaming.io.RawBytesInputWriter
-
- writeKey(Object) - 类 中的方法org.apache.hadoop.streaming.io.TextInputWriter
-
- writeKey(Object) - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesInputWriter
-
- writeList(List) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a list as a typed bytes sequence.
- writeListFooter() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a list footer.
- writeListHeader() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a list header.
- writeLocalJobFile(Path, JobConf) - 类 中的静态方法org.apache.hadoop.mapred.JobLocalizer
-
Write the task specific job-configuration file.
- writeLong(long, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
-
- writeLong(long, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
-
- writeLong(long, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
-
Write a long integer to serialized record.
- writeLong(long, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
-
- writeLong(long) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a long as a typed bytes sequence.
- writeLong(long, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
- writeLong(LongWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
- writeMap(Map) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a map as a typed bytes sequence.
- writeMap(MapWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
- writeMapHeader(int) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a map header.
- writeObject(DataOutput, Object, Class, Configuration) - 类 中的静态方法org.apache.hadoop.io.ObjectWritable
-
- writePartitionFile(JobConf, Path) - 类 中的静态方法org.apache.hadoop.examples.terasort.TeraInputFormat
-
Use the input splits to take samples of the input and generate sample
keys.
- writePartitionFile(JobConf, InputSampler.Sampler<K, V>) - 类 中的静态方法org.apache.hadoop.mapred.lib.InputSampler
-
Write a partition file for the given job, using the Sampler provided.
- writePartitionFile(Job, InputSampler.Sampler<K, V>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.InputSampler
-
Write a partition file for the given job, using the Sampler provided.
- writeRAMFiles(DataOutput, RAMDirectory, String[]) - 类 中的静态方法org.apache.hadoop.contrib.index.lucene.RAMDirectoryUtil
-
Write a number of files from a ram directory to a data output.
- writeRaw(byte[]) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a raw sequence of typed bytes.
- writeRaw(byte[], int, int) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a raw sequence of typed bytes.
- writeRecord(Record) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
- writeSortedMap(SortedMapWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
- writeString(DataOutput, String) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
-
Write a String as a VInt n, followed by n Bytes as in Text format.
- writeString(DataOutput, String) - 类 中的静态方法org.apache.hadoop.io.Text
-
Write a UTF8 encoded string to out
- writeString(DataOutput, String) - 类 中的静态方法org.apache.hadoop.io.UTF8
-
已过时。
Write a UTF-8 encoded string.
- writeString(DataOutput, String) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
- writeString(String, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
-
- writeString(String, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
-
- writeString(String, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
-
Write a unicode string to serialized record.
- writeString(String, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
-
- writeString(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a string as a typed bytes sequence.
- writeString(String, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
- writeStringArray(DataOutput, String[]) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
- writeText(Text) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
- writeTo(OpenEntity, Class<?>, Type, Annotation[], MediaType, MultivaluedMap<String, Object>, OutputStream) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.OpenEntity.Writer
-
- writeTo(OutputStream) - 类 中的方法org.apache.hadoop.io.DataOutputBuffer
-
Write to a file stream
- writeToBlock(Block, boolean, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Start writing to a block file
If isRecovery is true and the block pre-exists, then we kill all
volumeMap.put(b, v);
volumeMap.put(b, v);
other threads that might be writing to this block, and then reopen the file.
- writeToBlock(Block, boolean, boolean) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Creates the block and returns output streams to write data and CRC
- writeTokenStorageFile(Path, Configuration) - 类 中的方法org.apache.hadoop.security.Credentials
-
- writeTokenStorageToStream(DataOutputStream) - 类 中的方法org.apache.hadoop.security.Credentials
-
- writeTypedBytes(TypedBytesWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
- writeUncompressedBytes(DataOutputStream) - 接口 中的方法org.apache.hadoop.io.SequenceFile.ValueBytes
-
Writes the uncompressed bytes to the outStream.
- writeUncompressedBytes(DataOutputStream) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- writeUncompressedBytes(DataOutputStream) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- writeValue(OutputStream) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Writing the value to the output stream.
- writeValue(V) - 类 中的方法org.apache.hadoop.streaming.io.InputWriter
-
Writes an input value.
- writeValue(Writable) - 类 中的方法org.apache.hadoop.streaming.io.RawBytesInputWriter
-
- writeValue(Object) - 类 中的方法org.apache.hadoop.streaming.io.TextInputWriter
-
- writeValue(Object) - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesInputWriter
-
- writeValue(DataOutputStream, boolean) - 类 中的方法org.apache.hadoop.util.DataChecksum
-
Writes the current checksum to the stream.
- writeValue(byte[], int, boolean) - 类 中的方法org.apache.hadoop.util.DataChecksum
-
Writes the current checksum to a buffer.
- writeVector(ArrayList) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a vector as a typed bytes sequence.
- writeVectorHeader(int) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Writes a vector header.
- writeVInt(DataOutput, int) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
-
Encoding an integer into a variable-length encoding format.
- writeVInt(DataOutput, int) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
Serializes an integer to a binary stream with zero-compressed encoding.
- writeVInt(DataOutput, int) - 类 中的静态方法org.apache.hadoop.record.Utils
-
Serializes an int to a binary stream with zero-compressed encoding.
- writeVInt(VIntWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
- writeVLong(DataOutput, long) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
-
Encoding a Long integer into a variable-length encoding format.
- writeVLong(DataOutput, long) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
Serializes a long to a binary stream with zero-compressed encoding.
- writeVLong(DataOutput, long) - 类 中的静态方法org.apache.hadoop.record.Utils
-
Serializes a long to a binary stream with zero-compressed encoding.
- writeVLong(VLongWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
- writeWritable(Writable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
- writeXml(OutputStream) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Write out the non-default properties in this configuration to the given
OutputStream
.
- writeXml(Writer) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Write out the non-default properties in this configuration to the given
Writer
.
- WWW_AUTHENTICATE - 类 中的静态变量org.apache.hadoop.security.authentication.client.KerberosAuthenticator
-
HTTP header used by the SPNEGO server endpoint during an authentication sequence.
X
- xceiverCount - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
- xdr_int(int) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
-
已过时。
Puts an integer into the buffer as 4 bytes, big-endian.
- xdr_int(int) - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
-
Puts an integer into the buffer as 4 bytes, big-endian.
- xdr_string(String) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
-
已过时。
Puts a string into the buffer by first writing the size of the string
as an int, followed by the bytes of the string, padded if necessary to
a multiple of 4.
- xdr_string(String) - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
-
Puts a string into the buffer by first writing the size of the string as an
int, followed by the bytes of the string, padded if necessary to a multiple
of 4.
- xmargin - 类 中的静态变量org.apache.hadoop.mapred.TaskGraphServlet
-
margin space on x axis
- XmlRecordInput - org.apache.hadoop.record中的类
-
XML Deserializer.
- XmlRecordInput(InputStream) - 类 的构造器org.apache.hadoop.record.XmlRecordInput
-
Creates a new instance of XmlRecordInput
- XmlRecordOutput - org.apache.hadoop.record中的类
-
XML Serializer.
- XmlRecordOutput(OutputStream) - 类 的构造器org.apache.hadoop.record.XmlRecordOutput
-
Creates a new instance of XmlRecordOutput
- XMLUtils - org.apache.hadoop.util中的类
-
General xml utilities.
- XMLUtils() - 类 的构造器org.apache.hadoop.util.XMLUtils
-
- xor(Filter) - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
-
- xor(Filter) - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
-
- xor(Filter) - 类 中的方法org.apache.hadoop.util.bloom.DynamicBloomFilter
-
- xor(Filter) - 类 中的方法org.apache.hadoop.util.bloom.Filter
-
Peforms a logical XOR between this filter and a specified filter.
Y
- ymargin - 类 中的静态变量org.apache.hadoop.mapred.TaskGraphServlet
-
margin space on y axis
Z
- ZlibCompressor - org.apache.hadoop.io.compress.zlib中的类
-
A
Compressor
based on the popular
zlib compression algorithm.
- ZlibCompressor() - 类 的构造器org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
Creates a new compressor with the default compression level.
- ZlibCompressor(Configuration) - 类 的构造器org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
Creates a new compressor, taking settings from the configuration.
- ZlibCompressor(ZlibCompressor.CompressionLevel, ZlibCompressor.CompressionStrategy, ZlibCompressor.CompressionHeader, int) - 类 的构造器org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
Creates a new compressor using the specified compression level.
- ZlibCompressor.CompressionHeader - org.apache.hadoop.io.compress.zlib中的枚举
-
The type of header for compressed data.
- ZlibCompressor.CompressionLevel - org.apache.hadoop.io.compress.zlib中的枚举
-
The compression level for zlib library.
- ZlibCompressor.CompressionStrategy - org.apache.hadoop.io.compress.zlib中的枚举
-
The compression level for zlib library.
- ZlibDecompressor - org.apache.hadoop.io.compress.zlib中的类
-
A
Decompressor
based on the popular
zlib compression algorithm.
- ZlibDecompressor(ZlibDecompressor.CompressionHeader, int) - 类 的构造器org.apache.hadoop.io.compress.zlib.ZlibDecompressor
-
Creates a new decompressor.
- ZlibDecompressor() - 类 的构造器org.apache.hadoop.io.compress.zlib.ZlibDecompressor
-
- ZlibDecompressor.CompressionHeader - org.apache.hadoop.io.compress.zlib中的枚举
-
The headers to detect from compressed data.
- ZlibFactory - org.apache.hadoop.io.compress.zlib中的类
-
A collection of factories to create the right
zlib/gzip compressor/decompressor instances.
- ZlibFactory() - 类 的构造器org.apache.hadoop.io.compress.zlib.ZlibFactory
-
- ZombieCluster - org.apache.hadoop.tools.rumen中的类
-
ZombieCluster
rebuilds the cluster topology using the information
obtained from job history logs.
- ZombieCluster(LoggedNetworkTopology, MachineNode) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieCluster
-
Construct a homogeneous cluster.
- ZombieCluster(Path, MachineNode, Configuration) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieCluster
-
Construct a homogeneous cluster.
- ZombieCluster(InputStream, MachineNode) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieCluster
-
Construct a homogeneous cluster.
- ZombieJob - org.apache.hadoop.tools.rumen中的类
-
- ZombieJob(LoggedJob, ClusterStory, long) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieJob
-
- ZombieJob(LoggedJob, ClusterStory) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieJob
-
- ZombieJobProducer - org.apache.hadoop.tools.rumen中的类
-
Producing
JobStory
s from job trace.
- ZombieJobProducer(Path, ZombieCluster, Configuration) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieJobProducer
-
Constructor
- ZombieJobProducer(Path, ZombieCluster, Configuration, long) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieJobProducer
-
Constructor
- ZombieJobProducer(InputStream, ZombieCluster) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieJobProducer
-
Constructor
- ZombieJobProducer(InputStream, ZombieCluster, long) - 类 的构造器org.apache.hadoop.tools.rumen.ZombieJobProducer
-
Constructor
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
Copyright © 2009 The Apache Software Foundation