- CACHE_ARCHIVES - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
-
- CACHE_ARCHIVES_SIZES - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
-
- CACHE_ARCHIVES_TIMESTAMPS - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
-
- CACHE_ARCHIVES_VISIBILITIES - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
-
- CACHE_FILE_VISIBILITIES - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
-
- CACHE_FILES - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
-
- CACHE_FILES_SIZES - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
-
- CACHE_FILES_TIMESTAMPS - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
-
- CACHE_LOCALARCHIVES - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
-
- CACHE_LOCALFILES - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
-
- CACHE_SYMLINK - 类 中的静态变量org.apache.hadoop.filecache.DistributedCache
-
- cacheArchives - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- CachedDNSToSwitchMapping - org.apache.hadoop.net中的类
-
A cached implementation of DNSToSwitchMapping that takes an
raw DNSToSwitchMapping and stores the resolved network location in
a cache.
- CachedDNSToSwitchMapping(DNSToSwitchMapping) - 类 的构造器org.apache.hadoop.net.CachedDNSToSwitchMapping
-
- cacheFiles - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- cacheGroupsAdd(List<String>) - 类 中的方法org.apache.hadoop.security.Groups
-
- cacheGroupsAdd(List<String>) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsMapping
-
- cacheGroupsAdd(List<String>) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback
-
- cacheGroupsAdd(List<String>) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMapping
-
- cacheGroupsAdd(List<String>) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMappingWithFallback
-
- cacheGroupsAdd(List<String>) - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsMapping
-
- cacheGroupsAdd(List<String>) - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
-
- cacheGroupsRefresh() - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsMapping
-
- cacheGroupsRefresh() - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback
-
- cacheGroupsRefresh() - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMapping
-
- cacheGroupsRefresh() - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMappingWithFallback
-
- cacheGroupsRefresh() - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsMapping
-
- cacheGroupsRefresh() - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
-
- cacheNetgroup(String) - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
-
- call(Writable, InetSocketAddress) - 类 中的方法org.apache.hadoop.ipc.Client
-
- call(Writable, InetSocketAddress, UserGroupInformation) - 类 中的方法org.apache.hadoop.ipc.Client
-
- call(Writable, InetSocketAddress, Class<?>, UserGroupInformation, int) - 类 中的方法org.apache.hadoop.ipc.Client
-
- call(Writable, InetSocketAddress, Class<?>, UserGroupInformation, int, Configuration) - 类 中的方法org.apache.hadoop.ipc.Client
-
Make a call, passing param
, to the IPC server running at
address
which is servicing the protocol
protocol,
with the ticket
credentials, rpcTimeout
as timeout
and conf
as configuration for this connection, returning the
value.
- call(Writable, Client.ConnectionId) - 类 中的方法org.apache.hadoop.ipc.Client
-
Make a call, passing param
, to the IPC server defined by
remoteId
, returning the value.
- call(Writable[], InetSocketAddress[]) - 类 中的方法org.apache.hadoop.ipc.Client
-
- call(Writable[], InetSocketAddress[], Class<?>, UserGroupInformation) - 类 中的方法org.apache.hadoop.ipc.Client
-
- call(Writable[], InetSocketAddress[], Class<?>, UserGroupInformation, Configuration) - 类 中的方法org.apache.hadoop.ipc.Client
-
Makes a set of calls in parallel.
- call(Method, Object[][], InetSocketAddress[], Configuration) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
- call(Method, Object[][], InetSocketAddress[], UserGroupInformation, Configuration) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Expert: Make multiple, parallel calls to a set of servers.
- call(Class<?>, Writable, long) - 类 中的方法org.apache.hadoop.ipc.RPC.Server
-
- call(Writable, long) - 类 中的方法org.apache.hadoop.ipc.Server
-
- call(Class<?>, Writable, long) - 类 中的方法org.apache.hadoop.ipc.Server
-
Called for each call.
- camelize(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Convert SOME_STUFF to SomeStuff
- cancel(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.Renewer
-
- cancel(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem.TokenManager
-
- cancel(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem.DtRenewer
-
- cancel() - 接口 中的方法org.apache.hadoop.io.ReadaheadPool.ReadaheadRequest
-
Cancels the request for readahead.
- cancel(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.mapred.JobClient.Renewer
-
- cancel(Configuration) - 类 中的方法org.apache.hadoop.security.token.Token
-
Cancel this delegation token
- cancel(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.security.token.Token.TrivialRenewer
-
- cancel(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.security.token.TokenRenewer
-
Cancel the given token
- cancelAllReservations() - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
-
Cleanup when the
TaskTracker
is declared as 'lost/blacklisted'
by the JobTracker.
- cancelDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
已过时。
Use Token.cancel instead.
- cancelDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
已过时。
Use Token.cancel instead.
- cancelDelegationToken(Token<DelegationTokenIdentifier>) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Cancel an existing delegation token.
- cancelDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- cancelDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- cancelDelegationToken(String, InetSocketAddress, Token<DelegationTokenIdentifier>, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DelegationTokenFetcher
-
Cancel a Delegation Token.
- cancelDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Cancel a delegation token from the JobTracker
- cancelDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Discard a current delegation token.
- cancelDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- CancelDelegationTokenServlet - org.apache.hadoop.hdfs.server.namenode中的类
-
Cancel delegation tokens over http for use in hftp.
- CancelDelegationTokenServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.CancelDelegationTokenServlet
-
- cancelToken(Token<TokenIdent>, String) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
Cancel a token by removing it from cache.
- canCommit(TaskAttemptID, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
Child checking whether it can commit
- canCommit(TaskAttemptID, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
-
Polling to know whether the task can go-ahead with commit
- canParse(InputStream) - 类 中的静态方法org.apache.hadoop.tools.rumen.Hadoop20JHParser
-
Can this parser parse the input?
- capacity - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
- capitalize(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Capitalize a word
- captureDebugOut(List<String>, File) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
Wrap a command in a shell to capture debug script's
stdout and stderr to debugout.
- captureOutAndError(List<String>, File, File, long) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
Wrap a command in a shell to capture stdout and stderr to files.
- captureOutAndError(List<String>, List<String>, File, File, long) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
Wrap a command in a shell to capture stdout and stderr to files.
- captureOutAndError(List<String>, List<String>, File, File, long, String) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
已过时。
pidFiles are no more used. Instead pid is exported to
env variable JVM_PID.
- captureOutAndError(List<String>, List<String>, File, File, long, boolean, String) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
已过时。
pidFiles are no more used. Instead pid is exported to
env variable JVM_PID.
- captureOutAndError(List<String>, List<String>, File, File, long, boolean) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
Wrap a command in a shell to capture stdout and stderr to files.
- CBZip2InputStream - org.apache.hadoop.io.compress.bzip2中的类
-
An input stream that decompresses from the BZip2 format (without the file
header chars) to be read as any other stream.
- CBZip2InputStream(InputStream, SplittableCompressionCodec.READ_MODE) - 类 的构造器org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
-
Constructs a new CBZip2InputStream which decompresses bytes read from the
specified stream.
- CBZip2InputStream(InputStream) - 类 的构造器org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
-
- CBZip2InputStream.STATE - org.apache.hadoop.io.compress.bzip2中的枚举
-
A state machine to keep track of current state of the de-coder
- CBZip2OutputStream - org.apache.hadoop.io.compress.bzip2中的类
-
An output stream that compresses into the BZip2 format (without the file
header chars) into another stream.
- CBZip2OutputStream(OutputStream) - 类 的构造器org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
Constructs a new CBZip2OutputStream with a blocksize of 900k.
- CBZip2OutputStream(OutputStream, int) - 类 的构造器org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
Constructs a new CBZip2OutputStream with specified blocksize.
- CDFPiecewiseLinearRandomGenerator - org.apache.hadoop.tools.rumen中的类
-
- CDFPiecewiseLinearRandomGenerator(LoggedDiscreteCDF) - 类 的构造器org.apache.hadoop.tools.rumen.CDFPiecewiseLinearRandomGenerator
-
- CDFPiecewiseLinearRandomGenerator(LoggedDiscreteCDF, long) - 类 的构造器org.apache.hadoop.tools.rumen.CDFPiecewiseLinearRandomGenerator
-
- CDFRandomGenerator - org.apache.hadoop.tools.rumen中的类
-
An instance of this class generates random values that confirm to the
embedded
LoggedDiscreteCDF
.
- ChainMapper - org.apache.hadoop.mapred.lib中的类
-
The ChainMapper class allows to use multiple Mapper classes within a single
Map task.
- ChainMapper() - 类 的构造器org.apache.hadoop.mapred.lib.ChainMapper
-
Constructor.
- ChainReducer - org.apache.hadoop.mapred.lib中的类
-
The ChainReducer class allows to chain multiple Mapper classes after a
Reducer within the Reducer task.
- ChainReducer() - 类 的构造器org.apache.hadoop.mapred.lib.ChainReducer
-
Constructor.
- changed() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutable
-
- charAt(int) - 类 中的方法org.apache.hadoop.io.Text
-
Returns the Unicode Scalar Value (32-bit integer value)
for the character at position
.
- checkAccess(BlockTokenIdentifier, String, Block, BlockTokenSecretManager.AccessMode) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
-
Check if access should be allowed. userID is not checked if null.
- checkAccess(Token<BlockTokenIdentifier>, String, Block, BlockTokenSecretManager.AccessMode) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
-
Check if access should be allowed. userID is not checked if null
- checkArg(T, boolean, Object) - 类 中的静态方法org.apache.hadoop.metrics2.util.Contracts
-
Check an argument for false conditions
- checkArg(int, boolean, Object) - 类 中的静态方法org.apache.hadoop.metrics2.util.Contracts
-
Check an argument for false conditions
- checkArg(long, boolean, Object) - 类 中的静态方法org.apache.hadoop.metrics2.util.Contracts
-
Check an argument for false conditions
- checkArg(float, boolean, Object) - 类 中的静态方法org.apache.hadoop.metrics2.util.Contracts
-
Check an argument for false conditions
- checkArg(double, boolean, Object) - 类 中的静态方法org.apache.hadoop.metrics2.util.Contracts
-
Check an argument for false conditions
- checkDataDir() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
check if a data directory is healthy
if some volumes failed - make sure to remove all the blocks that belong
to these volumes
- checkDataDir() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Check if all the data directories are healthy
- checkDir(File) - 类 中的静态方法org.apache.hadoop.util.DiskChecker
-
Create the directory if it doesn't exist and
- checkDir(LocalFileSystem, Path, FsPermission) - 类 中的静态方法org.apache.hadoop.util.DiskChecker
-
Create the local directory if necessary, check permissions and also ensure
it can be read from and written into.
- checkDiskError(Exception) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Check if there is no space in disk
- checkDiskError() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Check if there is a disk failure and if so, handle the error
- checkException(IOException) - 类 中的方法org.apache.hadoop.mapred.ShuffleExceptionTracker
-
Parse the exception to see if it matches the regular expression you
configured.
- checkNotNull(T, Object) - 类 中的静态方法org.apache.hadoop.metrics2.util.Contracts
-
Check that a reference is not null.
- checkOutputSpecs(FileSystem, JobConf) - 类 中的方法org.apache.hadoop.mapred.FileOutputFormat
-
- checkOutputSpecs(FileSystem, JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBOutputFormat
-
Check for validity of the output-specification for the job.
- checkOutputSpecs(FileSystem, JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.NullOutputFormat
-
- checkOutputSpecs(FileSystem, JobConf) - 接口 中的方法org.apache.hadoop.mapred.OutputFormat
-
Check for validity of the output-specification for the job.
- checkOutputSpecs(FileSystem, JobConf) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
-
- checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat
-
- checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
- checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat
-
- checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.LazyOutputFormat
-
- checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.NullOutputFormat
-
- checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
-
- checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputFormat
-
Check for validity of the output-specification for the job.
- checkOutputSpecs(JobContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
-
- checkPath(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Check that a Path belongs to this FileSystem.
- checkPath(Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Check that a Path belongs to this FileSystem.
- checkpoint() - 类 中的方法org.apache.hadoop.fs.Trash
-
Create a trash checkpoint.
- CheckpointSignature - org.apache.hadoop.hdfs.server.namenode中的类
-
A unique signature intended to identify checkpoint transactions.
- checkpointTime - 类 中的变量org.apache.hadoop.hdfs.server.namenode.FSImage
-
- checkRestart() - 类 中的方法org.apache.hadoop.util.QueueProcessingStatistics
-
- checkState(boolean, Object) - 类 中的静态方法org.apache.hadoop.metrics2.util.Contracts
-
Check the state expression for false conditions
- checkStream() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
-
- checksum2long(byte[]) - 类 中的静态方法org.apache.hadoop.fs.FSInputChecker
-
Convert a checksum byte array to a long
- CHECKSUM_CRC32 - 类 中的静态变量org.apache.hadoop.util.DataChecksum
-
- CHECKSUM_NULL - 类 中的静态变量org.apache.hadoop.util.DataChecksum
-
- ChecksumDistributedFileSystem - org.apache.hadoop.hdfs中的类
-
An implementation of ChecksumFileSystem over DistributedFileSystem.
- ChecksumDistributedFileSystem() - 类 的构造器org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
-
- ChecksumDistributedFileSystem(InetSocketAddress, Configuration) - 类 的构造器org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
-
已过时。
- ChecksumException - org.apache.hadoop.fs中的异常错误
-
Thrown for checksum errors.
- ChecksumException(String, long) - 异常错误 的构造器org.apache.hadoop.fs.ChecksumException
-
- ChecksumFileSystem - org.apache.hadoop.fs中的类
-
Abstract Checksumed FileSystem.
- ChecksumFileSystem(FileSystem) - 类 的构造器org.apache.hadoop.fs.ChecksumFileSystem
-
- checksumsAreEqual(FileSystem, Path, FileSystem, Path) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
Utility to compare checksums for the paths specified.
- ChecksumUtil - org.apache.hadoop.util中的类
-
- ChecksumUtil() - 类 的构造器org.apache.hadoop.util.ChecksumUtil
-
- checkTGTAndReloginFromKeytab() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Re-login a user from keytab if TGT is expired or is close to expiry.
- checkURIs(URI[], URI[]) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
This method checks if there is a conflict in the fragment names
of the uris.
- checkVersion(Class<? extends VersionedProtocol>, long, VersionedProtocol) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Get server version and then compare it with client version.
- checkVersionUpgradable(int) - 类 中的静态方法org.apache.hadoop.hdfs.server.common.Storage
-
Checks if the upgrade from the given old version is supported.
- chmod(String, String) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Change the permissions on a filename.
- chmod(String, String, boolean) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Change the permissions on a file / directory, recursively, if
needed.
- chmod(String, int) - 类 中的静态方法org.apache.hadoop.io.nativeio.NativeIO
-
Wrapper around chmod(2)
- ChmodParser - org.apache.hadoop.fs.permission中的类
-
Parse a permission mode passed in from a chmod command and apply that
mode against an existing file.
- ChmodParser(String) - 类 的构造器org.apache.hadoop.fs.permission.ChmodParser
-
- chooseBlockSize(long) - 类 中的静态方法org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
Chooses a blocksize based on the given length of the data to compress.
- chooseDatanode(String, String, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Choose a datanode near to the given address.
- chooseLocalNode(DatanodeDescriptor, HashMap<Node, Node>, long, int, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
-
- chooseLocalNode(DatanodeDescriptor, HashMap<Node, Node>, long, int, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyWithNodeGroup
-
choose local node of localMachine as the target.
- chooseLocalRack(DatanodeDescriptor, HashMap<Node, Node>, long, int, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
-
- chooseLocalRack(DatanodeDescriptor, HashMap<Node, Node>, long, int, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyWithNodeGroup
-
- chooseRandom(String, HashMap<Node, Node>, long, int, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
-
- chooseRandom(int, String, HashMap<Node, Node>, long, int, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
-
- chooseRandom(String) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
randomly choose one node from scope
if scope starts with ~, choose one from the all nodes except for the
ones in scope; otherwise, choose one from scope
- chooseRemoteRack(int, DatanodeDescriptor, HashMap<Node, Node>, long, int, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
-
- chooseRemoteRack(int, DatanodeDescriptor, HashMap<Node, Node>, long, int, List<DatanodeDescriptor>, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyWithNodeGroup
-
- chooseReplicaToDelete(FSInodeInfo, Block, short, Collection<DatanodeDescriptor>, Collection<DatanodeDescriptor>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
-
Decide whether deleting the specified replica of the block still makes
the block conform to the configured block placement policy.
- chooseReplicaToDelete(FSInodeInfo, Block, short, Collection<DatanodeDescriptor>, Collection<DatanodeDescriptor>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
-
Decide whether deleting the specified replica of the block still makes
the block conform to the configured block placement policy.
- chooseShardForDelete(DocumentID) - 类 中的方法org.apache.hadoop.contrib.index.example.HashingDistributionPolicy
-
- chooseShardForDelete(DocumentID) - 类 中的方法org.apache.hadoop.contrib.index.example.RoundRobinDistributionPolicy
-
- chooseShardForDelete(DocumentID) - 接口 中的方法org.apache.hadoop.contrib.index.mapred.IDistributionPolicy
-
Choose a shard or all shards to send a delete request.
- chooseShardForInsert(DocumentID) - 类 中的方法org.apache.hadoop.contrib.index.example.HashingDistributionPolicy
-
- chooseShardForInsert(DocumentID) - 类 中的方法org.apache.hadoop.contrib.index.example.RoundRobinDistributionPolicy
-
- chooseShardForInsert(DocumentID) - 接口 中的方法org.apache.hadoop.contrib.index.mapred.IDistributionPolicy
-
Choose a shard to send an insert request.
- chooseTarget(String, int, DatanodeDescriptor, List<DatanodeDescriptor>, HashMap<Node, Node>, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
-
choose numOfReplicas data nodes for writer
to re-replicate a block with size blocksize
If not, return as many as we can.
- chooseTarget(String, int, DatanodeDescriptor, HashMap<Node, Node>, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
-
choose numOfReplicas nodes for writer to replicate
a block with size blocksize
If not, return as many as we can.
- chooseTarget(String, int, DatanodeDescriptor, List<DatanodeDescriptor>, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
-
choose numOfReplicas data nodes for writer
to re-replicate a block with size blocksize
If not, return as many as we can.
- chooseTarget(String, int, DatanodeDescriptor, List<DatanodeDescriptor>, HashMap<Node, Node>, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
-
choose numOfReplicas data nodes for writer
to re-replicate a block with size blocksize
If not, return as many as we can.
- chooseTarget(FSInodeInfo, int, DatanodeDescriptor, List<DatanodeDescriptor>, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
-
choose numOfReplicas data nodes for writer
If not, return as many as we can.
- ClassUtil - org.apache.hadoop.util中的类
-
- ClassUtil() - 类 的构造器org.apache.hadoop.util.ClassUtil
-
- clean(long) - 类 中的方法org.apache.hadoop.mapred.JobHistory.HistoryCleaner
-
- cleanup(Log, Closeable...) - 类 中的静态方法org.apache.hadoop.io.IOUtils
-
Close the Closeable objects and
ignore any
IOException
or
null pointers.
- cleanup() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
-
The default cleanup.
- cleanup(Mapper<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Mapper
-
Called once at the end of the task.
- cleanup(Reducer<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Reducer
-
Called once at the end of the task.
- cleanupJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.FileOutputCommitter
-
已过时。
- cleanupJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
-
- cleanupJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
-
已过时。
- cleanupJob(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
-
已过时。
- cleanupJob(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputCommitter
-
- cleanUpMetrics() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Called when the job is complete
- cleanupProgress() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- cleanupProgress() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get the progress of the job's cleanup-tasks, as a float between 0.0
and 1.0.
- CleanupQueue - org.apache.hadoop.mapred中的类
-
- CleanupQueue() - 类 的构造器org.apache.hadoop.mapred.CleanupQueue
-
Create a singleton path-clean-up queue.
- cleanupStorage() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
Removes all contents of temporary storage.
- cleanupThread - 类 中的变量org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
- cleanUpTokenReferral(Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
-
Remove jobtoken referrals which don't make sense in the context
of the task execution.
- clear() - 类 中的方法org.apache.hadoop.conf.Configuration
-
Clears all keys from the configuration.
- clear() - 类 中的方法org.apache.hadoop.fs.HardLink.LinkStats
-
- clear() - 接口 中的方法org.apache.hadoop.hdfs.util.GSet
-
- clear() - 类 中的方法org.apache.hadoop.hdfs.util.GSetByHashMap
-
- clear() - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
-
- clear() - 类 中的方法org.apache.hadoop.io.MapWritable
- clear() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- clear() - 类 中的方法org.apache.hadoop.io.Text
-
Clear the string to empty.
- clear() - 类 中的方法org.apache.hadoop.mapred.join.ArrayListBackedIterator
-
- clear() - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader.JoinDelegationIterator
-
- clear() - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader.MultiFilterDelegationIterator
-
- clear() - 接口 中的方法org.apache.hadoop.mapred.join.ResetableIterator
-
Close datasources, but do not release internal resources.
- clear() - 类 中的方法org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
-
- clear() - 类 中的方法org.apache.hadoop.mapred.join.StreamBackedIterator
-
- clear() - 类 中的方法org.apache.hadoop.security.NetgroupCache
-
- clear() - 类 中的方法org.apache.hadoop.util.bloom.HashFunction
-
Clears this hash function.
- clear() - 类 中的方法org.apache.hadoop.util.PriorityQueue
-
Removes all entries from the PriorityQueue.
- clearChanged() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutable
-
Clear the changed flag in the snapshot operations
- clearDirectory() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
Clear and re-create storage directory.
- CLEARMASK - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
This constant is accessible by subclasses for historical purposes.
- clearOldUserLogs(Configuration) - 类 中的方法org.apache.hadoop.mapred.UserLogCleaner
-
Clears all the logs in userlogs directory.
- clearOldUserLogs(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
-
Called during TaskTracker restart/re-init.
- clearStatistics() - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
- Client - org.apache.hadoop.ipc中的类
-
A client for an IPC service.
- Client(Class<? extends Writable>, Configuration, SocketFactory) - 类 的构造器org.apache.hadoop.ipc.Client
-
Construct an IPC client whose values are of the given
Writable
class.
- Client(Class<? extends Writable>, Configuration) - 类 的构造器org.apache.hadoop.ipc.Client
-
Construct an IPC client with the default SocketFactory
- ClientDatanodeProtocol - org.apache.hadoop.hdfs.protocol中的接口
-
An client-datanode protocol for block recovery
- ClientProtocol - org.apache.hadoop.hdfs.protocol中的接口
-
- ClientTraceLog - 类 中的静态变量org.apache.hadoop.mapred.TaskTracker
-
- clone(JobConf) - 类 中的方法org.apache.hadoop.contrib.utils.join.TaggedMapOutput
-
- clone(T, Configuration) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
Make a copy of a writable object using serialization to a buffer.
- clone() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- clone() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- clone() - 类 中的方法org.apache.hadoop.record.Buffer
-
- clone() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
- cloneFileAttributes(Path, Path, Progressable) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Clones the attributes (like compression of the input file and creates a
corresponding Writer
- cloneFrom(MachineNode) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
-
Clone the settings from a reference
MachineNode
object.
- cloneInto(Writable, Writable) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
已过时。
use ReflectionUtils.cloneInto instead.
- cloneWritableInto(Writable, Writable) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
-
已过时。
- close() - 类 中的方法org.apache.hadoop.contrib.index.example.IdentityLocalAnalysis
-
- close() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocLocalAnalysis
-
- close() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocRecordReader
-
- close() - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
-
- close() - 类 中的方法org.apache.hadoop.contrib.index.lucene.ShardWriter
-
Close the shard writer.
- close() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateCombiner
-
- close() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateMapper
-
- close() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateReducer
-
- close() - 类 中的方法org.apache.hadoop.contrib.utils.join.ArrayListBackedIterator
-
- close() - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
-
- close() - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
-
- close() - 接口 中的方法org.apache.hadoop.contrib.utils.join.ResetableIterator
-
- close() - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MultiFileLineRecordReader
-
- close() - 类 中的方法org.apache.hadoop.examples.PiEstimator.PiReducer
-
Reduce task done, write output to a file.
- close() - 类 中的方法org.apache.hadoop.examples.SleepJob
-
- close() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
No more filesystem operations are needed.
- close() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
- close() - 类 中的方法org.apache.hadoop.fs.FSDataOutputStream
-
- close() - 类 中的方法org.apache.hadoop.fs.FsShell
-
- close() - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
-
- close() - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
- close() - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- close() - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
-
- close() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Close the file system, abandoning all of the leases and files being
created and close connections to the namenode.
- close() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
Close it down!
- close() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
- close() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
No more filesystem operations are needed.
- close() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- close() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface.BlockInputStreams
- close() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSEditLog
-
Shutdown the file store.
- close() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Close down this file system manager.
- close() - 类 中的方法org.apache.hadoop.hdfs.util.AtomicFileOutputStream
-
- close() - 类 中的方法org.apache.hadoop.io.BloomMapFile.Writer
-
- close() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
-
- close() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
- close() - 类 中的方法org.apache.hadoop.io.compress.CompressionInputStream
-
- close() - 类 中的方法org.apache.hadoop.io.compress.CompressionOutputStream
-
- close() - 类 中的方法org.apache.hadoop.io.compress.CompressorStream
-
- close() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
-
- close() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec.GzipOutputStream
-
- close() - 类 中的方法org.apache.hadoop.io.DefaultStringifier
-
- close() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Close the reader.
- close() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
-
Close the scanner.
- close() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Writer
-
Close the Writer.
- close() - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
Close the map.
- close() - 类 中的方法org.apache.hadoop.io.MapFile.Writer
-
Close the map.
- close() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Close the file.
- close() - 接口 中的方法org.apache.hadoop.io.SequenceFile.Sorter.RawKeyValueIterator
-
closes the iterator so that the underlying streams can be closed
- close() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
-
Close the file.
- close() - 接口 中的方法org.apache.hadoop.io.serializer.Deserializer
-
Close the underlying input stream and clear up any resources.
- close() - 接口 中的方法org.apache.hadoop.io.serializer.Serializer
-
Close the underlying output stream and clear up any resources.
- close() - 接口 中的方法org.apache.hadoop.io.Stringifier
-
Closes this object.
- close() - 类 中的方法org.apache.hadoop.log.metrics.EventCounter
-
- close() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Close the JobClient
.
- close() - 类 中的方法org.apache.hadoop.mapred.join.ArrayListBackedIterator
-
- close() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Close all child RRs.
- close() - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader.JoinDelegationIterator
-
- close() - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader.MultiFilterDelegationIterator
-
- close() - 接口 中的方法org.apache.hadoop.mapred.join.ResetableIterator
-
Close datasources and release resources.
- close() - 类 中的方法org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
-
- close() - 类 中的方法org.apache.hadoop.mapred.join.StreamBackedIterator
-
- close() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
-
Forward close request to proxied RR.
- close() - 类 中的方法org.apache.hadoop.mapred.KeyValueLineRecordReader
-
- close() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorCombiner
-
Do nothing.
- close() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJobBase
-
- close() - 类 中的方法org.apache.hadoop.mapred.lib.ChainMapper
-
Closes the ChainMapper and all the Mappers in the chain.
- close() - 类 中的方法org.apache.hadoop.mapred.lib.ChainReducer
-
Closes the ChainReducer, the Reducer and all the Mappers in the chain.
- close() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
- close() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
-
- close(Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBOutputFormat.DBRecordWriter
-
Close this RecordWriter
to future operations.
- close() - 类 中的方法org.apache.hadoop.mapred.lib.DelegatingMapper
-
- close() - 类 中的方法org.apache.hadoop.mapred.lib.FieldSelectionMapReduce
-
- close() - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Closes all the opened named outputs.
- close() - 类 中的方法org.apache.hadoop.mapred.LineRecordReader
-
- close() - 类 中的方法org.apache.hadoop.mapred.MapReduceBase
-
Default implementation that does nothing.
- close() - 接口 中的方法org.apache.hadoop.mapred.RawKeyValueIterator
-
Closes the iterator so that the underlying streams can be closed.
- close() - 接口 中的方法org.apache.hadoop.mapred.RecordReader
-
- close(Reporter) - 接口 中的方法org.apache.hadoop.mapred.RecordWriter
-
Close this RecordWriter
to future operations.
- close() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
- close() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsTextRecordReader
-
- close() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
-
- close() - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
-
- close() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
Close down the TaskTracker and all its components.
- close(Reporter) - 类 中的方法org.apache.hadoop.mapred.TextOutputFormat.LineRecordWriter
-
- close(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat.DBRecordWriter
-
Close this RecordWriter
to future operations.
- close() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
Close the record reader.
- close() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
- close() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader
-
- close() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
-
- close() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.LineRecordReader
-
- close() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
- close() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
-
- close() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
-
- close(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat.FilterRecordWriter
-
- close() - 类 中的方法org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
-
Closes all the opened outputs.
- close(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.TextOutputFormat.LineRecordWriter
-
- close() - 类 中的方法org.apache.hadoop.mapreduce.RecordReader
-
Close the record reader.
- close(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.RecordWriter
-
Close this RecordWriter
to future operations.
- close() - 类 中的静态方法org.apache.hadoop.mapreduce.security.token.DelegationTokenRenewal
-
removing all tokens renewals
- close() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
-
已过时。
Stops monitoring and also frees any buffered data, returning this
object to its initial state.
- close() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Stops monitoring and frees buffered data, returning this
object to its initial state.
- close() - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
-
已过时。
- close() - 类 中的方法org.apache.hadoop.net.SocketInputStream
-
- close() - 类 中的方法org.apache.hadoop.net.SocketOutputStream
-
- close() - 类 中的方法org.apache.hadoop.security.SaslInputStream
-
Closes this input stream and releases any system resources associated with
the stream.
- close() - 类 中的方法org.apache.hadoop.security.SaslOutputStream
-
Closes this output stream and releases any system resources associated with
this stream.
- close() - 类 中的方法org.apache.hadoop.streaming.PipeMapper
-
- close() - 类 中的方法org.apache.hadoop.streaming.PipeReducer
-
- close() - 类 中的方法org.apache.hadoop.streaming.StreamBaseRecordReader
-
Close this to future operations.
- close() - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicRecordReader
-
Implementation of RecordReader::close().
- close() - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
-
- close() - 类 中的方法org.apache.hadoop.tools.rumen.DefaultInputDemuxer
-
- close() - 类 中的方法org.apache.hadoop.tools.rumen.DefaultOutputter
-
- close() - 类 中的方法org.apache.hadoop.tools.rumen.DeskewedJobTraceReader
-
- close() - 类 中的方法org.apache.hadoop.tools.rumen.Hadoop20JHParser
-
- close() - 类 中的方法org.apache.hadoop.tools.rumen.JsonObjectMapperWriter
-
- close() - 类 中的方法org.apache.hadoop.tools.rumen.RewindableInputStream
-
- close() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJobProducer
-
- close() - 类 中的方法org.apache.hadoop.util.LineReader
-
Close the underlying stream.
- Closeable - org.apache.hadoop.io中的接口
-
已过时。
use java.io.Closeable
- closeAll() - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Close all cached filesystems.
- closeAllForUGI(UserGroupInformation) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Close all cached filesystems for a given UGI.
- closeConnection() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
- closed - 类 中的变量org.apache.hadoop.io.compress.CompressorStream
-
- closed - 类 中的变量org.apache.hadoop.io.compress.DecompressorStream
-
- closeSocket(Socket) - 类 中的静态方法org.apache.hadoop.io.IOUtils
-
- closeStream(Closeable) - 类 中的静态方法org.apache.hadoop.io.IOUtils
-
- closeWriter() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
-
Close the Lucene index writer associated with the intermediate form,
if created.
- clusterMap - 类 中的变量org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
-
- ClusterMetrics - org.apache.hadoop.mapreduce中的类
-
Status information on the current state of the Map-Reduce cluster.
- ClusterMetrics() - 类 的构造器org.apache.hadoop.mapreduce.ClusterMetrics
-
- ClusterMetrics(int, int, int, int, int, int, int, int, int, int, int, int, int) - 类 的构造器org.apache.hadoop.mapreduce.ClusterMetrics
-
- ClusterStatus - org.apache.hadoop.mapred中的类
-
Status information on the current state of the Map-Reduce cluster.
- ClusterStory - org.apache.hadoop.tools.rumen中的接口
-
ClusterStory
represents all configurations of a MapReduce cluster,
including nodes, network topology, and slot configurations.
- ClusterTopologyReader - org.apache.hadoop.tools.rumen中的类
-
- ClusterTopologyReader(Path, Configuration) - 类 的构造器org.apache.hadoop.tools.rumen.ClusterTopologyReader
-
Constructor.
- ClusterTopologyReader(InputStream) - 类 的构造器org.apache.hadoop.tools.rumen.ClusterTopologyReader
-
Constructor.
- cmpcl - 类 中的变量org.apache.hadoop.mapred.join.Parser.Node
-
- code - 枚举 中的变量org.apache.hadoop.security.SaslRpcServer.AuthMethod
-
The code for this method.
- CodeBuffer - org.apache.hadoop.record.compiler中的类
-
A wrapper around StringBuffer that automatically does indentation
- CodecPool - org.apache.hadoop.io.compress中的类
-
A global compressor/decompressor pool used to save and reuse
(possibly native) compression/decompression codecs.
- CodecPool() - 类 的构造器org.apache.hadoop.io.compress.CodecPool
-
- collate(Object[], String) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- collate(List, String) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- collect(Object, TaggedMapOutput, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
-
The subclass can overwrite this method to perform additional filtering
and/or other processing logic before a value is collected.
- collect(K, V) - 接口 中的方法org.apache.hadoop.mapred.OutputCollector
-
Adds a key/value pair to the output.
- collect(K, V) - 类 中的方法org.apache.hadoop.mapred.Task.CombineOutputCollector
-
- collected - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
-
- column - 类 中的变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- combine(Object[], Object[]) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
-
- combine(Object[], TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
- combine(Object[], TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.InnerJoinRecordReader
-
Return true iff the tuple is full (all data sources contain this key).
- combine(Object[], TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader
-
- combine(Object[], TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.OuterJoinRecordReader
-
Emit everything from the collector.
- combine(RawKeyValueIterator, OutputCollector<K, V>) - 类 中的方法org.apache.hadoop.mapred.Task.OldCombinerRunner
-
- COMBINE_CLASS_ATTR - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
-
- CombineFileInputFormat<K,V> - org.apache.hadoop.mapred.lib中的类
-
- CombineFileInputFormat() - 类 的构造器org.apache.hadoop.mapred.lib.CombineFileInputFormat
-
default constructor
- CombineFileInputFormat<K,V> - org.apache.hadoop.mapreduce.lib.input中的类
-
- CombineFileInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
default constructor
- CombineFileRecordReader<K,V> - org.apache.hadoop.mapred.lib中的类
-
A generic RecordReader that can hand out different recordReaders
for each chunk in a
CombineFileSplit
.
- CombineFileRecordReader(JobConf, CombineFileSplit, Reporter, Class<RecordReader<K, V>>) - 类 的构造器org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
A generic RecordReader that can hand out different recordReaders
for each chunk in the CombineFileSplit.
- CombineFileRecordReader<K,V> - org.apache.hadoop.mapreduce.lib.input中的类
-
A generic RecordReader that can hand out different recordReaders
for each chunk in a
CombineFileSplit
.
- CombineFileRecordReader(CombineFileSplit, TaskAttemptContext, Class<? extends RecordReader<K, V>>) - 类 的构造器org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
A generic RecordReader that can hand out different recordReaders
for each chunk in the CombineFileSplit.
- CombineFileSplit - org.apache.hadoop.mapred.lib中的类
-
A sub-collection of input files.
- CombineFileSplit() - 类 的构造器org.apache.hadoop.mapred.lib.CombineFileSplit
-
default constructor
- CombineFileSplit(JobConf, Path[], long[], long[], String[]) - 类 的构造器org.apache.hadoop.mapred.lib.CombineFileSplit
-
- CombineFileSplit(JobConf, Path[], long[]) - 类 的构造器org.apache.hadoop.mapred.lib.CombineFileSplit
-
- CombineFileSplit(CombineFileSplit) - 类 的构造器org.apache.hadoop.mapred.lib.CombineFileSplit
-
Copy constructor
- CombineFileSplit - org.apache.hadoop.mapreduce.lib.input中的类
-
A sub-collection of input files.
- CombineFileSplit() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
default constructor
- CombineFileSplit(Path[], long[], long[], String[]) - 类 的构造器org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
- CombineFileSplit(Path[], long[]) - 类 的构造器org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
- CombineFileSplit(CombineFileSplit) - 类 的构造器org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
Copy constructor
- comCmd_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- COMMA - 类 中的静态变量org.apache.hadoop.util.StringUtils
-
- COMMA_STR - 类 中的静态变量org.apache.hadoop.util.StringUtils
-
- COMMA_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- Command - org.apache.hadoop.fs.shell中的类
-
An abstract class for the execution of a file system command
- Command(Configuration) - 类 的构造器org.apache.hadoop.fs.shell.Command
-
Constructor
- COMMAND_FILE - 类 中的静态变量org.apache.hadoop.mapred.TaskController
-
- CommandFormat - org.apache.hadoop.fs.shell中的类
-
Parse the args of a command and check the format of args.
- CommandFormat(String, int, int, String...) - 类 的构造器org.apache.hadoop.fs.shell.CommandFormat
-
constructor
- commit() - 类 中的方法org.apache.hadoop.security.UserGroupInformation.HadoopLoginModule
-
- commitBlockSynchronization(Block, long, long, boolean, boolean, DatanodeID[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- commitBlockSynchronization(Block, long, long, boolean, boolean, DatanodeID[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Commit block synchronization in lease recovery
- commitBlockSynchronization(Block, long, long, boolean, boolean, DatanodeID[]) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
-
Commit block synchronization in lease recovery
- commitJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.FileOutputCommitter
-
- commitJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
-
For committing job's output after successful job completion.
- commitJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
-
This method implements the new interface by calling the old method.
- commitJob(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
-
Delete the temporary directory, including all of the work directories.
- commitJob(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputCommitter
-
For cleaning up the job's output after job completion.
- commitJob(JobContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.CopyCommitter
-
- commitPending(TaskAttemptID, TaskStatus, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
Task is reporting that it is in commit_pending
and it is waiting for the commit Response
- commitPending(TaskAttemptID, TaskStatus, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
-
Report that the task is complete, but its commit is pending.
- commitTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.FileOutputCommitter
-
- commitTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
-
To promote the task's temporary output to final output location
The task's output is moved to the job's output directory.
- commitTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
-
This method implements the new interface by calling the old method.
- commitTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
-
Move the files from the work directory to the job output directory
- commitTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputCommitter
-
To promote the task's temporary output to final output location
The task's output is moved to the job's output directory.
- committer - 类 中的变量org.apache.hadoop.mapred.Task
-
- CommonConfigurationKeys - org.apache.hadoop.fs中的类
-
This class contains constants for configuration keys used
in the common code.
- CommonConfigurationKeys() - 类 的构造器org.apache.hadoop.fs.CommonConfigurationKeys
-
- comparator() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- COMPARATOR_JCLASS - 类 中的静态变量org.apache.hadoop.io.file.tfile.TFile
-
comparator prefix: java class
- COMPARATOR_MEMCMP - 类 中的静态变量org.apache.hadoop.io.file.tfile.TFile
-
comparator: memcmp
- COMPARATOR_OPTIONS - 类 中的静态变量org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.examples.SecondarySort.FirstGroupingComparator
-
- compare(SecondarySort.IntPair, SecondarySort.IntPair) - 类 中的方法org.apache.hadoop.examples.SecondarySort.FirstGroupingComparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair.Comparator
-
- compare(DatanodeInfo, DatanodeInfo) - 类 中的方法org.apache.hadoop.hdfs.DFSUtil.StaleComparator
-
- compare(long, long) - 类 中的静态方法org.apache.hadoop.hdfs.server.common.GenerationStamp
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.BooleanWritable.Comparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.BytesWritable.Comparator
-
Compare the buffers in serialized form.
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.ByteWritable.Comparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.DoubleWritable.Comparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.FloatWritable.Comparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.IntWritable.Comparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.LongWritable.Comparator
-
- compare(WritableComparable, WritableComparable) - 类 中的方法org.apache.hadoop.io.LongWritable.DecreasingComparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.LongWritable.DecreasingComparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.MD5Hash.Comparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.NullWritable.Comparator
-
Compare the buffers in serialized form.
- compare(byte[], int, int, byte[], int, int) - 接口 中的方法org.apache.hadoop.io.RawComparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.serializer.DeserializerComparator
-
- compare(T, T) - 类 中的方法org.apache.hadoop.io.serializer.JavaSerializationComparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.Text.Comparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.UTF8.Comparator
-
已过时。
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.io.WritableComparator
-
Optimization hook.
- compare(WritableComparable, WritableComparable) - 类 中的方法org.apache.hadoop.io.WritableComparator
-
Compare two WritableComparables.
- compare(Object, Object) - 类 中的方法org.apache.hadoop.io.WritableComparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.mapred.lib.KeyFieldBasedComparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.record.RecordComparator
-
- compare(byte[], int, int, byte[], int, int) - 类 中的方法org.apache.hadoop.tools.Logalyzer.LogComparator
-
- compare(byte[], int) - 类 中的方法org.apache.hadoop.util.DataChecksum
-
Compares the checksum located at buf[offset] with the current checksum.
- compare(int, int) - 接口 中的方法org.apache.hadoop.util.IndexedSortable
-
- compareBytes(byte[], int, int, byte[], int, int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Lexicographic order of binary data.
- compareBytes(byte[], int, int, byte[], int, int) - 类 中的静态方法org.apache.hadoop.record.Utils
-
Lexicographic order of binary data.
- compareFs(FileSystem, FileSystem) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
- compareTo(Object) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentID
-
- compareTo(Object) - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
-
- compareTo(Shard) - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
-
Compare to another shard.
- compareTo(Object) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.WordOffset
-
- compareTo(SecondarySort.IntPair) - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
-
- compareTo(Object) - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Compare this object to another object
- compareTo(Object) - 类 中的方法org.apache.hadoop.fs.Path
-
- compareTo(Block) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
- compareTo(DatanodeID) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
Comparable.
- compareTo(GenerationStamp) - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
- compareTo(Upgradeable) - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeObject
-
- compareTo(CheckpointSignature) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CheckpointSignature
-
- compareTo(BinaryComparable) - 类 中的方法org.apache.hadoop.io.BinaryComparable
-
Compare bytes from {#getBytes()}.
- compareTo(byte[], int, int) - 类 中的方法org.apache.hadoop.io.BinaryComparable
-
Compare bytes from {#getBytes()} to those provided.
- compareTo(Object) - 类 中的方法org.apache.hadoop.io.BooleanWritable
-
- compareTo(Object) - 类 中的方法org.apache.hadoop.io.ByteWritable
-
Compares two ByteWritables.
- compareTo(Object) - 类 中的方法org.apache.hadoop.io.DoubleWritable
-
- compareTo(byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Compare the entry key to another key.
- compareTo(byte[], int, int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Compare the entry key to another key.
- compareTo(RawComparable) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Compare an entry with a RawComparable object.
- compareTo(Utils.Version) - 类 中的方法org.apache.hadoop.io.file.tfile.Utils.Version
-
Compare this version with another version.
- compareTo(Object) - 类 中的方法org.apache.hadoop.io.FloatWritable
-
Compares two FloatWritables.
- compareTo(Object) - 类 中的方法org.apache.hadoop.io.IntWritable
-
Compares two IntWritables.
- compareTo(Object) - 类 中的方法org.apache.hadoop.io.LongWritable
-
Compares two LongWritables.
- compareTo(MD5Hash) - 类 中的方法org.apache.hadoop.io.MD5Hash
-
Compares this object with the specified object for order.
- compareTo(Object) - 类 中的方法org.apache.hadoop.io.NullWritable
-
- compareTo(Object) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
-
- compareTo(UTF8) - 类 中的方法org.apache.hadoop.io.UTF8
-
已过时。
Compare two UTF8s.
- compareTo(Object) - 类 中的方法org.apache.hadoop.io.VIntWritable
-
Compares two VIntWritables.
- compareTo(Object) - 类 中的方法org.apache.hadoop.io.VLongWritable
-
Compares two VLongWritables.
- compareTo(ComposableRecordReader<K, ?>) - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Implement Comparable contract (compare key of join or head of heap
with that of another).
- compareTo(ComposableRecordReader<K, ?>) - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
-
Implement Comparable contract (compare key at head of proxied RR
with that of another).
- compareTo(ID) - 类 中的方法org.apache.hadoop.mapreduce.ID
-
Compare IDs by associated numbers
- compareTo(ID) - 类 中的方法org.apache.hadoop.mapreduce.JobID
-
Compare JobIds by first jtIdentifiers, then by job numbers
- compareTo(ID) - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
-
Compare TaskIds by first tipIds, then by task numbers.
- compareTo(ID) - 类 中的方法org.apache.hadoop.mapreduce.TaskID
-
Compare TaskInProgressIds by first jobIds, then by tip numbers.
- compareTo(Object) - 类 中的方法org.apache.hadoop.record.Buffer
-
Define the sort order of the Buffer.
- compareTo(Object) - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
-
This class doesn't implement Comparable as it's not meant to be used
for anything besides de/serializing.
- compareTo(Object) - 类 中的方法org.apache.hadoop.record.Record
-
- compareTo(Node) - 类 中的方法org.apache.hadoop.tools.rumen.Node
-
- compareTo(Key) - 类 中的方法org.apache.hadoop.util.bloom.Key
-
- compatibleWith(Utils.Version) - 类 中的方法org.apache.hadoop.io.file.tfile.Utils.Version
-
Test compatibility.
- compile(String) - 类 中的静态方法org.apache.hadoop.fs.GlobPattern
-
Compile glob pattern string
- compile(String) - 类 中的方法org.apache.hadoop.metrics2.filter.GlobFilter
-
- compile(String) - 类 中的方法org.apache.hadoop.metrics2.filter.RegexFilter
-
- compiled() - 类 中的方法org.apache.hadoop.fs.GlobPattern
-
- complete(String, String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
The client is done writing data to the given filename, and would
like to complete it.
- complete(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
The client is done writing data to the given filename, and would
like to complete it.
- complete() - 类 中的方法org.apache.hadoop.util.Progress
-
Completes this node, moving the parent node to its next child.
- completedJobs() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- completedTask(TaskInProgress, TaskStatus) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
A taskid assigned to this JobInProgress has reported in successfully.
- completeFile(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- completeLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
- completeLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Called when we're all done writing to the target.
- completeLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Called when we're all done writing to the target.
- completeLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
not implemented.
- completeLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- completeLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- completeTask(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.TaskTrackerMetricsSource
-
- completeUpgrade() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
-
Complete upgrade.
- completeUpgrade() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- completeUpgrade() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.UpgradeObjectDatanode
-
Complete upgrade and return a status complete command for broadcasting.
- ComposableInputFormat<K extends WritableComparable,V extends Writable> - org.apache.hadoop.mapred.join中的接口
-
Refinement of InputFormat requiring implementors to provide
ComposableRecordReader instead of RecordReader.
- ComposableRecordReader<K extends WritableComparable,V extends Writable> - org.apache.hadoop.mapred.join中的接口
-
Additional operations required of a RecordReader to participate in a join.
- compose(Class<? extends InputFormat>, String) - 类 中的静态方法org.apache.hadoop.mapred.join.CompositeInputFormat
-
Convenience method for constructing composite formats.
- compose(String, Class<? extends InputFormat>, String...) - 类 中的静态方法org.apache.hadoop.mapred.join.CompositeInputFormat
-
Convenience method for constructing composite formats.
- compose(String, Class<? extends InputFormat>, Path...) - 类 中的静态方法org.apache.hadoop.mapred.join.CompositeInputFormat
-
Convenience method for constructing composite formats.
- CompositeContext - org.apache.hadoop.metrics.spi中的类
-
已过时。
in favor of org.apache.hadoop.metrics2
usage.
- CompositeContext() - 类 的构造器org.apache.hadoop.metrics.spi.CompositeContext
-
已过时。
- CompositeInputFormat<K extends WritableComparable> - org.apache.hadoop.mapred.join中的类
-
An InputFormat capable of performing joins over a set of data sources sorted
and partitioned the same way.
- CompositeInputFormat() - 类 的构造器org.apache.hadoop.mapred.join.CompositeInputFormat
-
- CompositeInputSplit - org.apache.hadoop.mapred.join中的类
-
This InputSplit contains a set of child InputSplits.
- CompositeInputSplit() - 类 的构造器org.apache.hadoop.mapred.join.CompositeInputSplit
-
- CompositeInputSplit(int) - 类 的构造器org.apache.hadoop.mapred.join.CompositeInputSplit
-
- CompositeRecordReader<K extends WritableComparable,V extends Writable,X extends Writable> - org.apache.hadoop.mapred.join中的类
-
A RecordReader that can effect joins of RecordReaders sharing a common key
type and partitioning.
- CompositeRecordReader(int, int, Class<? extends WritableComparator>) - 类 的构造器org.apache.hadoop.mapred.join.CompositeRecordReader
-
Create a RecordReader with capacity children to position
id in the parent reader.
- compress() - 类 中的方法org.apache.hadoop.io.compress.BlockCompressorStream
-
- compress(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
-
- compress(byte[], int, int) - 接口 中的方法org.apache.hadoop.io.compress.Compressor
-
Fills specified buffer with compressed data.
- compress() - 类 中的方法org.apache.hadoop.io.compress.CompressorStream
-
- compress(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Fills specified buffer with compressed data.
- compress(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInZlibDeflater
-
- compress(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
- compressedValSerializer - 类 中的变量org.apache.hadoop.io.SequenceFile.Writer
-
- CompressedWritable - org.apache.hadoop.io中的类
-
A base-class for Writables which store themselves compressed and lazily
inflate on field access.
- CompressedWritable() - 类 的构造器org.apache.hadoop.io.CompressedWritable
-
- COMPRESSION_GZ - 类 中的静态变量org.apache.hadoop.io.file.tfile.TFile
-
compression: gzip
- COMPRESSION_LZO - 类 中的静态变量org.apache.hadoop.io.file.tfile.TFile
-
compression: lzo
- COMPRESSION_NONE - 类 中的静态变量org.apache.hadoop.io.file.tfile.TFile
-
compression: none
- CompressionCodec - org.apache.hadoop.io.compress中的接口
-
This class encapsulates a streaming compression/decompression pair.
- CompressionCodecFactory - org.apache.hadoop.io.compress中的类
-
A factory that will find the correct codec for a given filename.
- CompressionCodecFactory(Configuration) - 类 的构造器org.apache.hadoop.io.compress.CompressionCodecFactory
-
Find the codecs specified in the config value io.compression.codecs
and register them.
- CompressionInputStream - org.apache.hadoop.io.compress中的类
-
A compression input stream.
- CompressionInputStream(InputStream) - 类 的构造器org.apache.hadoop.io.compress.CompressionInputStream
-
Create a compression input stream that reads
the decompressed bytes from the given stream.
- CompressionOutputStream - org.apache.hadoop.io.compress中的类
-
A compression output stream.
- CompressionOutputStream(OutputStream) - 类 的构造器org.apache.hadoop.io.compress.CompressionOutputStream
-
Create a compression output stream that writes
the compressed bytes to the given stream.
- Compressor - org.apache.hadoop.io.compress中的接口
-
- compressor - 类 中的变量org.apache.hadoop.io.compress.CompressorStream
-
- CompressorStream - org.apache.hadoop.io.compress中的类
-
- CompressorStream(OutputStream, Compressor, int) - 类 的构造器org.apache.hadoop.io.compress.CompressorStream
-
- CompressorStream(OutputStream, Compressor) - 类 的构造器org.apache.hadoop.io.compress.CompressorStream
-
- CompressorStream(OutputStream) - 类 的构造器org.apache.hadoop.io.compress.CompressorStream
-
Allow derived classes to directly set the underlying stream.
- computeCapacity(double, String) - 类 中的静态方法org.apache.hadoop.hdfs.util.LightWeightGSet
-
Let t = percentage of max memory.
- computeDatanodeWork() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Compute block replication and block invalidation work
that can be scheduled on data-nodes.
- computeHash(byte[], SecretKey) - 类 中的静态方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
-
Compute the HMAC hash of the message using the key
- computeSignature(String) - 类 中的方法org.apache.hadoop.security.authentication.util.Signer
-
Returns then signature of a string.
- computeSplitSize(long, long, long) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
-
- computeSplitSize(long, long, long) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
- concat(Path, Path[]) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Concat existing files together.
- concat(Path, Path[]) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
- concat(String, String[]) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
- concat(Path, Path[]) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Move blocks from srcs to trg and delete srcs afterwards.
- concat(String, String[]) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Moves blocks from srcs to trg and delete srcs
- concat(String, String[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Moves blocks from srcs to trg and delete srcs
- concat(Path, Path[]) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- ConcatSourcesParam - org.apache.hadoop.hdfs.web.resources中的类
-
The concat source paths parameter.
- ConcatSourcesParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.ConcatSourcesParam
-
Constructor.
- ConcatSourcesParam(Path[]) - 类 的构造器org.apache.hadoop.hdfs.web.resources.ConcatSourcesParam
-
- conf - 类 中的变量org.apache.hadoop.mapred.SequenceFileRecordReader
-
- conf - 类 中的变量org.apache.hadoop.mapred.Task
-
- conf - 类 中的变量org.apache.hadoop.mapreduce.JobContext
-
- conf - 类 中的变量org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
-
- CONF_CONTEXT_ATTRIBUTE - 类 中的静态变量org.apache.hadoop.http.HttpServer
-
- CONF_FILENAME_REGEX - 类 中的静态变量org.apache.hadoop.mapred.JobHistory
-
- CONF_GROUPS - 类 中的静态变量org.apache.hadoop.security.authorize.ProxyUsers
-
- CONF_HADOOP_PROXYUSER - 类 中的静态变量org.apache.hadoop.security.authorize.ProxyUsers
-
- CONF_HADOOP_PROXYUSER_RE - 类 中的静态变量org.apache.hadoop.security.authorize.ProxyUsers
-
- CONF_LABEL_ATOMIC_COPY - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
Constants mapping to command line switches/input options
- CONF_LABEL_BANDWIDTH_MB - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_COPY_LISTING_CLASS - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_COPY_STRATEGY - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_DELETE_MISSING - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_DISTCP_JOB_ID - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
DistCp job id for consumers of the Disctp
- CONF_LABEL_IGNORE_FAILURES - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_LISTING_FILE_PATH - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_LOG_PATH - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_MAX_MAPS - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_META_FOLDER - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_OVERWRITE - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_PRESERVE_STATUS - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_SKIP_CRC - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_SOURCE_LISTING - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_SSL_CONF - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_SSL_KEY_STORE_LOCATION - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
Conf label for SSL Key-store location.
- CONF_LABEL_SSL_KEYSTORE - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_SSL_TRUST_STORE_LOCATION - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
Conf label for SSL Trust-store location.
- CONF_LABEL_SYNC_FOLDERS - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_TARGET_FINAL_PATH - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_TARGET_WORK_PATH - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_TOTAL_BYTES_TO_BE_COPIED - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_TOTAL_NUMBER_OF_RECORDS - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- CONF_LABEL_WORK_PATH - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
- config_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- CONFIG_PREFIX - 类 中的静态变量org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Constant for the property that specifies the configuration prefix.
- Configurable - org.apache.hadoop.conf中的接口
-
- Configuration - org.apache.hadoop.conf中的类
-
Provides access to configuration parameters.
- Configuration() - 类 的构造器org.apache.hadoop.conf.Configuration
-
A new configuration.
- Configuration(boolean) - 类 的构造器org.apache.hadoop.conf.Configuration
-
A new configuration where the behavior of reading from the default
resources can be turned off.
- Configuration(Configuration) - 类 的构造器org.apache.hadoop.conf.Configuration
-
A new configuration with the same settings cloned from another.
- Configuration.IntegerRanges - org.apache.hadoop.conf中的类
-
A class that represents a set of positive integer ranges.
- Configuration.IntegerRanges() - 类 的构造器org.apache.hadoop.conf.Configuration.IntegerRanges
-
- Configuration.IntegerRanges(String) - 类 的构造器org.apache.hadoop.conf.Configuration.IntegerRanges
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.index.example.IdentityLocalAnalysis
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocLocalAnalysis
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateCombiner
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateMapper
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdatePartitioner
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateReducer
-
- configure(IndexUpdateConfiguration) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
-
Configure using an index update configuration.
- configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
-
Initializes a new instance from a
JobConf
.
- configure(JobConf) - 类 中的方法org.apache.hadoop.examples.dancing.DistributedPentomino.PentMap
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.examples.PiEstimator.PiReducer
-
Store job configuration.
- configure(JobConf) - 类 中的方法org.apache.hadoop.examples.SleepJob
-
- configure(JobConf) - 接口 中的方法org.apache.hadoop.mapred.JobConfigurable
-
Initializes a new instance from a
JobConf
.
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.KeyValueTextInputFormat
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UserDefinedValueAggregatorDescriptor
-
Do nothing.
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
-
get the input file name.
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorCombiner
-
Combiner does not need to configure.
- configure(JobConf) - 接口 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorDescriptor
-
Configure the object
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJobBase
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.BinaryPartitioner
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.ChainMapper
-
Configures the ChainMapper and all the Mappers in the chain.
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.ChainReducer
-
Configures the ChainReducer, the Reducer and all the Mappers in the chain.
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat
-
Initializes a new instance from a
JobConf
.
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.DelegatingMapper
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.FieldSelectionMapReduce
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.HashPartitioner
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.KeyFieldBasedComparator
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.MultithreadedMapRunner
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.NLineInputFormat
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.RegexMapper
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.TotalOrderPartitioner
-
Read in the partition file and build indexing data structures.
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.MapReduceBase
-
Default implementation that does nothing.
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.MapRunner
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.mapred.TextInputFormat
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.streaming.AutoInputFormat
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.streaming.PipeMapper
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.streaming.PipeReducer
-
- configure(JobConf) - 类 中的方法org.apache.hadoop.tools.Logalyzer.LogRegexMapper
-
- Configured - org.apache.hadoop.conf中的类
-
Base class for things that may be configured with a
Configuration
.
- Configured() - 类 的构造器org.apache.hadoop.conf.Configured
-
Construct a Configured.
- Configured(Configuration) - 类 的构造器org.apache.hadoop.conf.Configured
-
Construct a Configured.
- configureDB(JobConf, String, String, String, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.db.DBConfiguration
-
Sets the DB access related fields in the JobConf.
- configureDB(JobConf, String, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.db.DBConfiguration
-
Sets the DB access related fields in the JobConf.
- configureDB(Configuration, String, String, String, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- configureDB(Configuration, String, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
Sets the DB access related fields in the JobConf.
- ConfServlet - org.apache.hadoop.conf中的类
-
A servlet to print out the running configuration data.
- ConfServlet() - 类 的构造器org.apache.hadoop.conf.ConfServlet
-
- ConfServlet.BadFormatException - org.apache.hadoop.conf中的异常错误
-
- ConfServlet.BadFormatException(String) - 异常错误 的构造器org.apache.hadoop.conf.ConfServlet.BadFormatException
-
- connect(long, boolean) - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream.URLOpener
-
Connect to server with a data offset.
- connect(Socket, SocketAddress, int) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
- connect(Socket, SocketAddress, SocketAddress, int) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
- considerLoad - 类 中的变量org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyDefault
-
- construct(ZlibCompressor.CompressionLevel, ZlibCompressor.CompressionStrategy, ZlibCompressor.CompressionHeader, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
- constructQuery(String, String[]) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBOutputFormat
-
Constructs the query used as the prepared statement to insert data.
- constructQuery(String, String[]) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat
-
Constructs the query used as the prepared statement to insert data.
- Consts - org.apache.hadoop.record.compiler中的类
-
const definitions for Record I/O compiler
- contains(K) - 接口 中的方法org.apache.hadoop.hdfs.util.GSet
-
Does this set contain an element corresponding to the given key?
- contains(K) - 类 中的方法org.apache.hadoop.hdfs.util.GSetByHashMap
-
- contains(K) - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
-
- contains(Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Check if the tree contains node node
- containsAll(AbstractMetricsContext.TagMap) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext.TagMap
-
已过时。
Returns true if this tagmap contains every tag in other.
- containsKey(Object) - 类 中的方法org.apache.hadoop.io.MapWritable
- containsKey(Object) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- containsValue(Object) - 类 中的方法org.apache.hadoop.io.MapWritable
- containsValue(Object) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- CONTENT_LENGTH - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.StreamFile
-
- ContentSummary - org.apache.hadoop.fs中的类
-
Store the summary of a content (a directory or a file).
- ContentSummary() - 类 的构造器org.apache.hadoop.fs.ContentSummary
-
Constructor
- ContentSummary(long, long, long) - 类 的构造器org.apache.hadoop.fs.ContentSummary
-
Constructor
- ContentSummary(long, long, long, long, long, long) - 类 的构造器org.apache.hadoop.fs.ContentSummary
-
Constructor
- ContentSummaryServlet - org.apache.hadoop.hdfs.server.namenode中的类
-
Servlets for file checksum
- ContentSummaryServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.ContentSummaryServlet
-
- context - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
- context() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsRecordImpl
-
- context() - 接口 中的方法org.apache.hadoop.metrics2.MetricsRecord
-
Get the context name of the metrics
- CONTEXT_DESC - 类 中的静态变量org.apache.hadoop.metrics2.lib.MetricsRegistry
-
description for the context tag
- CONTEXT_KEY - 类 中的静态变量org.apache.hadoop.metrics2.impl.MetricsRecordImpl
-
- CONTEXT_KEY - 类 中的静态变量org.apache.hadoop.metrics2.lib.MetricsRegistry
-
key for the context tag
- ContextFactory - org.apache.hadoop.metrics中的类
-
已过时。
in favor of org.apache.hadoop.metrics2
usage.
- ContextFactory() - 类 的构造器org.apache.hadoop.metrics.ContextFactory
-
已过时。
Creates a new instance of ContextFactory
- Contracts - org.apache.hadoop.metrics2.util中的类
-
Utilities for programming by contract (preconditions, postconditions etc.)
- ControlledJob - org.apache.hadoop.mapreduce.lib.jobcontrol中的类
-
This class encapsulates a MapReduce job and its dependency.
- ControlledJob(Job, List<ControlledJob>) - 类 的构造器org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
Construct a job.
- ControlledJob(Configuration) - 类 的构造器org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
Construct a job.
- ControlledJob.State - org.apache.hadoop.mapreduce.lib.jobcontrol中的枚举
-
- convertToArrayLongs(Block[]) - 类 中的静态方法org.apache.hadoop.hdfs.protocol.BlockListAsLongs
-
Converting a block[] to a long[]
- convertToByteStream(Checksum, int) - 类 中的静态方法org.apache.hadoop.fs.FSOutputSummer
-
Converts a checksum integer value to a byte stream
- COOKIE_DOMAIN - 类 中的静态变量org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Constant for the configuration property that indicates the domain to use in the HTTP cookie.
- COOKIE_PATH - 类 中的静态变量org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Constant for the configuration property that indicates the path to use in the HTTP cookie.
- copy(FileSystem, Path, FileSystem, Path, boolean, Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Copy files between FileSystems.
- copy(FileSystem, Path[], FileSystem, Path, boolean, boolean, Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
- copy(FileSystem, Path, FileSystem, Path, boolean, boolean, Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Copy files between FileSystems.
- copy(File, FileSystem, Path, boolean, Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Copy local files to a FileSystem.
- copy(FileSystem, Path, File, boolean, Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Copy FileSystem files to local files.
- copy(Writable) - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
-
Used by child copy constructors.
- copy(byte[], int, int) - 类 中的方法org.apache.hadoop.record.Buffer
-
Copy the specified byte array to the Buffer.
- copy(Configuration, String, String, Path, boolean, boolean) - 类 中的静态方法org.apache.hadoop.tools.DistCp
-
已过时。
- copy(Configuration, T, T) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
-
Make a copy of the writable object using serialization to a buffer
- copyBytes(InputStream, OutputStream, int, boolean) - 类 中的静态方法org.apache.hadoop.io.IOUtils
-
Copies from one stream to another.
- copyBytes(InputStream, OutputStream, int) - 类 中的静态方法org.apache.hadoop.io.IOUtils
-
Copies from one stream to another.
- copyBytes(InputStream, OutputStream, Configuration) - 类 中的静态方法org.apache.hadoop.io.IOUtils
-
Copies from one stream to another.
- copyBytes(InputStream, OutputStream, Configuration, boolean) - 类 中的静态方法org.apache.hadoop.io.IOUtils
-
Copies from one stream to another.
- copyBytes(InputStream, OutputStream, long, int, boolean) - 类 中的静态方法org.apache.hadoop.io.IOUtils
-
Copies the specified length of bytes from in to out.
- CopyCommitter - org.apache.hadoop.tools.distcp2.mapred中的类
-
The CopyCommitter class is DistCp's OutputCommitter implementation.
- CopyCommitter(Path, TaskAttemptContext) - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.CopyCommitter
-
Create a output committer
- copyFromLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
- copyFromLocalFile(Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
The src file is on the local disk.
- copyFromLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
The src file is on the local disk.
- copyFromLocalFile(boolean, boolean, Path[], Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
The src files are on the local disk.
- copyFromLocalFile(boolean, boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
The src file is on the local disk.
- copyFromLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
The src file is on the local disk.
- copyFromLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
not implemented.
- copyFromLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- copyFromLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.LocalFileSystem
-
- CopyListing - org.apache.hadoop.tools.distcp2中的类
-
The CopyListing abstraction is responsible for how the list of
sources and targets is constructed, for DistCp's copy function.
- CopyListing(Configuration, Credentials) - 类 的构造器org.apache.hadoop.tools.distcp2.CopyListing
-
Protected constructor, to initialize configuration.
- CopyMapper - org.apache.hadoop.tools.distcp2.mapred中的类
-
Mapper class that executes the DistCp copy operation.
- CopyMapper() - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.CopyMapper
-
- CopyMapper.Counter - org.apache.hadoop.tools.distcp2.mapred中的枚举
-
Hadoop counters for the DistCp CopyMapper.
- copyMerge(FileSystem, Path, FileSystem, Path, boolean, Configuration, String) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Copy all files in a directory to one output file (merge).
- CopyOutputFormat<K,V> - org.apache.hadoop.tools.distcp2.mapred中的类
-
The CopyOutputFormat is the Hadoop OutputFormat used in DistCp.
- CopyOutputFormat() - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
-
- copyTo(SampleStat) - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
-
Copy the values to other (saves object creation and gc.)
- copyToLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
The src file is under FS, and the dst is on the local disk.
- copyToLocalFile(Path, Path, boolean) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
The src file is under FS, and the dst is on the local disk.
- copyToLocalFile(Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
The src file is under FS, and the dst is on the local disk.
- copyToLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
The src file is under FS, and the dst is on the local disk.
- copyToLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
The src file is under FS, and the dst is on the local disk.
- copyToLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
copies the file in the har filesystem to a local file.
- copyToLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- copyToLocalFile(boolean, Path, Path) - 类 中的方法org.apache.hadoop.fs.LocalFileSystem
-
- CORRUPT_STATUS - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.NamenodeFsck
-
- corruptPreUpgradeStorage(File) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
-
- corruptPreUpgradeStorage(File) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataStorage
-
- corruptPreUpgradeStorage(File) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
- corruptReplicas - 类 中的变量org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- CorruptReplicasMap - org.apache.hadoop.hdfs.server.namenode中的类
-
Stores information about all corrupt blocks in the File System.
- CorruptReplicasMap() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.CorruptReplicasMap
-
- Count - org.apache.hadoop.fs.shell中的类
-
Count the number of directories, files, bytes, quota, and remaining quota.
- Count(String[], int, Configuration) - 类 的构造器org.apache.hadoop.fs.shell.Count
-
Constructor
- count - 异常错误 中的变量org.apache.hadoop.hdfs.protocol.QuotaExceededException
-
- countCounters() - 类 中的方法org.apache.hadoop.mapreduce.Counters
-
Returns the total number of counters, by summing the number of counters
in each group.
- countDirs - 类 中的变量org.apache.hadoop.fs.HardLink.LinkStats
-
- countEmptyDirs - 类 中的变量org.apache.hadoop.fs.HardLink.LinkStats
-
- Counter - org.apache.hadoop.mapreduce中的类
-
A named counter that tracks the progress of a map/reduce job.
- Counter() - 类 的构造器org.apache.hadoop.mapreduce.Counter
-
- Counter(String, String) - 类 的构造器org.apache.hadoop.mapreduce.Counter
-
- counter(MetricCounter<Integer>, int) - 接口 中的方法org.apache.hadoop.metrics2.MetricsVisitor
-
Callback for integer value counters
- counter(MetricCounter<Long>, long) - 接口 中的方法org.apache.hadoop.metrics2.MetricsVisitor
-
Callback for long value counters
- COUNTER_GROUP - 类 中的静态变量org.apache.hadoop.mapred.SkipBadRecords
-
Special counters which are written by the application and are
used by the framework for detecting bad records.
- COUNTER_MAP_PROCESSED_RECORDS - 类 中的静态变量org.apache.hadoop.mapred.SkipBadRecords
-
Number of processed map records.
- COUNTER_REDUCE_PROCESSED_GROUPS - 类 中的静态变量org.apache.hadoop.mapred.SkipBadRecords
-
Number of processed reduce groups.
- CounterGroup - org.apache.hadoop.mapreduce中的类
-
A group of
Counter
s that logically belong together.
- CounterGroup(String) - 类 的构造器org.apache.hadoop.mapreduce.CounterGroup
-
- CounterGroup(String, String) - 类 的构造器org.apache.hadoop.mapreduce.CounterGroup
-
- Counters - org.apache.hadoop.mapred中的类
-
A set of named counters.
- Counters() - 类 的构造器org.apache.hadoop.mapred.Counters
-
- Counters - org.apache.hadoop.mapreduce中的类
-
- Counters() - 类 的构造器org.apache.hadoop.mapreduce.Counters
-
- Counters(Counters) - 类 的构造器org.apache.hadoop.mapreduce.Counters
-
- Counters.Counter - org.apache.hadoop.mapred中的类
-
A counter record, comprising its name and value.
- Counters.CountersExceededException - org.apache.hadoop.mapred中的异常错误
-
Counter exception thrown when the number of counters exceed
the limit
- Counters.CountersExceededException(String) - 异常错误 的构造器org.apache.hadoop.mapred.Counters.CountersExceededException
-
- Counters.Group - org.apache.hadoop.mapred中的类
-
Group
of counters, comprising of counters from a particular
counter
Enum
class.
- countFilesMultLinks - 类 中的变量org.apache.hadoop.fs.HardLink.LinkStats
-
- CountingBloomFilter - org.apache.hadoop.util.bloom中的类
-
Implements a counting Bloom filter, as defined by Fan et al. in a ToN
2000 paper.
- CountingBloomFilter() - 类 的构造器org.apache.hadoop.util.bloom.CountingBloomFilter
-
Default constructor - use with readFields
- CountingBloomFilter(int, int, int) - 类 的构造器org.apache.hadoop.util.bloom.CountingBloomFilter
-
Constructor
- countLease() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.LeaseManager
-
- countMapTasks() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get the number of running map tasks.
- countMultLinks - 类 中的变量org.apache.hadoop.fs.HardLink.LinkStats
-
- countNumOfAvailableNodes(String, Collection<Node>) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
return the number of leaves in scope but not in excludedNodes
if scope starts with ~, return the number of nodes that are not
in scope and excludedNodes;
- countOccupiedMapSlots() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get the number of occupied map slots.
- countOccupiedReduceSlots() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get the number of occupied reduce slots.
- countPhysicalFileCopies - 类 中的变量org.apache.hadoop.fs.HardLink.LinkStats
-
- countReduceTasks() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get the number of running reduce tasks.
- counts - 类 中的变量org.apache.hadoop.tools.rumen.JhCounterGroup
-
- countSingleLinks - 类 中的变量org.apache.hadoop.fs.HardLink.LinkStats
-
- create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
Opens an FSDataOutputStream at the indicated Path with write-progress
reporting.
- create(FileSystem, Path, FsPermission) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
create a file with the provided permission
The permission of the file is set to be the provided permission as in
setPermission, not permission&~umask
It is implemented using two RPCs.
- create(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Opens an FSDataOutputStream at the indicated Path.
- create(Path, boolean) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Opens an FSDataOutputStream at the indicated Path.
- create(Path, Progressable) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Create an FSDataOutputStream at the indicated Path with write-progress
reporting.
- create(Path, short) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Opens an FSDataOutputStream at the indicated Path.
- create(Path, short, Progressable) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Opens an FSDataOutputStream at the indicated Path with write-progress
reporting.
- create(Path, boolean, int) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Opens an FSDataOutputStream at the indicated Path.
- create(Path, boolean, int, Progressable) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Opens an FSDataOutputStream at the indicated Path with write-progress
reporting.
- create(Path, boolean, int, short, long) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Opens an FSDataOutputStream at the indicated Path.
- create(Path, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Opens an FSDataOutputStream at the indicated Path with write-progress
reporting.
- create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Opens an FSDataOutputStream at the indicated Path with write-progress
reporting.
- create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
- create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
-
A stream obtained via this call must be closed before using other APIs of
this class or else the invocation will block.
- create(Path, int) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
- create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
- create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- create(Path, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
Opens an FSDataOutputStream at the indicated Path with write-progress
reporting.
- create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
Opens an FSDataOutputStream at the indicated Path with write-progress
reporting.
- create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
- create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
- create(String, boolean) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Create a new dfs file and return an output stream for writing into it.
- create(String, boolean, Progressable) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Create a new dfs file and return an output stream for writing into it
with write-progress reporting.
- create(String, boolean, short, long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Create a new dfs file with the specified block replication
and return an output stream for writing into the file.
- create(String, boolean, short, long, Progressable) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Create a new dfs file with the specified block replication
with write-progress reporting and return an output stream for writing
into the file.
- create(String, boolean, short, long, Progressable, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
- create(String, FsPermission, boolean, short, long, Progressable, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
- create(String, FsPermission, boolean, boolean, short, long, Progressable, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Create a new dfs file with the specified block replication
with write-progress reporting and return an output stream for writing
into the file.
- create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- create(String, FsPermission, String, boolean, boolean, short, long) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Create a new file entry in the namespace.
- create(String, FsPermission, String, boolean, short, long) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Create a new file entry in the namespace.
- create(Configuration, String) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- create(Configuration, String, MetricsSystem) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- create(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- create(Configuration, MetricsSystem) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
Create a v2 metrics instrumentation
- create(String, FsPermission, String, boolean, short, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
已过时。
- create(String, FsPermission, String, boolean, boolean, short, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Create a new file entry in the namespace.
- create(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- create(Class<?>, Object, RetryPolicy) - 类 中的静态方法org.apache.hadoop.io.retry.RetryProxy
-
Create a proxy for an interface of an implementation class
using the same retry policy for each method in the interface.
- create(Class<?>, Object, Map<String, RetryPolicy>) - 类 中的静态方法org.apache.hadoop.io.retry.RetryProxy
-
Create a proxy for an interface of an implementation class
using the a set of retry policies specified by method name.
- create(Class<?>, Object, RetryPolicy, Map<String, RetryPolicy>) - 类 中的静态方法org.apache.hadoop.io.retry.RetryProxy
-
- create(String, int) - 类 中的静态方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
-
Create an RPC instrumentation object
- create(String, int, MetricsSystem) - 类 中的静态方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
-
Create an RPC instrumentation object
Mostly useful for testing.
- create(String, String, MetricsSystem) - 类 中的静态方法org.apache.hadoop.metrics2.source.JvmMetricsSource
-
- create(String, String) - 类 中的静态方法org.apache.hadoop.metrics2.source.JvmMetricsSource
-
- CREATE_DIR - 类 中的静态变量org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- createAllSymlink(Configuration, File, File) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
已过时。
Internal to MapReduce framework. Use DistributedCacheManager
instead.
- createAllSymlink(Configuration, File, File) - 类 中的静态方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
This method create symlinks for all files in a given dir in another
directory.
- createBaseListener(Configuration) - 类 中的方法org.apache.hadoop.http.HttpServer
-
Create a required listener for the Jetty instance listening on the port
provided.
- createCompressor() - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
-
This functionality is currently not supported.
- createCompressor() - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
-
- createCompressor() - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
-
- createCompressor() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
-
- createCompressor() - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
-
- createCookie(String) - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Creates the Hadoop authentiation HTTP cookie.
- createCredentials(NameNode, UserGroupInformation, String) - 类 中的静态方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
-
A utility method for creating credentials.
- createDataFileReader(FileSystem, Path, Configuration) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
- createDataJoinJob(String[]) - 类 中的静态方法org.apache.hadoop.contrib.utils.join.DataJoinJob
-
- createDataNode(String[], Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Instantiate & Start a single datanode daemon and wait for it to finish.
- createDataNode(String[], Configuration, SecureDataNodeStarter.SecureResources) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Instantiate & Start a single datanode daemon and wait for it to finish.
- createDBRecordReader(DBInputFormat.DBInputSplit, Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
-
- createDBRecordReader(DBInputFormat.DBInputSplit, Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
- createDBRecordReader(DBInputFormat.DBInputSplit, Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.OracleDataDrivenDBInputFormat
-
- createDecompressor() - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
-
This functionality is currently not supported.
- createDecompressor() - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
-
- createDecompressor() - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
-
- createDecompressor() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
-
- createDecompressor() - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
-
- createDefaultChannelConnector() - 类 中的静态方法org.apache.hadoop.http.HttpServer
-
- createEditLogFile(File) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSEditLog
-
- createFactory() - 类 中的方法org.apache.hadoop.security.Krb5AndCertsSslSocketConnector
-
- createFileSplit(Path, long, long) - 类 中的静态方法org.apache.hadoop.mapred.lib.NLineInputFormat
-
NLineInputFormat uses LineRecordReader, which always reads
(and consumes) at least one character out of its upper split
boundary.
- createFileSplit(Path, long, long) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
-
NLineInputFormat uses LineRecordReader, which always reads
(and consumes) at least one character out of its upper split
boundary.
- createForWrite(File, int) - 类 中的静态方法org.apache.hadoop.io.SecureIOUtils
-
Open the specified File for write access, ensuring that it does not exist.
- createHardLink(File, File) - 类 中的静态方法org.apache.hadoop.fs.HardLink
-
Creates a hardlink
- createHardLinkMult(File, String[], File) - 类 中的静态方法org.apache.hadoop.fs.HardLink
-
Creates hardlinks from multiple existing files within one parent
directory, into one target directory.
- createHardLinkMult(File, String[], File, int) - 类 中的静态方法org.apache.hadoop.fs.HardLink
-
- createIdentifier() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
-
Create an empty block token identifier
- createIdentifier() - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
-
- createIdentifier() - 类 中的方法org.apache.hadoop.mapreduce.security.token.delegation.DelegationTokenSecretManager
-
- createIdentifier() - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
-
Create an empty job token identifier
- createIdentifier() - 类 中的方法org.apache.hadoop.security.token.SecretManager
-
Create an empty token identifier.
- createImmutable(short) - 类 中的静态方法org.apache.hadoop.fs.permission.FsPermission
-
- createImmutable(String, String, FsPermission) - 类 中的静态方法org.apache.hadoop.fs.permission.PermissionStatus
-
- createInputFileListing(Job) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCp
-
Create input listing by invoking an appropriate copy listing
implementation.
- createInputStream(InputStream) - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
-
Creates CompressionInputStream to be used to read off uncompressed data.
- createInputStream(InputStream, Decompressor) - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
-
This functionality is currently not supported.
- createInputStream(InputStream, Decompressor, long, long, SplittableCompressionCodec.READ_MODE) - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
-
Creates CompressionInputStream to be used to read off uncompressed data
in one of the two reading modes. i.e.
- createInputStream(InputStream) - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
-
Create a stream decompressor that will read from the given input stream.
- createInputStream(InputStream, Decompressor) - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
-
- createInputStream(InputStream) - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
-
- createInputStream(InputStream, Decompressor) - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
-
- createInputStream(InputStream) - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
-
- createInputStream(InputStream, Decompressor) - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
-
- createInputStream(InputStream) - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
-
- createInputStream(InputStream, Decompressor) - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
-
- createInputStream(InputStream, Decompressor, long, long, SplittableCompressionCodec.READ_MODE) - 接口 中的方法org.apache.hadoop.io.compress.SplittableCompressionCodec
-
Create a stream as dictated by the readMode.
- createInstance(String) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.UserDefinedValueAggregatorDescriptor
-
Create an instance of the given class
- createInterDataNodeProtocolProxy(DatanodeInfo, Configuration, int, boolean) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- createInternalValue() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Create a value to be used internally for joins.
- createIOException(List<IOException>) - 异常错误 中的静态方法org.apache.hadoop.io.MultipleIOException
-
- createJob(String[]) - 类 中的静态方法org.apache.hadoop.streaming.StreamJob
-
This method creates a streaming job from the given argument list.
- createJobDirs() - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
-
Prepare the job directories for a given job.
- createKey() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocRecordReader
-
- createKey() - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MultiFileLineRecordReader
-
- createKey() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Create a new key value common to all child RRs.
- createKey() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
-
Request new key from proxied RR.
- createKey() - 类 中的方法org.apache.hadoop.mapred.KeyValueLineRecordReader
-
- createKey() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
- createKey() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
-
Create an object of the appropriate type to be used as a key.
- createKey() - 类 中的方法org.apache.hadoop.mapred.LineRecordReader
-
- createKey() - 接口 中的方法org.apache.hadoop.mapred.RecordReader
-
Create an object of the appropriate type to be used as a key.
- createKey() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
- createKey() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsTextRecordReader
-
- createKey() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
-
- createKey() - 类 中的方法org.apache.hadoop.streaming.StreamBaseRecordReader
-
- createLocalDirs() - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
-
- createLocalTempFile(File, String, boolean) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Create a tmp file for a base file.
- createLogDir(TaskAttemptID, boolean) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
-
- createLogDir(TaskAttemptID, boolean) - 类 中的方法org.apache.hadoop.mapred.TaskController
-
Creates task log dir
- createNamenode(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.DFSClient
-
- createNamenode(InetSocketAddress, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.DFSClient
-
- createNameNode(String[], Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- createNewFile(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Creates the given Path as a brand-new zero-length file.
- createNonRecursive(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
Opens an FSDataOutputStream at the indicated Path with write-progress
reporting.
- createNonRecursive(Path, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
已过时。
API only for 0.20-append
- createNonRecursive(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
已过时。
API only for 0.20-append
- createNonRecursive(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
Opens an FSDataOutputStream at the indicated Path with write-progress
reporting.
- createNonRecursive(Path, FsPermission, boolean, int, short, long, Progressable) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Same as create(), except fails if parent directory doesn't already exist.
- createOutput(String) - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
-
- createOutputStream(OutputStream) - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
-
Creates CompressionOutputStream for BZip2
- createOutputStream(OutputStream, Compressor) - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
-
Creates a compressor using given OutputStream.
- createOutputStream(OutputStream) - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
-
- createOutputStream(OutputStream, Compressor) - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
-
- createOutputStream(OutputStream) - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
-
- createOutputStream(OutputStream, Compressor) - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
-
- createOutputStream(OutputStream) - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
-
- createOutputStream(OutputStream, Compressor) - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
-
- createOutputStream(OutputStream) - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
-
- createOutputStream(OutputStream, Compressor) - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
-
- createPassword(BlockTokenIdentifier) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
-
Create a new password/secret for the given block token identifier.
- createPassword(JobTokenIdentifier) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
-
Create a new password/secret for the given job token identifier.
- createPassword(TokenIdent) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
- createPassword(T) - 类 中的方法org.apache.hadoop.security.token.SecretManager
-
Create the password for the given identifier.
- createPassword(byte[], SecretKey) - 类 中的静态方法org.apache.hadoop.security.token.SecretManager
-
Compute HMAC of the identifier using the secret key and return the
output as password
- createPool(JobConf, List<PathFilter>) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
-
Create a new pool and add the filters to it.
- createPool(JobConf, PathFilter...) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
-
Create a new pool and add the filters to it.
- createPool(List<PathFilter>) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
Create a new pool and add the filters to it.
- createPool(PathFilter...) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
Create a new pool and add the filters to it.
- createProxyUser(String, UserGroupInformation) - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
-
Create a proxy user using username of the effective user and the ugi of the
real user.
- createProxyUserForTesting(String, UserGroupInformation, String[]) - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
-
Create a proxy user UGI for testing HDFS and MapReduce
- createRecord(String) - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
-
已过时。
Creates a new MetricsRecord instance with the given recordName
.
- createRecord(MetricsContext, String) - 类 中的静态方法org.apache.hadoop.metrics.MetricsUtil
-
已过时。
Utility method to create and return new metrics record instance within the
given context.
- createRecord(String) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Creates a new AbstractMetricsRecord instance with the given recordName
.
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.InputFormat
-
Create a record reader for a given split.
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
Create a record reader for a given split.
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
This is not implemented yet.
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingInputFormat
-
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueTextInputFormat
-
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
-
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat
-
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextInputFormat
-
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter
-
Create a record reader for the given split
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFormat
-
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.TextInputFormat
-
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicInputFormat
-
Implementation of Inputformat::createRecordReader().
- createRecordReader(InputSplit, TaskAttemptContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.UniformSizeInputFormat
-
Implementation of InputFormat::createRecordReader().
- createRecoveryContext() - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
-
- createReduceContext(Reducer<INKEY, INVALUE, OUTKEY, OUTVALUE>, Configuration, TaskAttemptID, RawKeyValueIterator, Counter, Counter, RecordWriter<OUTKEY, OUTVALUE>, OutputCommitter, StatusReporter, RawComparator<INKEY>, Class<INKEY>, Class<INVALUE>) - 类 中的静态方法org.apache.hadoop.mapred.Task
-
- createRemoteUser(String) - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
-
Create a user from a login name.
- createResetableIterator() - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
-
The subclass can provide a different implementation on ResetableIterator.
- createRunner(TaskTracker, TaskTracker.TaskInProgress, TaskTracker.RunningJob) - 类 中的方法org.apache.hadoop.mapred.Task
-
Return an approprate thread runner for this task.
- createScanner() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get a scanner than can scan the whole TFile.
- createScanner(byte[], byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
- createScanner(RawComparable, RawComparable) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
- createScannerByByteRange(long, long) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get a scanner that covers a portion of TFile based on byte offsets.
- createScannerByKey(byte[], byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get a scanner that covers a portion of TFile based on keys.
- createScannerByKey(RawComparable, RawComparable) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get a scanner that covers a specific key range.
- createScannerByRecordNum(long, long) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Create a scanner that covers a range of records.
- createSecretKey(byte[]) - 类 中的静态方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
-
Convert the byte[] to a secret key
- createSecretKey(byte[]) - 类 中的静态方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
Convert the byte[] to a secret key
- createSecretKey(byte[]) - 类 中的静态方法org.apache.hadoop.security.token.SecretManager
-
Convert the byte[] to a secret key
- createSocket() - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
-
- createSocket(InetAddress, int) - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
-
- createSocket(InetAddress, int, InetAddress, int) - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
-
- createSocket(String, int) - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
-
- createSocket(String, int, InetAddress, int) - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
-
- createSocket() - 类 中的方法org.apache.hadoop.net.StandardSocketFactory
-
- createSocket(InetAddress, int) - 类 中的方法org.apache.hadoop.net.StandardSocketFactory
-
- createSocket(InetAddress, int, InetAddress, int) - 类 中的方法org.apache.hadoop.net.StandardSocketFactory
-
- createSocket(String, int) - 类 中的方法org.apache.hadoop.net.StandardSocketFactory
-
- createSocket(String, int, InetAddress, int) - 类 中的方法org.apache.hadoop.net.StandardSocketFactory
-
- createSocketAddr(String) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
已过时。
- createSocketAddr(String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Util method to build socket addr from either:
:
://:/
- createSocketAddr(String, int) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Util method to build socket addr from either:
:
://:/
- createSplitFiles(Path, Configuration, FileSystem, List<InputSplit>) - 类 中的静态方法org.apache.hadoop.mapreduce.split.JobSplitWriter
-
- createSplitFiles(Path, Configuration, FileSystem, T[]) - 类 中的静态方法org.apache.hadoop.mapreduce.split.JobSplitWriter
-
- createSplitFiles(Path, Configuration, FileSystem, InputSplit[]) - 类 中的静态方法org.apache.hadoop.mapreduce.split.JobSplitWriter
-
- createSymlink(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
This method allows you to create symlinks in the current working directory
of the task to all the cache files/archives.
- createTaskAttemptLogDir(TaskAttemptID, boolean, String[]) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
Create log directory for the given attempt.
- createTitle(JspWriter, HttpServletRequest, String) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- createTmpFileForWrite(String, long, Configuration) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
-
Creates a temporary file in the local FS.
- createUri(String, InetSocketAddress) - 类 中的静态方法org.apache.hadoop.hdfs.DFSUtil
-
Create a URI from the scheme and address
- createUri(String, HdfsFileStatus, UserGroupInformation, ClientProtocol, HttpServletRequest, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FileDataServlet
-
Create a redirection URI
- createURLStreamHandler(String) - 类 中的方法org.apache.hadoop.fs.FsUrlStreamHandlerFactory
-
- createUserDirs() - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
-
Initialize the local directories for a particular user on this TT.
- createUserForTesting(String, String[]) - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
-
Create a UGI for testing HDFS and MapReduce
- createValue() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocRecordReader
-
- createValue() - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MultiFileLineRecordReader
-
- createValue() - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader
-
Create an object of the appropriate type to be used as a value.
- createValue() - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader
-
Create an object of the appropriate type to be used as a value.
- createValue() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
-
Request new value from proxied RR.
- createValue() - 类 中的方法org.apache.hadoop.mapred.KeyValueLineRecordReader
-
- createValue() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
- createValue() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
-
Create an object of the appropriate type to be used as a value.
- createValue() - 类 中的方法org.apache.hadoop.mapred.LineRecordReader
-
- createValue() - 接口 中的方法org.apache.hadoop.mapred.RecordReader
-
Create an object of the appropriate type to be used as a value.
- createValue() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
- createValue() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsTextRecordReader
-
- createValue() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
-
- createValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
已过时。
- createValue() - 类 中的方法org.apache.hadoop.streaming.StreamBaseRecordReader
-
- createValueAggregatorJob(String[]) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
-
Create an Aggregate based map/reduce job.
- createValueAggregatorJob(String[], Class<?>) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
-
Create an Aggregate based map/reduce job.
- createValueAggregatorJob(String[], Class<? extends ValueAggregatorDescriptor>[]) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
-
- createValueAggregatorJob(String[], Class<? extends ValueAggregatorDescriptor>[], Class<?>) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
-
- createValueAggregatorJobs(String[], Class<? extends ValueAggregatorDescriptor>[]) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
-
- createValueAggregatorJobs(String[]) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
-
- createValueBytes() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
- createWorkDir(JobConf) - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
-
- createWriter(FileSystem, Configuration, Path, Class, Class) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
-
Construct the preferred type of SequenceFile Writer.
- createWriter(FileSystem, Configuration, Path, Class, Class, SequenceFile.CompressionType) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
-
Construct the preferred type of SequenceFile Writer.
- createWriter(FileSystem, Configuration, Path, Class, Class, SequenceFile.CompressionType, Progressable) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
-
Construct the preferred type of SequenceFile Writer.
- createWriter(FileSystem, Configuration, Path, Class, Class, SequenceFile.CompressionType, CompressionCodec) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
-
Construct the preferred type of SequenceFile Writer.
- createWriter(FileSystem, Configuration, Path, Class, Class, SequenceFile.CompressionType, CompressionCodec, Progressable, SequenceFile.Metadata) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
-
Construct the preferred type of SequenceFile Writer.
- createWriter(FileSystem, Configuration, Path, Class, Class, int, short, long, SequenceFile.CompressionType, CompressionCodec, Progressable, SequenceFile.Metadata) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
-
Construct the preferred type of SequenceFile Writer.
- createWriter(FileSystem, Configuration, Path, Class, Class, int, short, long, boolean, SequenceFile.CompressionType, CompressionCodec, SequenceFile.Metadata) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
-
Construct the preferred type of SequenceFile Writer.
- createWriter(FileSystem, Configuration, Path, Class, Class, SequenceFile.CompressionType, CompressionCodec, Progressable) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
-
Construct the preferred type of SequenceFile Writer.
- createWriter(Configuration, FSDataOutputStream, Class, Class, SequenceFile.CompressionType, CompressionCodec, SequenceFile.Metadata) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
-
Construct the preferred type of 'raw' SequenceFile Writer.
- createWriter(Configuration, FSDataOutputStream, Class, Class, SequenceFile.CompressionType, CompressionCodec) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
-
Construct the preferred type of 'raw' SequenceFile Writer.
- credentials - 类 中的变量org.apache.hadoop.mapreduce.JobContext
-
- Credentials - org.apache.hadoop.security中的类
-
A class that provides the facilities of reading and writing
secret keys and Tokens.
- Credentials() - 类 的构造器org.apache.hadoop.security.Credentials
-
- CSTRING_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- CsvRecordInput - org.apache.hadoop.record中的类
-
- CsvRecordInput(InputStream) - 类 的构造器org.apache.hadoop.record.CsvRecordInput
-
Creates a new instance of CsvRecordInput
- CsvRecordOutput - org.apache.hadoop.record中的类
-
- CsvRecordOutput(OutputStream) - 类 的构造器org.apache.hadoop.record.CsvRecordOutput
-
Creates a new instance of CsvRecordOutput
- cTime - 类 中的变量org.apache.hadoop.hdfs.server.common.StorageInfo
-
- CUR_DIR - 类 中的静态变量org.apache.hadoop.fs.Path
-
- curChar - 类 中的变量org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- curReader - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
- curReader - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
- current() - 类 中的方法org.apache.hadoop.metrics2.util.TryIterator
-
- CURRENT_CONF - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- CURRENT_VERSION - 类 中的静态变量org.apache.hadoop.ipc.Server
-
- currentConfig() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
- currentConfig() - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
- currentConfig() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystemMXBean
-
- currentId - 类 中的变量org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
Access to currentId is protected by this object lock.
- currentPos - 类 中的变量org.apache.hadoop.hdfs.ByteRangeInputStream
-
- currentToken - 异常错误 中的变量org.apache.hadoop.record.compiler.generated.ParseException
-
This is the last token that has been consumed successfully.
- currentTokens - 类 中的变量org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
Cache of currently valid tokens, mapping from DelegationTokenIdentifier
to DelegationTokenInformation.
- currentUpgrades - 类 中的变量org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- customize(EndPoint, Request) - 类 中的方法org.apache.hadoop.security.Krb5AndCertsSslSocketConnector
-
- CyclicIteration<K,V> - org.apache.hadoop.util中的类
-
- CyclicIteration(NavigableMap<K, V>, K) - 类 的构造器org.apache.hadoop.util.CyclicIteration
-
- G_SIZE - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
-
- GangliaContext - org.apache.hadoop.metrics.ganglia中的类
-
已过时。
in favor of org.apache.hadoop.metrics2
usage.
- GangliaContext() - 类 的构造器org.apache.hadoop.metrics.ganglia.GangliaContext
-
已过时。
Creates a new instance of GangliaContext
- GangliaContext31 - org.apache.hadoop.metrics.ganglia中的类
-
Context for sending metrics to Ganglia version 3.1.x.
3.1.1 has a slightly different wire portal compared to 3.0.x.
- GangliaContext31() - 类 的构造器org.apache.hadoop.metrics.ganglia.GangliaContext31
-
- gangliaMetricVisitor - 类 中的变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
-
Used for visiting Metrics
- GangliaSink30 - org.apache.hadoop.metrics2.sink.ganglia中的类
-
This code supports Ganglia 3.0
- GangliaSink30() - 类 的构造器org.apache.hadoop.metrics2.sink.ganglia.GangliaSink30
-
- GangliaSink31 - org.apache.hadoop.metrics2.sink.ganglia中的类
-
This code supports Ganglia 3.1
- GangliaSink31() - 类 的构造器org.apache.hadoop.metrics2.sink.ganglia.GangliaSink31
-
- gauge(MetricGauge<Integer>, int) - 接口 中的方法org.apache.hadoop.metrics2.MetricsVisitor
-
Callback for int value gauges
- gauge(MetricGauge<Long>, long) - 接口 中的方法org.apache.hadoop.metrics2.MetricsVisitor
-
Callback for long value gauges
- gauge(MetricGauge<Float>, float) - 接口 中的方法org.apache.hadoop.metrics2.MetricsVisitor
-
Callback for float value gauges
- gauge(MetricGauge<Double>, double) - 接口 中的方法org.apache.hadoop.metrics2.MetricsVisitor
-
Callback for double value gauges
- genCode(String, String, ArrayList<String>) - 类 中的方法org.apache.hadoop.record.compiler.JFile
-
Generate record code in given language.
- generateActualKey(K, V) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputFormat
-
Generate the actual key from the given key/value.
- generateActualValue(K, V) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputFormat
-
Generate the actual value from the given key and value.
- generateEntry(String, String, Text) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
-
- generateFileNameForKeyValue(K, V, String) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputFormat
-
Generate the file output file name based on the given key and the leaf file
name.
- generateGroupKey(TaggedMapOutput) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
-
Generate a map output key.
- generateHash(byte[], SecretKey) - 类 中的静态方法org.apache.hadoop.mapreduce.security.SecureShuffleUtils
-
Base64 encoded hash of msg
- generateInputTag(String) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
-
Determine the source tag based on the input file name.
- generateKeyValPairs(Object, Object) - 类 中的方法org.apache.hadoop.examples.AggregateWordCount.WordCountPlugInClass
-
- generateKeyValPairs(Object, Object) - 类 中的方法org.apache.hadoop.examples.AggregateWordHistogram.AggregateWordHistogramPlugin
-
Parse the given value, generate an aggregation-id/value pair per word.
- generateKeyValPairs(Object, Object) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UserDefinedValueAggregatorDescriptor
-
Generate a list of aggregation-id/value pairs for the given key/value pairs
by delegating the invocation to the real object.
- generateKeyValPairs(Object, Object) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
-
Generate 1 or 2 aggregation-id/value pairs for the given key/value pair.
- generateKeyValPairs(Object, Object) - 接口 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorDescriptor
-
Generate a list of aggregation-id/value pairs for the given key/value pair.
- generateLeafFileName(String) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputFormat
-
Generate the leaf name for the output file name.
- generateParseException() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- generateSecret() - 类 中的方法org.apache.hadoop.security.token.SecretManager
-
Generate a new random secret key.
- generateTaggedMapOutput(Object) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
-
Generate a tagged map output value.
- generateToken(Block, EnumSet<BlockTokenSecretManager.AccessMode>) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
-
Generate an block token for current user
- generateToken(String, Block, EnumSet<BlockTokenSecretManager.AccessMode>) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
-
Generate a block token for a specified user
- generateToken(long[], EnumSet<BlockTokenSecretManager.AccessMode>) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
-
Generate a block token for the current user based on a collection
of blockIds
- generateToken(String, long[], EnumSet<BlockTokenSecretManager.AccessMode>) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
-
Generate a block token based on a collection of blockIds
- generateValueAggregator(String) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
-
- generationFromSegmentsFileName(String) - 类 中的静态方法org.apache.hadoop.contrib.index.lucene.LuceneUtil
-
Parse the generation off the segments file name and return it.
- GenerationStamp - org.apache.hadoop.hdfs.server.common中的类
-
A GenerationStamp is a Hadoop FS primitive, identified by a long.
- GenerationStamp() - 类 的构造器org.apache.hadoop.hdfs.server.common.GenerationStamp
-
Create a new instance, initialized to FIRST_VALID_STAMP.
- GenericOptionsParser - org.apache.hadoop.util中的类
-
GenericOptionsParser
is a utility to parse command line
arguments generic to the Hadoop framework.
- GenericOptionsParser(Options, String[]) - 类 的构造器org.apache.hadoop.util.GenericOptionsParser
-
Create an options parser with the given options to parse the args.
- GenericOptionsParser(String[]) - 类 的构造器org.apache.hadoop.util.GenericOptionsParser
-
Create an options parser to parse the args.
- GenericOptionsParser(Configuration, String[]) - 类 的构造器org.apache.hadoop.util.GenericOptionsParser
-
Create a GenericOptionsParser to parse only the generic Hadoop
arguments.
- GenericOptionsParser(Configuration, Options, String[]) - 类 的构造器org.apache.hadoop.util.GenericOptionsParser
-
Create a GenericOptionsParser
to parse given options as well
as generic Hadoop options.
- GenericsUtil - org.apache.hadoop.util中的类
-
Contains utility methods for dealing with Java Generics.
- GenericsUtil() - 类 的构造器org.apache.hadoop.util.GenericsUtil
-
- GenericWritable - org.apache.hadoop.io中的类
-
A wrapper for Writable instances.
- GenericWritable() - 类 的构造器org.apache.hadoop.io.GenericWritable
-
- get(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the name
property, null
if
no such property exists.
- get(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the name
property.
- get(URI, Configuration, String) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
- get(Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Returns the configured filesystem implementation.
- get(URI, Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Returns the FileSystem for this URI's scheme and authority.
- get(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
-
Get located block.
- get(UserGroupInformation, DelegationParam, UriFsPathParam, GetOpParam, OffsetParam, LengthParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.DatanodeWebHdfsMethods
-
Handle HTTP GET request.
- get(UserGroupInformation, DelegationParam, UserParam, DoAsParam, UriFsPathParam, GetOpParam, OffsetParam, LengthParam, RenewerParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
-
Handle HTTP GET request.
- get(K) - 接口 中的方法org.apache.hadoop.hdfs.util.GSet
-
Return the stored element which is equal to the given key.
- get(K) - 类 中的方法org.apache.hadoop.hdfs.util.GSetByHashMap
-
- get(K) - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
-
- get(long, Writable) - 类 中的方法org.apache.hadoop.io.ArrayFile.Reader
-
Return the n
th value in the file.
- get() - 类 中的方法org.apache.hadoop.io.ArrayWritable
-
- get(WritableComparable, Writable) - 类 中的方法org.apache.hadoop.io.BloomMapFile.Reader
-
- get() - 类 中的方法org.apache.hadoop.io.BooleanWritable
-
Returns the value of the BooleanWritable
- get() - 类 中的方法org.apache.hadoop.io.BytesWritable
-
- get() - 类 中的方法org.apache.hadoop.io.ByteWritable
-
Return the value of this ByteWritable.
- get() - 类 中的方法org.apache.hadoop.io.DoubleWritable
-
- get(BytesWritable, BytesWritable) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Copy the key and value in one shot into BytesWritables.
- get() - 类 中的方法org.apache.hadoop.io.FloatWritable
-
Return the value of this FloatWritable.
- get() - 类 中的方法org.apache.hadoop.io.GenericWritable
-
Return the wrapped instance.
- get() - 类 中的方法org.apache.hadoop.io.IntWritable
-
Return the value of this IntWritable.
- get() - 类 中的方法org.apache.hadoop.io.LongWritable
-
Return the value of this LongWritable.
- get(WritableComparable, Writable) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
Return the value for the named key, or null if none exists.
- get(Object) - 类 中的方法org.apache.hadoop.io.MapWritable
- get() - 类 中的静态方法org.apache.hadoop.io.NullWritable
-
Returns the single instance of this class.
- get() - 类 中的方法org.apache.hadoop.io.ObjectWritable
-
Return the instance, or null if none.
- get(Text) - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
-
- get(WritableComparable) - 类 中的方法org.apache.hadoop.io.SetFile.Reader
-
Read the matching key from a set into key
.
- get(Object) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- get() - 类 中的方法org.apache.hadoop.io.TwoDArrayWritable
-
- get() - 类 中的方法org.apache.hadoop.io.VIntWritable
-
Return the value of this VIntWritable.
- get() - 类 中的方法org.apache.hadoop.io.VLongWritable
-
Return the value of this LongWritable.
- get(Class<? extends WritableComparable>) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
- get() - 类 中的静态方法org.apache.hadoop.ipc.Server
-
Returns the server instance called under or null.
- get(int) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
-
Get ith child InputSplit.
- get(int) - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
-
Get ith Writable from Tuple.
- get() - 类 中的方法org.apache.hadoop.metrics.util.MetricsIntValue
-
已过时。
Get value
- get() - 类 中的方法org.apache.hadoop.metrics.util.MetricsLongValue
-
已过时。
Get value
- get(String) - 类 中的方法org.apache.hadoop.metrics.util.MetricsRegistry
-
已过时。
- get(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Get a metric by name
- get(String, Collection<MetricsTag>) - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache
-
Get the cached record
- get(DataInput) - 类 中的静态方法org.apache.hadoop.record.BinaryRecordInput
-
Get a thread-local record input for the supplied DataInput.
- get(DataOutput) - 类 中的静态方法org.apache.hadoop.record.BinaryRecordOutput
-
Get a thread-local record output for the supplied DataOutput.
- get() - 类 中的方法org.apache.hadoop.record.Buffer
-
Get the data from the Buffer.
- get() - 类 中的方法org.apache.hadoop.tools.rumen.ClusterTopologyReader
-
- get(DataInput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Get a thread-local typed bytes input for the supplied
DataInput
.
- get(DataOutput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesOutput
-
Get a thread-local typed bytes output for the supplied
DataOutput
.
- get(TypedBytesInput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
Get a thread-local typed bytes record input for the supplied
TypedBytesInput
.
- get(DataInput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
Get a thread-local typed bytes record input for the supplied
DataInput
.
- get(TypedBytesOutput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
- get(DataOutput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
Get a thread-local typed bytes record output for the supplied
DataOutput
.
- get(TypedBytesInput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
Get a thread-local typed bytes writable input for the supplied
TypedBytesInput
.
- get(DataInput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
Get a thread-local typed bytes writable input for the supplied
DataInput
.
- get(TypedBytesOutput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
Get a thread-local typed bytes writable input for the supplied
TypedBytesOutput
.
- get(DataOutput) - 类 中的静态方法org.apache.hadoop.typedbytes.TypedBytesWritableOutput
-
Get a thread-local typed bytes writable output for the supplied
DataOutput
.
- get() - 类 中的方法org.apache.hadoop.util.Progress
-
Returns the overall progress of the root.
- GET_STATS_CAPACITY_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
-
- GET_STATS_CORRUPT_BLOCKS_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
-
- GET_STATS_MISSING_BLOCKS_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
-
- GET_STATS_REMAINING_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
-
- GET_STATS_UNDER_REPLICATED_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
-
- GET_STATS_USED_IDX - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.ClientProtocol
-
- getAbsolutePath() - 类 中的方法org.apache.hadoop.hdfs.web.resources.UriFsPathParam
-
- getAbsolutePath(String) - 类 中的方法org.apache.hadoop.streaming.PathFinder
-
Returns the full path name of this file if it is listed in the
path
- getAbsolutePaths() - 类 中的方法org.apache.hadoop.hdfs.web.resources.ConcatSourcesParam
-
- getAcceptAnonymous() - 类 中的方法org.apache.hadoop.security.authentication.server.PseudoAuthenticationHandler
-
Returns if the handler is configured to support anonymous users.
- getAccessKey() - 类 中的方法org.apache.hadoop.fs.s3.S3Credentials
-
- getAccessModes() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- getAccessTime() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Get the access time of the file.
- getAccessTime() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the access time of the file.
- getAclName() - 枚举 中的方法org.apache.hadoop.mapreduce.JobACL
-
Get the name of the ACL.
- getACLString() - 类 中的方法org.apache.hadoop.security.authorize.AccessControlList
-
Returns the String representation of this ACL.
- getAction() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeCommand
-
- getActiveTrackerNames() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the names of active task trackers in the cluster.
- getAdditionalBlock(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Stub for old callers pre-HDFS-630
- getAdditionalBlock(String, String, HashMap<Node, Node>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
The client would like to obtain an additional block for the indicated
filename (which is being written-to).
- getAddress(String) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getAddress(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getAddress(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
-
- getAdjustedEnd() - 类 中的方法org.apache.hadoop.io.compress.SplitCompressionInputStream
-
After calling createInputStream, the values of start or end
might change.
- getAdjustedStart() - 类 中的方法org.apache.hadoop.io.compress.SplitCompressionInputStream
-
After calling createInputStream, the values of start or end
might change.
- getAdminAcls(Configuration, String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
Get the ACL object representing the cluster administrators
The user who starts the daemon is automatically added as an admin
- getAdminState() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Retrieves the admin state of this node.
- getAlgorithmName() - 类 中的方法org.apache.hadoop.fs.FileChecksum
-
The checksum algorithm name
- getAlgorithmName() - 类 中的方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
-
The checksum algorithm name
- getAliveNodesInfoJson() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getAliveNodesInfoJson() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getAllAttempts() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.JVMInfo
-
- getAllContexts() - 类 中的方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
Returns all MetricsContexts built by this factory.
- getAllJobs() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get the jobs that are submitted.
- getAllJobs() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getAllJobs() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getAllKeys() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
-
- getAllKeys() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
- getAllLocalPathsToRead(String, Configuration) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
-
Get all of the paths that currently exist in the working directories.
- getAllRecords() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
-
已过时。
Retrieves all the records managed by this MetricsContext.
- getAllRecords() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Retrieves all the records managed by this MetricsContext.
- getAllStaticResolutions() - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
- getAllStatistics() - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Return the FileSystem classes that have Statistics
- getAllTasks() - 类 中的方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Returns all map and reduce tasks .
- getAllTokens() - 类 中的方法org.apache.hadoop.security.Credentials
-
Return all the tokens in the in-memory map
- getAncestorLayoutVersion() - 枚举 中的方法org.apache.hadoop.hdfs.protocol.LayoutVersion.Feature
-
Accessor method for feature ancestor layout version
- getApproxChkSumLength(long) - 类 中的静态方法org.apache.hadoop.fs.ChecksumFileSystem
-
- getArchiveClassPaths(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Get the archive entries in classpath as an array of Path.
- getArchiveTimestamps(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Get the timestamps of the archives.
- getArchiveVisibilities(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
Get the booleans on whether the archives are public or not.
- getAssignedJobID() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- getAssignedTracker(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Get tracker name for a given task id.
- getAtomicWorkPath() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Get work path for atomic commit.
- getAttemptID() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getAttemptId() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the attempt id
- getAttemptId() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the attempt id
- getAttemptId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the task attempt id
- getAttempts() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getAttemptsToStartSkipping(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Get the number of Task attempts AFTER which skip mode
will be kicked off.
- getAttribute(String) - 类 中的方法org.apache.hadoop.http.HttpServer
-
Get the value in the webapp context.
- getAttribute(String) - 类 中的方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
Returns the value of the named attribute, or null if there is no
attribute of that name.
- getAttribute(String) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Convenience method for subclasses to access factory attributes.
- getAttribute(String) - 类 中的方法org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
-
已过时。
- getAttribute(char) - 枚举 中的静态方法org.apache.hadoop.tools.distcp2.DistCpOptions.FileAttribute
-
- getAttributeNames() - 类 中的方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
Returns the names of all the factory's attributes.
- getAttributes(String[]) - 类 中的方法org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
-
已过时。
- getAttributeTable(String) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Returns an attribute-value map derived from the factory attributes
by finding all factory attributes that begin with
contextName.
- getAuthenticationHandler() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Returns the authentication handler being used.
- getAuthenticationMethod() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Get the authentication method from the subject
- getAutoIncrMapperProcCount(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
- getAutoIncrReducerProcCount(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
- getAvailable() - 类 中的方法org.apache.hadoop.fs.DF
-
- getAvailableMapSlots() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get available map slots.
- getAvailablePhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Obtain the total size of the available physical memory present
in the system.
- getAvailablePhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain the total size of the available physical memory present
in the system.
- getAvailableReduceSlots() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get available reduce slots.
- getAvailableSlots(TaskType) - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
-
Get the number of currently available slots on this tasktracker for the
given type of the task.
- getAvailableVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Obtain the total size of the available virtual memory present
in the system.
- getAvailableVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain the total size of the available virtual memory present
in the system.
- getAvataar() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the avataar of the task attempt
- getBalancerBandwidth() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Get current value of the max balancer bandwidth in bytes per second.
- getBalancerBandwidth() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
-
- getBalancerBandwidthValue() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BalancerBandwidthCommand
-
Get current value of the max balancer bandwidth in bytes per second.
- getBalancerBandwidthVersion() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BalancerBandwidthCommand
-
Get current value of the balancer bandwidth version.
- getBandwidth() - 类 中的方法org.apache.hadoop.hdfs.util.DataTransferThrottler
-
- getBaseLogDir() - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
- getBasePathInJarOut(String) - 类 中的方法org.apache.hadoop.streaming.JarBuilder
-
- getBaseRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputFormat
-
- getBaseRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleSequenceFileOutputFormat
-
- getBaseRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleTextOutputFormat
-
- getBeginColumn() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- getBeginLine() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- getBlacklistedNodesInfoJson() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getBlacklistedNodesInfoJson() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getBlackListedTaskTrackerCount() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the number of blacklisted trackers in the cluster.
- getBlacklistedTrackerNames() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the names of blacklisted task trackers in the cluster.
- getBlacklistedTrackers() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the number of blacklisted task trackers in the cluster.
- getBlock() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- getBlock() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockRecoveryInfo
-
- getBlock() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations.BlockWithLocations
-
get the block
- getBlockCapacity() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getBlockFile(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Get File name for a given block.
- getBlockGenStamp(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockListAsLongs
-
The generation stamp of the indexTh block
- getBlockId() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- getBlockId(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockListAsLongs
-
The block-id of the indexTh block
- getBlockIds() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- getBlockIndex(BlockLocation[], long) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
-
- getBlockIndex(BlockLocation[], long) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
- getBlockInfo(Block) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientDatanodeProtocol
-
Returns a block object that contains the specified block object
from the specified Datanode.
- getBlockInfo(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Returns a block object that contains the specified block object
from the specified Datanode.
- getBlockInputStream(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- getBlockInputStream(Block, long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- getBlockInputStream(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns an input stream to read the contents of the specified block
- getBlockInputStream(Block, long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns an input stream at specified offset of the specified block
- getBlockKeys() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Get the current block keys
- getBlockKeys() - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.NamenodeProtocol
-
Get the current block keys
- getBlockLen(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockListAsLongs
-
The block-len of the indexTh block
- getBlockLocalPathInfo(Block, Token<BlockTokenIdentifier>) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientDatanodeProtocol
-
Retrieves the path names of the block file and metadata file stored on the
local file system.
- getBlockLocalPathInfo(Block, Token<BlockTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getBlockLocalPathInfo(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- getBlockLocalPathInfo(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
- getBlockLocations(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Get block location info about file
getBlockLocations() returns a list of hostnames that store
data for a specific file region.
- getBlockLocations(String, long, long) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Get locations of the blocks of the specified file within the specified range.
- getBlockLocations(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Get block locations within the specified range.
- getBlockLocations(String, long, long, boolean, boolean, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Get block locations within the specified range.
- getBlockLocations(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Get locations of the blocks of the specified file within the specified range.
- getBlockMetaDataInfo(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
- getBlockMetaDataInfo(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.InterDatanodeProtocol
-
- getBlockName() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- getBlockPath() - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockLocalPathInfo
-
Get the Block data file.
- getBlockReport() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Return a table of block data.
- getBlockReport() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns the block report - the full list of blocks stored
Returns only finalized blocks
- getBlocks() - 类 中的方法org.apache.hadoop.fs.s3.INode
-
- getBlocks(DatanodeInfo, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
return a list of blocks & their locations on datanode
whose
total size is size
- getBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockCommand
-
- getBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations
-
getter
- getBlocks(DatanodeInfo, long) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.NamenodeProtocol
-
Get a list of blocks belonged to datanode
whose total size is equal to size
- getBlocksBeingWrittenReport() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Return a table of blocks being written data
- getBlocksBeingWrittenReport() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns the blocks being written report
- getBlockSize() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Get the block size of the file.
- getBlockSize(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
已过时。
Use getFileStatus() instead
- getBlockSize(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
- getBlockSize() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the block size of the file.
- getBlockSize() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- getBlockSize() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
Returns the blocksize parameter specified at construction time.
- getBlocksScheduled() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
-
- getBlocksTotal() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Get the total number of blocks in the system.
- getBlocksTotal() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Number of allocated blocks in the system
- getBlockToken() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- getBloomFilter() - 类 中的方法org.apache.hadoop.io.BloomMapFile.Reader
-
Retrieve the Bloom filter used by this instance of the Reader.
- getBoolean(String, boolean) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the name
property as a boolean
.
- getBoundAntProperty(String, String) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- getBoundingValsQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
-
- getBroadcastCommand() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- getBuildVersion() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getBuildVersion() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
-
Returns the full version string containing version,
revision, user and source checksum.
- getByName(String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
Resolves a host subject to the security requirements determined by
hadoop.security.token.service.use_ip.
- getByName(String) - 类 中的方法org.apache.hadoop.security.SecurityUtil.QualifiedHostResolver
-
Create an InetAddress with a fully qualified hostname of the given
hostname.
- getBytes() - 类 中的方法org.apache.hadoop.fs.FileChecksum
-
The value of the checksum in bytes
- getBytes() - 类 中的方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
-
The value of the checksum in bytes
- getBytes() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- getBytes() - 类 中的方法org.apache.hadoop.hdfs.util.ByteArray
-
- getBytes() - 类 中的方法org.apache.hadoop.io.BinaryComparable
-
Return representative byte array for this instance.
- getBytes() - 类 中的方法org.apache.hadoop.io.BytesWritable
-
Get the data from the BytesWritable.
- getBytes() - 类 中的方法org.apache.hadoop.io.Text
-
- getBytes() - 类 中的方法org.apache.hadoop.io.UTF8
-
已过时。
The raw bytes.
- getBytes(String) - 类 中的静态方法org.apache.hadoop.io.UTF8
-
已过时。
Convert a string to a UTF-8 encoded byte array.
- getBytes() - 类 中的方法org.apache.hadoop.security.token.TokenIdentifier
-
Get the bytes for the token identifier
- getBytes() - 类 中的方法org.apache.hadoop.util.bloom.Key
-
- getBytesPerChecksum() - 类 中的方法org.apache.hadoop.util.DataChecksum
-
- getBytesPerSec() - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
-
Getter for the read-rate from this stream, since creation.
- getBytesPerSum() - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
Return the bytes Per Checksum
- getBytesRead() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Get the total number of bytes read
- getBytesRead() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
-
- getBytesRead() - 接口 中的方法org.apache.hadoop.io.compress.Compressor
-
Return number of uncompressed bytes input so far.
- getBytesRead() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Return number of bytes given to this compressor since last reset.
- getBytesRead() - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
-
Returns the total number of compressed bytes input so far, including
gzip header/trailer bytes.
- getBytesRead() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
Returns the total number of uncompressed bytes input so far.
- getBytesRead() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
-
Returns the total number of compressed bytes input so far.
- getBytesToCopy() - 类 中的方法org.apache.hadoop.tools.distcp2.CopyListing
-
Return the total bytes that distCp should copy for the source paths
This doesn't consider whether file is same should be skipped during copy
- getBytesToCopy() - 类 中的方法org.apache.hadoop.tools.distcp2.FileBasedCopyListing
-
Return the total bytes that distCp should copy for the source paths
This doesn't consider whether file is same should be skipped during copy
- getBytesToCopy() - 类 中的方法org.apache.hadoop.tools.distcp2.GlobbedCopyListing
-
Return the total bytes that distCp should copy for the source paths
This doesn't consider whether file is same should be skipped during copy
- getBytesToCopy() - 类 中的方法org.apache.hadoop.tools.distcp2.SimpleCopyListing
-
Return the total bytes that distCp should copy for the source paths
This doesn't consider whether file is same should be skipped during copy
- getBytesWritten() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Get the total number of bytes written
- getBytesWritten() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
-
- getBytesWritten() - 接口 中的方法org.apache.hadoop.io.compress.Compressor
-
Return number of compressed bytes output so far.
- getBytesWritten() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Return number of bytes consumed by callers of compress since last reset.
- getBytesWritten() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
Returns the total number of compressed bytes output so far.
- getBytesWritten() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
-
Returns the total number of uncompressed bytes output so far.
- getCacheArchives(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Get cache archives set in the Configuration.
- getCacheFiles(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Get cache files set in the Configuration.
- getCacheSize() - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Get the number of entries in the filesystem cache
- getCallQueueLen() - 类 中的方法org.apache.hadoop.ipc.Server
-
The number of rpc calls in the queue.
- getCandidates() - 枚举 中的方法org.apache.hadoop.tools.rumen.JobConfPropertyNames
-
- getCanonicalServiceName() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Get a canonical service name for this file system.
- getCanonicalServiceName() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
- getCanonicalServiceName() - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
- getCanonicalServiceName() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getCanonicalUri() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Resolve the uri's hostname and add the default port if not in the uri
- getCanonicalUri(URI, int) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Resolve the uri's hostname and add the default port if not in the uri
- getCapacity() - 类 中的方法org.apache.hadoop.fs.DF
-
- getCapacity() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem.DiskStatus
-
- getCapacity() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
The raw capacity.
- getCapacity() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Return total capacity, used and unused
- getCapacity() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.FSDatasetMBean
-
Returns total capacity (in bytes) of storage (used and unused)
- getCapacity() - 类 中的方法org.apache.hadoop.io.BytesWritable
-
Get the capacity, which is the maximum size that could handled without
resizing the backing storage.
- getCapacity() - 类 中的方法org.apache.hadoop.record.Buffer
-
Get the capacity, which is the maximum count that could handled without
resizing the backing storage.
- getCapacityRemaining() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Total non-used raw bytes.
- getCapacityRemaining() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Free (unused) storage capacity
- getCapacityRemainingPercent() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Total remaining space by data nodes as percentage of total capacity
- getCapacityTotal() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Total raw bytes including non-dfs used space.
- getCapacityTotal() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Total storage capacity
- getCapacityUsed() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Total used space by data nodes
- getCapacityUsed() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Used storage capacity
- getCapacityUsedNonDFS() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Total used space by data nodes for non DFS purposes such
as storing temporary files on the local file system
- getCapacityUsedPercent() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Total used space by data nodes as percentage of total capacity
- getCategory(List<List<Pentomino.ColumnName>>) - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino
-
Find whether the solution has the x in the upper left quadrant, the
x-midline, the y-midline or in the center.
- getChannel() - 类 中的方法org.apache.hadoop.net.SocketInputStream
-
Returns underlying channel used by inputstream.
- getChannel() - 类 中的方法org.apache.hadoop.net.SocketOutputStream
-
Returns underlying channel used by this stream.
- getChannelPosition(Block, FSDatasetInterface.BlockWriteStreams) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Retrieves the offset in the block to which the
the next write will write data to.
- getChannelPosition(Block, FSDatasetInterface.BlockWriteStreams) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns the current offset in the data stream.
- getChecksum() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.BlockMetadataHeader
-
Get the version
- getChecksumFile(Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
Return the name of the checksum file associated with a file.
- getChecksumFileLength(Path, long) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
Return the length of the checksum file given the size of the
actual file.
- getChecksumHeaderSize() - 类 中的静态方法org.apache.hadoop.util.DataChecksum
-
- getChecksumLength(long, int) - 类 中的静态方法org.apache.hadoop.fs.ChecksumFileSystem
-
Calculated the length of the checksum file in bytes.
- getChecksumSize() - 类 中的方法org.apache.hadoop.util.DataChecksum
-
- getChecksumType() - 类 中的方法org.apache.hadoop.util.DataChecksum
-
- getChildren() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedNetworkTopology
-
- getChildren() - 类 中的方法org.apache.hadoop.tools.rumen.Node
-
Get the children of this node.
- getChunkPosition(long) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
Return position of beginning of chunk containing pos.
- getChunkPosition(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
- getClass(String, Class<?>) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the name
property as a Class
.
- getClass(String, Class<? extends U>, Class<U>) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the name
property as a Class
implementing the interface specified by xface
.
- getClass(byte) - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
-
- getClass(String, Configuration) - 类 中的静态方法org.apache.hadoop.io.WritableName
-
Return the class for a name.
- getClass(T) - 类 中的静态方法org.apache.hadoop.util.GenericsUtil
-
Returns the Class object (of type Class<T>
) of the
argument of type T
.
- getClass(T) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
-
Return the correctly-typed
Class
of the given object.
- getClassByName(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Load a class by name.
- getClassByName(String) - 类 中的静态方法org.apache.hadoop.contrib.utils.join.DataJoinJob
-
- getClasses(String, Class<?>...) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the name
property
as an array of Class
.
- getClassLoader() - 类 中的方法org.apache.hadoop.conf.Configuration
-
- getClassName() - 异常错误 中的方法org.apache.hadoop.ipc.RemoteException
-
- getClassPaths() - 类 中的方法org.apache.hadoop.filecache.TaskDistributedCacheManager
-
Retrieves class paths (as local references) to add.
- getCleanupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get the information of the current state of the cleanup tasks of a job.
- getCleanupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getCleanupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getClient() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- getClientInput() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
-
Returns the DataInput from which the client output is read.
- getClientOutput() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
-
Returns the DataOutput to which the client input is written.
- getClientVersion() - 异常错误 中的方法org.apache.hadoop.ipc.RPC.VersionMismatch
-
Get the client's preferred version
- getClock() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getClosest(WritableComparable, Writable) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
Finds the record that is the closest match to the specified key.
- getClosest(WritableComparable, Writable, boolean) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
Finds the record that is the closest match to the specified key.
- getClusterMapMB() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getClusterMetrics() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getClusterNick() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
已过时。
- getClusterReduceMB() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getClusterStatus() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get status information about the Map-Reduce cluster.
- getClusterStatus(boolean) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get status information about the Map-Reduce cluster.
- getClusterStatus() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getClusterStatus(boolean) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getClusterStatus(boolean) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getClusterTopology() - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
-
Get the cluster topology tree.
- getClusterTopology() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieCluster
-
- getCodec(Path) - 类 中的方法org.apache.hadoop.io.compress.CompressionCodecFactory
-
Find the relevant compression codec for the given file based on its
filename suffix.
- getCodecByClassName(String) - 类 中的方法org.apache.hadoop.io.compress.CompressionCodecFactory
-
Find the relevant compression codec for the codec's canonical class name.
- getCodecByName(String) - 类 中的方法org.apache.hadoop.io.compress.CompressionCodecFactory
-
Find the relevant compression codec for the codec's canonical class name
or by codec alias.
- getCodecClassByName(String) - 类 中的方法org.apache.hadoop.io.compress.CompressionCodecFactory
-
Find the relevant compression codec for the codec's canonical class name
or by codec alias and returns its implemetation class.
- getCodecClasses(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.CompressionCodecFactory
-
Get the list of codecs listed in the configuration
- getCollector(String, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Gets the output collector for a named output.
- getCollector(String, String, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Gets the output collector for a multi named output.
- getColumnName(int) - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
-
Get the name of a given column as a string
- getCombineInputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getCombinerClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the user-defined combiner class used to combine map-outputs
before being sent to the reducers.
- getCombinerClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the combiner class for the job.
- getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.DoubleValueSum
-
- getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMax
-
- getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMin
-
- getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueSum
-
- getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMax
-
- getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMin
-
- getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
-
- getCombinerOutput() - 接口 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregator
-
- getCombinerOutput() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
-
- getCommandLine() - 类 中的方法org.apache.hadoop.util.GenericOptionsParser
-
Returns the commons-cli CommandLine
object
to process the parsed arguments.
- getCommandName() - 类 中的方法org.apache.hadoop.fs.shell.Command
-
Return the command's name excluding the leading character -
- getCommandName() - 类 中的方法org.apache.hadoop.fs.shell.Count
-
- getCommitDirectory(Job) - 类 中的静态方法org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
-
Getter for the final commit-directory.
- getComparator() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get an instance of the RawComparator that is constructed based on the
string comparator representation.
- getComparator() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Return comparator defining the ordering for RecordReaders in this
composite.
- getComparatorName() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get the string representation of the comparator.
- getCompressedData() - 类 中的方法org.apache.hadoop.io.compress.BlockDecompressorStream
-
- getCompressedData() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
-
- getCompressionCodec() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Returns the compression codec of data in this file.
- getCompressionCodec() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
-
Returns the compression codec of data in this file.
- getCompressionLevel(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
-
- getCompressionStrategy(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
-
- getCompressionType(Configuration) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
-
- getCompressMapOutput() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Are the outputs of the maps be compressed?
- getCompressor(CompressionCodec, Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.CodecPool
-
- getCompressor(CompressionCodec) - 类 中的静态方法org.apache.hadoop.io.compress.CodecPool
-
- getCompressorType() - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
-
This functionality is currently not supported.
- getCompressorType() - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
-
- getCompressorType() - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
-
- getCompressorType() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
-
- getCompressorType() - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
-
- getCompressOutput(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
Is the job output compressed?
- getCompressOutput(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Is the job output compressed?
- getComputonsPerMapInputByte() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getComputonsPerMapOutputByte() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getComputonsPerReduceInputByte() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getComputonsPerReduceOutputByte() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getConditions() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- getConf() - 接口 中的方法org.apache.hadoop.conf.Configurable
-
Return the configuration used by this object.
- getConf() - 类 中的方法org.apache.hadoop.conf.Configured
-
- getConf() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
- getConf() - 类 中的方法org.apache.hadoop.hdfs.server.balancer.Balancer
-
return this balancer's configuration
- getConf() - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
-
- getConf() - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
-
- getConf() - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
-
Return the configuration used by this object.
- getConf() - 类 中的方法org.apache.hadoop.io.GenericWritable
-
- getConf() - 类 中的方法org.apache.hadoop.io.ObjectWritable
-
- getConf() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Returns a handle to the JobTracker's Configuration
- getConf() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Return the configuration used by this object.
- getConf() - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler
-
- getConf() - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter.FilterBase
-
- getConf() - 类 中的方法org.apache.hadoop.mapred.Task
-
- getConf() - 类 中的方法org.apache.hadoop.mapred.TaskController
-
- getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
- getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.FilterBase
-
- getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
-
- getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
-
- getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
-
- getConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
-
- getConf() - 类 中的方法org.apache.hadoop.net.ScriptBasedMapping
-
- getConf() - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
-
- getConf() - 类 中的方法org.apache.hadoop.streaming.DumpTypedBytes
-
- getConf() - 类 中的方法org.apache.hadoop.streaming.LoadTypedBytes
-
- getConf() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- getConf() - 类 中的方法org.apache.hadoop.tools.DistCp
-
- getConf() - 类 中的方法org.apache.hadoop.tools.HadoopArchives
-
- getConf() - 类 中的方法org.apache.hadoop.tools.Logalyzer.LogComparator
-
- getConf() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- getConfigLabel() - 枚举 中的方法org.apache.hadoop.tools.distcp2.DistCpOptionSwitch
-
Get Configuration label for the option
- getConfiguration() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the underlying configuration object.
- getConfiguration(String, FilterConfig) - 类 中的方法org.apache.hadoop.hdfs.web.AuthFilter
-
- getConfiguration() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Return the configuration for the job.
- getConfiguration(String, FilterConfig) - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Returns the filtered configuration (only properties starting with the specified prefix).
- getConfiguration() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
-
Returns the Configuration.
- getConfiguration() - 类 中的方法org.apache.hadoop.util.GenericOptionsParser
-
Get the modified configuration
- getConfigVersion() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getConfigVersion() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getConfigVersion() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getConfigVersion() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
-
- getConfirmationNeeded() - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
-
- getConfResourceAsInputStream(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get an input stream attached to the configuration resource with the
given name
.
- getConfResourceAsReader(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get a
Reader
attached to the configuration resource with the
given
name
.
- getConnectAddress(Server) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Returns InetSocketAddress that a client can use to
connect to the server.
- getConnection() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
Returns a connection object o the DB
- getConnection() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
- getConnection() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat.DBRecordWriter
-
- getConnection() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- getContentSummary(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
- getContentSummary(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- getContentSummary(Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getContentSummary(String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
- getContentSummary(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getContentSummary(Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getContext(String, String) - 类 中的方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
Returns the named MetricsContext instance, constructing it if necessary
using the factory's current configuration attributes.
- getContext(String) - 类 中的方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
- getContext(String) - 类 中的静态方法org.apache.hadoop.metrics.MetricsUtil
-
已过时。
- getContext(String, String) - 类 中的静态方法org.apache.hadoop.metrics.MetricsUtil
-
已过时。
Utility method to return the named context.
- getContext() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
-
- getContextFactory() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Returns the factory by which this context was created.
- getContextName() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
-
已过时。
Returns the context name.
- getContextName() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Returns the context name.
- getCookieDomain() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Returns the cookie domain to use for the HTTP cookie.
- getCookiePath() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Returns the cookie path to use for the HTTP cookie.
- getCopyListing(Configuration, Credentials, DistCpOptions) - 类 中的静态方法org.apache.hadoop.tools.distcp2.CopyListing
-
Public Factory method with which the appropriate CopyListing implementation may be retrieved.
- getCopyStrategy() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Get the copy strategy to use.
- getCorruptBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Returns count of blocks with at least one replica marked corrupt.
- getCorruptBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Returns count of blocks with at least one replica marked corrupt.
- getCorruptReplicaBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Returns number of blocks with corrupt replicas
- getCount() - 类 中的方法org.apache.hadoop.record.Buffer
-
Get the current count of the buffer.
- getCounter() - 类 中的方法org.apache.hadoop.mapred.Counters.Counter
-
What is the current value of this counter?
- getCounter(Enum) - 类 中的方法org.apache.hadoop.mapred.Counters
-
Returns current value of the specified counter, or 0 if the counter
does not exist.
- getCounter(String) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
Returns the value of the specified counter, or 0 if the counter does
not exist.
- getCounter(int, String) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
- getCounter(Enum<?>) - 接口 中的方法org.apache.hadoop.mapred.Reporter
-
- getCounter(String, String) - 接口 中的方法org.apache.hadoop.mapred.Reporter
-
- getCounter(String, String) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- getCounter(Enum<?>) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- getCounter(Enum<?>) - 类 中的方法org.apache.hadoop.mapreduce.StatusReporter
-
- getCounter(String, String) - 类 中的方法org.apache.hadoop.mapreduce.StatusReporter
-
- getCounter(Enum<?>) - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
-
- getCounter(String, String) - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
-
- getCounterForName(String) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
Get the counter for the given name and create it if it doesn't exist.
- getCounters(Counters) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Returns the total job counters, by adding together the job,
the map and the reduce counters.
- getCounters() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Gets the counters for this job.
- getCounters() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
A table of counters.
- getCounters() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Get task's counters.
- getCounters() - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Gets the counters for this job.
- getCounters() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the counters
- getCounters() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the counters for the attempt
- getCounters() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the counters for the attempt
- getCounters() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
-
Get task counters
- getCountersEnabled(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Returns if the counters for the named outputs are enabled or not.
- getCountersEnabled(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
-
Returns if the counters for the named outputs are enabled or not.
- getCountQuery() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat
-
Returns the query for getting the total number of rows,
subclasses can override this for custom behaviour.
- getCountQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
Returns the query for getting the total number of rows,
subclasses can override this for custom behaviour.
- getCpuFrequency() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Obtain the CPU frequency of on the system.
- getCpuFrequency() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain the CPU frequency of on the system.
- getCpuUsage() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Obtain the CPU usage % of the machine.
- getCpuUsage() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain the CPU usage % of the machine.
- getCredentials() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get credentials for the job.
- getCredentials() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get credentials for the job.
- getCredentials() - 类 中的方法org.apache.hadoop.tools.distcp2.CopyListing
-
get credentials to update the delegation tokens for accessed FS objects
- getCTime() - 类 中的方法org.apache.hadoop.hdfs.server.common.StorageInfo
-
- getCumulativeCpuTime() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Obtain the cumulative CPU time since the system is on.
- getCumulativeCpuTime() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Get the CPU time in millisecond used by all the processes in the
process-tree since the process-tree created
- getCumulativeCpuTime() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain the cumulative CPU time since the system is on.
- getCumulativeCpuTime() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin.ProcResourceValues
-
Obtain the cumulative CPU time used by a current process tree.
- getCumulativeCpuUsage() - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Get the cumulative CPU usage.
- getCumulativeRssmem() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Get the cumulative resident set size (rss) memory used by all the processes
in the process-tree.
- getCumulativeRssmem(int) - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Get the cumulative resident set size (rss) memory used by all the processes
in the process-tree that are older than the passed in age.
- getCumulativeVmem() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Get the cumulative virtual memory used by all the processes in the
process-tree.
- getCumulativeVmem(int) - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Get the cumulative virtual memory used by all the processes in the
process-tree that are older than the passed in age.
- getCurrentBlock() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSDataInputStream
-
Returns the block containing the target position.
- getCurrentBlock() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
Returns the block containing the target position.
- getCurrentDatanode() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSDataInputStream
-
Returns the datanode from which the stream is currently reading.
- getCurrentDatanode() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
Returns the datanode from which the stream is currently reading.
- getCurrentDir() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
Directory current
contains latest files defining
the file system meta-data.
- getCurrentIntervalValue() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingInt
-
已过时。
The Value at the current interval
- getCurrentIntervalValue() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingLong
-
已过时。
The Value at the current interval
- getCurrentKey() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
Get the current key
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.LineRecordReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.MapContext
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.RecordReader
-
Get the current key
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
-
Get the current key.
- getCurrentKey() - 类 中的方法org.apache.hadoop.streaming.io.OutputReader
-
Returns the current key.
- getCurrentKey() - 类 中的方法org.apache.hadoop.streaming.io.RawBytesOutputReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.streaming.io.TextOutputReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesOutputReader
-
- getCurrentKey() - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicRecordReader
-
Implementation of RecordReader::getCurrentKey().
- getCurrentLayoutVersion() - 类 中的静态方法org.apache.hadoop.hdfs.protocol.LayoutVersion
-
Get the current layout version
- getCurrentSegmentGeneration(Directory) - 类 中的静态方法org.apache.hadoop.contrib.index.lucene.LuceneUtil
-
Get the generation (N) of the current segments_N file in the directory.
- getCurrentSplit(JobConf) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- getCurrentStatus() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
-
- getCurrentStatus() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
The current status
- getCurrentTrashDir() - 类 中的方法org.apache.hadoop.fs.FsShell
-
Returns the Trash object associated with this shell.
- getCurrentUser() - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
-
Return the current user, including any doAs in the current stack.
- getCurrentValue(Writable) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Get the 'value' corresponding to the last read 'key'.
- getCurrentValue(Object) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Get the 'value' corresponding to the last read 'key'.
- getCurrentValue(V) - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
Get the current value.
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.LineRecordReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.MapContext
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.RecordReader
-
Get the current value.
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
-
Get the current value.
- getCurrentValue() - 类 中的方法org.apache.hadoop.streaming.io.OutputReader
-
Returns the current value.
- getCurrentValue() - 类 中的方法org.apache.hadoop.streaming.io.RawBytesOutputReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.streaming.io.TextOutputReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesOutputReader
-
- getCurrentValue() - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicRecordReader
-
Implementation of RecordReader::getCurrentValue().
- getData() - 类 中的方法org.apache.hadoop.contrib.utils.join.TaggedMapOutput
-
- getData() - 类 中的方法org.apache.hadoop.io.DataInputBuffer
-
- getData() - 类 中的方法org.apache.hadoop.io.DataOutputBuffer
-
Returns the current contents of the buffer.
- getData() - 类 中的方法org.apache.hadoop.io.OutputBuffer
-
Returns the current contents of the buffer.
- getDataNode() - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Return the DataNode object
- getDatanode() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.UpgradeObjectDatanode
-
- getDatanode(DatanodeID) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Get data node by storage ID.
- getDataNodeInfo(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getDatanodeListForReport(FSConstants.DatanodeReportType) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getDatanodeReport(FSConstants.DatanodeReportType) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Get a report on the system's current datanodes.
- getDatanodeReport() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
A formatted string for reporting the status of the DataNode.
- getDatanodeReport(FSConstants.DatanodeReportType) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getDatanodes() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations.BlockWithLocations
-
get the block's locations
- getDataNodeStats() - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
-
Return statistics for each datanode.
- getDataNodeStats() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Return statistics for each datanode.
- getDate() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
-
The date that Hadoop was compiled.
- getDateFormat() - 类 中的静态方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getDatum() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedSingleRelativeRanking
-
- getDatumAt(int) - 类 中的方法org.apache.hadoop.tools.rumen.CDFRandomGenerator
-
- getDBConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
- getDBConf() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- getDBProductName() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
- getDeadNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Returned information is a JSON representation of map with host name as the
key and value is a map of dead node attribute keys to its values
- getDeadNodes() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the dead node information of the cluster.
- getDeclaredClass() - 类 中的方法org.apache.hadoop.io.ObjectWritable
-
Return the class this is meant to be.
- getDecommissionedTaskTrackerCount() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the number of decommissioned trackers in the cluster.
- getDecommissioningNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getDecomNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Returned information is a JSON representation of map with host name as the
key and value is a map of decomisioning node attribute keys to its values
- getDecomNodes() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the decommissioning node information of the cluster.
- getDecompressor(CompressionCodec) - 类 中的静态方法org.apache.hadoop.io.compress.CodecPool
-
- getDecompressorType() - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
-
This functionality is currently not supported.
- getDecompressorType() - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
-
- getDecompressorType() - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
-
- getDecompressorType() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
-
- getDecompressorType() - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
-
- getDefault() - 类 中的静态方法org.apache.hadoop.fs.permission.FsPermission
-
Get the default permission.
- getDefaultAuthenticator() - 类 中的静态方法org.apache.hadoop.security.authentication.client.AuthenticatedURL
-
- getDefaultBlockSize() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
- getDefaultBlockSize(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Return the number of bytes that large input files should be optimally
be split into to minimize i/o time.
- getDefaultBlockSize() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Return the number of bytes that large input files should be optimally
be split into to minimize i/o time.
- getDefaultBlockSize() - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- getDefaultBlockSize() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Get the default block size for this cluster
- getDefaultBlockSize() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- getDefaultBlockSize() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getDefaultChunkSize(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
Get the default chunk size.
- getDefaultExtension() - 类 中的方法org.apache.hadoop.io.compress.BZip2Codec
-
.bz2 is recognized as the default extension for compressed BZip2 files
- getDefaultExtension() - 接口 中的方法org.apache.hadoop.io.compress.CompressionCodec
-
Get the default filename extension for this kind of compression.
- getDefaultExtension() - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
-
- getDefaultExtension() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec
-
- getDefaultExtension() - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
-
Get the default filename extension for this kind of compression.
- getDefaultHost(String, String) - 类 中的静态方法org.apache.hadoop.net.DNS
-
Returns the default (first) host name associated by the provided
nameserver with the address bound to the specified network interface
- getDefaultHost(String) - 类 中的静态方法org.apache.hadoop.net.DNS
-
Returns the default (first) host name associated by the default
nameserver with the address bound to the specified network interface
- getDefaultIP(String) - 类 中的静态方法org.apache.hadoop.net.DNS
-
Returns the first available IP address associated with the provided
network interface
- getDefaultMaps() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get status information about the max available Maps in the cluster.
- getDefaultPort() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Get the default port for this file system.
- getDefaultPort() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- getDefaultPort() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getDefaultPort() - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem
-
- getDefaultPort() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getDefaultRealm() - 类 中的静态方法org.apache.hadoop.security.authentication.util.KerberosUtil
-
- getDefaultRealm() - 类 中的方法org.apache.hadoop.security.KerberosName
-
Get the configured default realm.
- getDefaultReduces() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get status information about the max available Reduces in the cluster.
- getDefaultReplication() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
- getDefaultReplication(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Get the default replication.
- getDefaultReplication() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Get the default replication.
- getDefaultReplication() - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- getDefaultReplication() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
- getDefaultReplication() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- getDefaultReplication() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getDefaultRetryPolicy(Configuration, String, boolean, String, String, Class<? extends Exception>...) - 类 中的静态方法org.apache.hadoop.io.retry.RetryUtils
-
Return the default retry policy set in conf.
- getDefaultSocketFactory(Configuration) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Get the default socket factory as specified by the configuration
parameter hadoop.rpc.socket.factory.default
- getDefaultUri(Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Get the default filesystem URI from a configuration.
- getDefaultWebUser(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
If security is turned off, what is the default web user?
- getDefaultWorkFile(TaskAttemptContext, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Get the default path and filename for the output format.
- getDelegate() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Obtain an iterator over the child RRs apropos of the value type
ultimately emitted from this join.
- getDelegate() - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader
-
Return an iterator wrapping the JoinCollector.
- getDelegate() - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader
-
Return an iterator returning a single value from the tuple.
- getDelegationToken(String) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Get a new delegation token for this file system.
- getDelegationToken(Text) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
- getDelegationToken(String) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- getDelegationToken(Text) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
已过时。
- getDelegationToken(String) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getDelegationToken(Text) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Get a valid Delegation Token.
- getDelegationToken(Text) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getDelegationToken(Text) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getDelegationToken(String) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getDelegationToken(Text) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
- getDelegationToken(Text) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Get a new delegation token.
- getDelegationToken(Text) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getDelegationToken(Credentials, String) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
-
- getDelegationTokens(Configuration, Credentials) - 类 中的静态方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
For each archive or cache file - get the corresponding delegation token
- getDelegationTokenSecretManager() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Returns the DelegationTokenSecretManager instance in the namesystem.
- getDelegationTokenSecretManager() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- GetDelegationTokenServlet - org.apache.hadoop.hdfs.server.namenode中的类
-
Serve delegation tokens over http for use in hftp.
- GetDelegationTokenServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.GetDelegationTokenServlet
-
- getDelegationTokenUrlParam(String) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
Returns the url parameter for the given token string.
- getDependentJobs() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- getDependingJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- getDescription() - 枚举 中的方法org.apache.hadoop.hdfs.protocol.LayoutVersion.Feature
-
Accessor method for feature description
- getDescription() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
-
Description of the upgrade object for displaying.
- getDescription() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeObject
-
- getDescription() - 类 中的方法org.apache.hadoop.metrics.util.MetricsBase
-
已过时。
- getDeserializer(Class<Serializable>) - 类 中的方法org.apache.hadoop.io.serializer.JavaSerialization
-
- getDeserializer(Class<T>) - 接口 中的方法org.apache.hadoop.io.serializer.Serialization
-
- getDeserializer(Class<T>) - 类 中的方法org.apache.hadoop.io.serializer.SerializationFactory
-
- getDeserializer(Class<Writable>) - 类 中的方法org.apache.hadoop.io.serializer.WritableSerialization
-
- getDFS() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
- getDFSClient(UserGroupInformation, InetSocketAddress, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- getDFSClient(HttpServletRequest) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.StreamFile
-
getting a client for connecting to dfs
- getDFSNameNodeAddress() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getDfsUsed() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem.DiskStatus
-
- getDfsUsed() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
The used space by the data node.
- getDfsUsed() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Return the total space used by dfs datanode
- getDfsUsed() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.FSDatasetMBean
-
Returns the total space (in bytes) used by dfs datanode
- getDfsUsedPercent() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
The used space by the data node as percentage of present capacity
- getDiagnosticInfo() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getDiagnostics() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
A list of error messages.
- getDigest() - 类 中的方法org.apache.hadoop.io.MD5Hash
-
Returns the digest bytes.
- getDigester() - 类 中的静态方法org.apache.hadoop.io.MD5Hash
-
Create a thread local MD5 digester
- getDirectDependantJobs() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getDirectory() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
-
Get the ram directory of the intermediate form.
- getDirectory() - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
-
Get the directory where this shard resides.
- getDirectoryCount() - 类 中的方法org.apache.hadoop.fs.ContentSummary
-
- getDirFailures() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get the number of local directories that have failed on this tracker.
- getDirPath() - 类 中的方法org.apache.hadoop.fs.DF
-
- getDirPath() - 类 中的方法org.apache.hadoop.fs.DU
-
- getDiskStatus() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
- getDiskStatus() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Return the disk usage of the filesystem, including total capacity,
used space, and remaining space
- getDisplayName() - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
Returns localized name of the group.
- getDisplayName() - 类 中的方法org.apache.hadoop.mapreduce.Counter
-
Get the name of the counter.
- getDisplayName() - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
-
Get the display name of the group.
- getDistance(Node, Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Return the distance between two nodes
It is assumed that the distance from one node to its parent is 1
The distance between two nodes is calculated by summing up their distances
to their closest common ancestor.
- getDistributedUpgrades() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- getDistributedUpgrades(int, HdfsConstants.NodeType) - 类 中的静态方法org.apache.hadoop.hdfs.server.common.UpgradeObjectCollection
-
- getDistributedUpgradeVersion() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
-
- getDistributionPolicyClass() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the distribution policy class.
- getDmax(String) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
-
已过时。
- getDocument() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
-
Get the document.
- getDocumentAnalyzerClass() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the analyzer class.
- getDoOutput() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
-
- getDoOutput() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
-
- getDoOutput() - 接口 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Op
-
- getDoOutput() - 类 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.TemporaryRedirectOp
-
- getDoOutput() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
-
- getDoOutput() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
-
- getDoubleValue(Object) - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
-
- getDTfromRemote(String, InetSocketAddress, String, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DelegationTokenFetcher
-
Utility method to obtain a delegation token over http
- getDU(File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Takes an input dir and returns the du on that local directory.
- getEditLog() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
- getEditLogSize() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Returns the size of the current edit log.
- getEditLogSize() - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.NamenodeProtocol
-
Get the size of the current edit log (in bytes).
- getElementTypeID() - 类 中的方法org.apache.hadoop.record.meta.VectorTypeID
-
- getEmptier() - 类 中的方法org.apache.hadoop.fs.Trash
-
Return a
Runnable
that periodically empties the trash of all
users, intended to be run by the superuser.
- getEnd() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
-
- getEnd() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
-
- getEndColumn() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- getEndLine() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- getEntry(MapFile.Reader[], Partitioner<K, V>, K, V) - 类 中的静态方法org.apache.hadoop.mapred.MapFileOutputFormat
-
Get an entry from output generated by this class.
- getEntryComparator() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get a Comparator object to compare Entries.
- getEntryCount() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get the number of key-value pair entries in TFile.
- getEnum(String, T) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Return value matching this enumerated type.
- getErrno() - 异常错误 中的方法org.apache.hadoop.io.nativeio.NativeIOException
-
- getError() - 类 中的静态方法org.apache.hadoop.log.metrics.EventCounter
-
- getError() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
-
Get the error string
- getError() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
-
Get the error string
- getEventId() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
Returns event Id.
- getEventType() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogEvent
-
- getEventType() - 接口 中的方法org.apache.hadoop.tools.rumen.HistoryEvent
-
Return this event's type.
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobInfoChangeEvent
-
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobPriorityChangeEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobStatusChangedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
-
Get event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskStartedEvent
-
Get the event type
- getEventType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskUpdatedEvent
-
Get the event type
- getExceptions() - 异常错误 中的方法org.apache.hadoop.io.MultipleIOException
-
- getExcessBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getExcludedHosts() - 类 中的方法org.apache.hadoop.util.HostsFileReader
-
- getExecString() - 类 中的方法org.apache.hadoop.fs.DF
-
- getExecString() - 类 中的方法org.apache.hadoop.fs.DU
-
- getExecString() - 类 中的方法org.apache.hadoop.util.Shell
-
return an array containing the command name & its parameters
- getExecString() - 类 中的方法org.apache.hadoop.util.Shell.ShellCommandExecutor
-
- getExecutable(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Get the URI of the application's executable.
- getExitCode() - 异常错误 中的方法org.apache.hadoop.util.Shell.ExitCodeException
-
- getExitCode() - 类 中的方法org.apache.hadoop.util.Shell
-
get the exit code
- getExpectedHttpResponseCode() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
-
- getExpectedHttpResponseCode() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
-
- getExpectedHttpResponseCode() - 接口 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Op
-
- getExpectedHttpResponseCode() - 类 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.TemporaryRedirectOp
-
Override the original expected response with "Temporary Redirect".
- getExpectedHttpResponseCode() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
-
- getExpectedHttpResponseCode() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
-
- getExpires() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
-
Returns the expiration time of the token.
- getExpiryDate() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- getExpiryDate() - 类 中的方法org.apache.hadoop.security.token.delegation.DelegationKey
-
- getExportedKeys() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.KeyUpdateCommand
-
- getFactor() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Get the number of streams to merge at once.
- getFactory(Class) - 类 中的静态方法org.apache.hadoop.io.WritableFactories
-
Define a factory for a class.
- getFactory() - 类 中的静态方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
Returns the singleton ContextFactory instance, constructing it if
necessary.
- getFailedAttemptID() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
-
Get the attempt id due to which the task failed
- getFailedJobList() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
- getFailedJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
- getFailedMapAttemptCDFs() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getFailedMapperFraction() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getFailedMaps() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the number of failed maps for the job
- getFailedReduceAttemptCDF() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getFailedReduces() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the number of failed reducers for the job
- getFailureInfo() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
gets any available info on the reason of failure of the job.
- getFailureInfo() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get failure info for the job.
- getFallBackAuthenticator() - 类 中的方法org.apache.hadoop.hdfs.web.KerberosUgiAuthenticator
-
- getFallBackAuthenticator() - 类 中的方法org.apache.hadoop.security.authentication.client.KerberosAuthenticator
-
If the specified URL does not support SPNEGO authentication, a fallback
Authenticator
will be used.
- getFatal() - 类 中的静态方法org.apache.hadoop.log.metrics.EventCounter
-
- getFetchFailedMaps() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Get the list of maps from which output-fetches failed.
- getFieldID() - 类 中的方法org.apache.hadoop.record.meta.FieldTypeInfo
-
get the field's id (name)
- getFieldNames() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- getFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
-
Get common storage fields.
- getFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataStorage
-
- getFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
- getFieldSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeMapper
-
- getFieldSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
-
Returns the field separator to be used.
- getFieldSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeReducer
-
- getFieldTypeInfos() - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
-
Return a collection of field type infos
- getFieldTypeInfos() - 类 中的方法org.apache.hadoop.record.meta.StructTypeID
-
- getFile(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get a local file name under a directory named in dirsProp with
the given path.
- getFile(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Turn the block identifier into a filename.
- getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Return an array containing hostnames, offset and size of
portions of the given file.
- getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
- getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
Get block locations from the underlying fs and fix their
offsets and lengths.
- getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
Return null if the file doesn't exist; otherwise, get the
locations of the various chunks of the file file from KFS.
- getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- getFileBlockLocations(FileStatus, long, long) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getFileBlockLocations(FileSystem, FileStatus) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
- getFileBytesRead() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getFileBytesWritten() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getFileChecksum(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Get the checksum of a file.
- getFileChecksum(Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Get the checksum of a file.
- getFileChecksum(Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
- getFileChecksum(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Get the checksum of a file.
- getFileChecksum(String, ClientProtocol, SocketFactory, int) - 类 中的静态方法org.apache.hadoop.hdfs.DFSClient
-
Get the checksum of a file.
- getFileChecksum(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Get the checksum of a file.
- getFileChecksum(Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
Get the checksum of a file.
- getFileChecksum(Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getFileClassPaths(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Get the file entries in classpath as an array of Path.
- getFileCount() - 类 中的方法org.apache.hadoop.fs.ContentSummary
-
- getFileDescriptor() - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
-
- getFileDescriptor() - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
-
- getFileDescriptor() - 接口 中的方法org.apache.hadoop.fs.HasFileDescriptor
-
- getFileInfo(String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
- getFileInfo(String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Get the file info for a specific file or directory.
- getFileInfo(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Get the file info for a specific file.
- getFileLength() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
- getFileLength() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
-
- getFileListingPath() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCp
-
Get default name of the copy listing file.
- getFileName() - 类 中的方法org.apache.hadoop.metrics.file.FileContext
-
已过时。
Returns the configured file name, or null.
- getFiles(PathFilter) - 类 中的方法org.apache.hadoop.fs.InMemoryFileSystem
-
已过时。
- getFileSize(Path, Configuration) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
Retrieves size of the file at the specified path.
- getFileStatus(Configuration, URI) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Return a file status object that represents the path.
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Get file status.
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
-
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
return the filestatus of files in har archive.
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
FileStatus for S3 file systems.
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
-
Returns the stat information about the file.
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Returns the stat information about the file.
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getFileStatus(Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getFilesTotal() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getFilesTotal() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Total number of files and directories
- getFilesystem() - 类 中的方法org.apache.hadoop.fs.DF
-
- getFileSystem(Configuration) - 类 中的方法org.apache.hadoop.fs.Path
-
Return the FileSystem that owns this Path.
- getFileSystemCounterNames(String) - 类 中的静态方法org.apache.hadoop.mapred.Task
-
Counters to measure the usage of the different file systems.
- getFilesystemName() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Grab the local fs name
- getFilesystemName() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getFileTimestamps(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Get the timestamps of the files.
- getFileType() - 类 中的方法org.apache.hadoop.fs.s3.INode
-
- getFileVisibilities(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
Get the booleans on whether the files are public or not.
- getFinalizedTmp() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
finalized.tmp
is a transient directory, which holds
the previous
file system state while it is being removed
in response to the finalize request.
- getFinalSync(JobConf) - 类 中的静态方法org.apache.hadoop.examples.terasort.TeraOutputFormat
-
Does the user want a final sync at close?
- getFinishedMaps() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the number of finished maps for the job
- getFinishedMaps() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
-
Get the number of finished maps
- getFinishedReduces() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the number of finished reducers for the job
- getFinishedReduces() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
-
Get the number of finished reduces
- getFinishTime() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getFinishTime() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
Get finish time of task.
- getFinishTime() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Get task finish time. if shuffleFinishTime and sortFinishTime
are not set before, these are set to finishTime.
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the job finish time
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
-
Get the job finish time
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the attempt finish time
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the finish time of the attempt
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the attempt finish time
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
-
Get the finish time
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
-
Get the finish time of the attempt
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
-
Get the task finish time
- getFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskUpdatedEvent
-
Get the task finish time
- getFirst() - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
-
- getFirstHalf(String) - 类 中的静态方法org.apache.hadoop.net.NetworkTopology
-
Divide networklocation string into two parts by last separator, and get the
first part here.
- getFirstKey() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get the first key in the TFile.
- getFlippable() - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino.Piece
-
- getFloat(String, float) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the name
property as a float
.
- getForce() - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
-
- getFormatMinSplitSize() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Get the lower bound on split size imposed by the format.
- getFormatMinSplitSize() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFormat
-
- getFormattedTimeWithDiff(DateFormat, long, long) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Formats time in ms and appends difference (finishTime - startTime)
as returned by formatTimeDiff().
- getFormatter() - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
- getFree() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getFree() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets total non-used raw bytes.
- getFS() - 类 中的方法org.apache.hadoop.fs.FsShell
-
- getFs() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get a filesystem handle.
- getFSDataset() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
This method is used for testing.
- getFsEditName() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
- getFSImage() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getFsImageName() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Returns the name of the fsImage file
- getFsImageNameCheckpoint() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Returns the name of the fsImage file uploaded by periodic
checkpointing
- getFSNamesystem() - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Return the FSNamesystem object
- getFSNamesystem() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.UpgradeObjectNamenode
-
- getFsPermission() - 类 中的方法org.apache.hadoop.hdfs.web.resources.PermissionParam
-
- getFSSize() - 类 中的方法org.apache.hadoop.fs.InMemoryFileSystem
-
已过时。
- getFSState() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getFSState() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
The state of the file system: Safemode or Operational
- getFsStatistics(Path, Configuration) - 类 中的静态方法org.apache.hadoop.mapred.Task
-
Gets a handle to the Statistics instance based on the scheme associated
with path.
- getFullName(String) - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the string representation of the full path name
- getFullPath(Path) - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the full path
- getFullPathName() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.FSInodeInfo
-
a string representation of an inode
- getGangliaConfForMetric(String) - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
-
Lookup GangliaConf from cache.
- getGeneration() - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
-
Get the generation of the Lucene instance.
- getGenerationStamp() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- getGenerationStamp() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Gets the generation stamp for this filesystem
- getGET_PERMISSION_COMMAND() - 类 中的静态方法org.apache.hadoop.util.Shell
-
Return a Unix command to get permission information.
- getGraylistedNodesInfoJson() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getGraylistedNodesInfoJson() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getGrayListedTaskTrackerCount() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the number of graylisted trackers in the cluster.
- getGraylistedTrackerNames() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the names of graylisted task trackers in the cluster.
- getGraylistedTrackers() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the number of graylisted task trackers in the cluster.
- getGroup() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Get the group associated with the file.
- getGroup() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the group associated with the file.
- getGroup(String) - 类 中的方法org.apache.hadoop.mapred.Counters
-
Returns the named counter group, or an empty group if there is none
with the specified name.
- getGroup(String) - 类 中的方法org.apache.hadoop.mapreduce.Counters
-
Returns the named counter group, or an empty group if there is none
with the specified name.
- getGroupAction() - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
-
- getGroupingComparator() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the user defined
RawComparator
comparator for
grouping keys of inputs to the reduce.
- getGroupName() - 类 中的方法org.apache.hadoop.fs.permission.PermissionStatus
-
Return group name
- getGroupNames() - 类 中的方法org.apache.hadoop.mapred.Counters
-
Returns the names of all counter classes.
- getGroupNames() - 类 中的方法org.apache.hadoop.mapreduce.Counters
-
Returns the names of all counter classes.
- getGroupNames() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Get the group names for this user.
- getGroups(String) - 类 中的方法org.apache.hadoop.security.Groups
-
Get the group memberships of a given user.
- getGroups(String) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsMapping
-
- getGroups(String) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback
-
- getGroups(String) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMapping
-
Gets unix groups and netgroups for the user.
- getGroups(String) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMappingWithFallback
-
- getGroups(String) - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsMapping
-
- getGroups(String) - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
-
- getGroupsCommand() - 类 中的静态方法org.apache.hadoop.util.Shell
-
a Unix command to get the current user's groups list
- getGroupsForUserCommand(String) - 类 中的静态方法org.apache.hadoop.util.Shell
-
a Unix command to get a given user's groups list
- getHadoopClientHome() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- getHarHash(Path) - 类 中的静态方法org.apache.hadoop.fs.HarFileSystem
-
the hash of the path p inside iniside
the filesystem
- getHarVersion() - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
- getHashType(Configuration) - 类 中的静态方法org.apache.hadoop.util.hash.Hash
-
This utility method converts the name of the configured
hash type to a symbolic constant.
- getHdfsBytesRead() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getHdfsBytesWritten() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getHeader(boolean) - 类 中的静态方法org.apache.hadoop.fs.ContentSummary
-
Return the header of the output.
- getHeader() - 类 中的方法org.apache.hadoop.util.DataChecksum
-
- getHealthStatus() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Returns health status of the task tracker.
- getHeapMegabytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getHeapUsage() - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Get the total heap usage.
- getHints(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
已过时。
Use getBlockLocations instead
Get hints about the location of the indicated block(s).
getHints() returns a list of hostnames that store data for
a specific file region. It returns a set of hostnames for
every block within the indicated region.
This function is very useful when writing code that considers
data-placement when performing operations. For example, the
MapReduce system tries to schedule tasks on the same machines
as the data-block the task processes.
- getHistoryFilePath(JobID) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory
-
Given the job id, return the history file path from the cache
- getHomeDirectory() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Return the current user's home directory in this filesystem.
- getHomeDirectory() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
- getHomeDirectory() - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
-
- getHomeDirectory() - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
return the top level archive path.
- getHomeDirectory() - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- getHomeDirectory() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Return the current user's home directory in this filesystem.
- getHomeDirectory() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getHomeDirectoryString(UserGroupInformation) - 类 中的静态方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getHost() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
- getHost() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
- getHost() - 类 中的方法org.apache.hadoop.streaming.Environment
-
- getHostAddress() - 类 中的方法org.apache.hadoop.ipc.Server.Connection
-
- getHostFromPrincipal(String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
Get the host name from the principal name of format /host@realm.
- getHostInetAddress() - 类 中的方法org.apache.hadoop.ipc.Server.Connection
-
- getHostName() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
- getHostName() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getHostName() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
-
- getHostName() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getHostName() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
- getHostname() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getHostname() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getHostname() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getHostname() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
-
- getHostName() - 类 中的方法org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
-
- getHostName() - 类 中的方法org.apache.hadoop.security.KerberosName
-
Get the second component of the name.
- getHostName() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getHostname() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the host name
- getHostname() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the name of the host where the attempt ran
- getHostname() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the host where the attempt executed
- getHostname() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
-
Get the name of the host where the attempt executed
- getHostname() - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Return hostname without throwing exception.
- getHosts() - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Get the list of hosts (hostname) hosting this block
- getHosts(String, String) - 类 中的静态方法org.apache.hadoop.net.DNS
-
Returns all the host names associated by the provided nameserver with the
address bound to the specified network interface
- getHosts(String) - 类 中的静态方法org.apache.hadoop.net.DNS
-
Returns all the host names associated by the default nameserver with the
address bound to the specified network interface
- getHosts() - 类 中的方法org.apache.hadoop.util.HostsFileReader
-
- getHttpAddress() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Returns the address of the NameNodes http server,
which is used to access the name-node web UI.
- getHttpAddress(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
-
- getHttpPort() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getHttpPort() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
-
Gets the http port.
- getHttpPort() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getHttpPort() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
-
- getHttpPort() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get the port that this task tracker is serving http requests on.
- getHttpPort() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the HTTP port
- getHttpUriScheme() - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getId() - 类 中的方法org.apache.hadoop.fs.s3.Block
-
- getId(Class) - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
-
- getID() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get the job identifier.
- getId() - 类 中的方法org.apache.hadoop.mapreduce.ID
-
returns the int which represents the identifier
- getIdentifier(String, SecretManager<T>) - 类 中的静态方法org.apache.hadoop.security.SaslRpcServer
-
- getIdentifier() - 类 中的方法org.apache.hadoop.security.token.Token
-
Get the token identifier
- GetImage() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- GetImageServlet - org.apache.hadoop.hdfs.server.namenode中的类
-
This class is used in Namesystem's jetty to retrieve a file.
- GetImageServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.GetImageServlet
-
- getIncludeCounters() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getIndexInputFormatClass() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the index input format class.
- getIndexInterval() - 类 中的方法org.apache.hadoop.io.MapFile.Writer
-
The number of entries that are added before an index entry is added.
- getIndexMaxFieldLength() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the max field length for a Lucene instance.
- getIndexMaxNumSegments() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the max number of segments for a Lucene instance.
- getIndexShards() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the string representation of a number of shards.
- getIndexShards(IndexUpdateConfiguration) - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.Shard
-
- getIndexUpdaterClass() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the index updater class.
- getIndexUseCompoundFile() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Check whether to use the compound file format for a Lucene instance.
- getInfo() - 类 中的静态方法org.apache.hadoop.log.metrics.EventCounter
-
- getInfoAddr(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Determine the http server's effective addr
- getInfoPort() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
- getInfoPort() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getInfoServer(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getInjectable(ComponentContext, Context, Type) - 类 中的方法org.apache.hadoop.hdfs.web.resources.UserProvider
-
- getInodeLimitText() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- getInputBoundingQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getInputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getInputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
-
- getInputClass() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getInputConditions() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getInputCountQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getInputDataLength() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
-
- getInputDataLength() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
-
- getInputFieldNames() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getInputFileBasedOutputFileName(JobConf, String) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputFormat
-
Generate the outfile name based on a given anme and the input file name.
- getInputFormat() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- getInputFormatClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
- getInputOrderBy() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getInputPathFilter(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.FileInputFormat
-
Get a PathFilter instance of the filter set for the input paths.
- getInputPathFilter(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Get a PathFilter instance of the filter set for the input paths.
- getInputPaths(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.FileInputFormat
-
Get the list of input
Path
s for the map-reduce job.
- getInputPaths(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Get the list of input
Path
s for the map-reduce job.
- getInputQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getInputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getInputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
-
- getInputSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeMapper
-
- getInputSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
-
Returns the input separator to be used.
- getInputSeparator() - 类 中的方法org.apache.hadoop.streaming.PipeReducer
-
- getInputSplit() - 接口 中的方法org.apache.hadoop.mapred.Reporter
-
- getInputSplit() - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- getInputSplit() - 类 中的方法org.apache.hadoop.mapreduce.MapContext
-
Get the input split for this map.
- getInputSplits() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the input splits for the job.
- getInputSplits() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getInputStream() - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
-
- getInputStream(Socket) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Same as getInputStream(socket, socket.getSoTimeout()).
- getInputStream(Socket, long) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Returns InputStream for the socket.
- getInputStream(InputStream) - 类 中的方法org.apache.hadoop.security.SaslRpcClient
-
Get a SASL wrapped InputStream.
- getInputTableName() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getInputWriterClass() - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
- getInsertIndex(int) - 类 中的静态方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
-
- getInstance(Configuration, FSClusterStats, NetworkTopology) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
-
Get an instance of the configured Block Placement Policy based on the
value of the configuration paramater dfs.block.replicator.classname.
- getInstance() - 类 中的静态方法org.apache.hadoop.io.ReadaheadPool
-
Return the singleton instance for the current process.
- getInstance() - 类 中的静态方法org.apache.hadoop.mapred.CleanupQueue
-
- getInstance() - 类 中的静态方法org.apache.hadoop.mapreduce.Job
-
- getInstance(Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.Job
-
- getInstance(Configuration, String) - 类 中的静态方法org.apache.hadoop.mapreduce.Job
-
- getInstance(Configuration) - 类 中的静态方法org.apache.hadoop.net.NetworkTopology
-
Get an instance of NetworkTopology based on the value of the configuration
parameter net.topology.impl.
- getInstance(int) - 类 中的静态方法org.apache.hadoop.util.hash.Hash
-
Get a singleton instance of hash function of a given type.
- getInstance(Configuration) - 类 中的静态方法org.apache.hadoop.util.hash.Hash
-
Get a singleton instance of hash function of a type
defined in the configuration.
- getInstance() - 类 中的静态方法org.apache.hadoop.util.hash.JenkinsHash
-
- getInstance() - 类 中的静态方法org.apache.hadoop.util.hash.MurmurHash
-
- getInstances(String, Class<U>) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the name
property as a List
of objects implementing the interface specified by xface
.
- getInt(String, int) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the name
property as an int
.
- getInt(Configuration, String) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
Utility to retrieve a specified key from a Configuration.
- getInteractive() - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
-
- getInterfaceName() - 异常错误 中的方法org.apache.hadoop.ipc.RPC.VersionMismatch
-
Get the interface name
- getInvalidateWorkPctPerIteration(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.DFSUtil
-
Get DFS_NAMENODE_INVALIDATE_WORK_PCT_PER_ITERATION from configuration.
- getIOSortMB() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the IO sort space in MB.
- getIpcPort() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
- getIPs(String) - 类 中的静态方法org.apache.hadoop.net.DNS
-
- getIPs(String, boolean) - 类 中的静态方法org.apache.hadoop.net.DNS
-
Returns all the IPs associated with the provided interface, if any, in
textual form.
- getIPs(String, boolean) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Return an InetAddress for each interface that matches the
given subnet specified using CIDR notation.
- getIsCleanup() - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
-
Get whether task is cleanup attempt or not.
- getIsJavaMapper(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Check whether the job is using a Java Mapper.
- getIsJavaRecordReader(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Check whether the job is using a Java RecordReader
- getIsJavaRecordWriter(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Will the reduce use a Java RecordWriter?
- getIsJavaReducer(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Check whether the job is using a Java Reducer.
- getIsMap() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getIssueDate() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- getJar() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the user jar for the map-reduce job.
- getJar() - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Get the pathname of the job's jar.
- getJar() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the pathname of the job's jar.
- getJob(JobID) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
- getJob(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
- getJob(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getJob() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
- getJob() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- getJobACLs() - 类 中的方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Get the job acls.
- getJobACLs() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
Get the acls for Job.
- getJobAcls() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the acls configured for the job
- getJobCacheSubdir(String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
-
- getJobClient() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- getJobClient() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
The connection to the JobTracker, used by the TaskRunner
for locating remote files.
- getJobCompletionTime() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JobCompletedEvent
-
Get the job completion time-stamp in milli-seconds.
- getJobConf() - 类 中的方法org.apache.hadoop.mapred.JobContext
-
Get the job Configuration
- getJobConf() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- getJobConf() - 类 中的方法org.apache.hadoop.mapred.TaskAttemptContext
-
- getJobConf() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
- getJobConf() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getJobConfPath(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
-
Get the job conf path.
- getJobConfPath() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the Path for the Job Configuration file
- getJobCounters() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Returns the job-level counters.
- getJobCounters(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getJobCounters(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getJobDir(String) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
Get the user log directory for the job jobid.
- getJobDir(JobID) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
Get the user log directory for the job jobid.
- getJobDistCacheArchives(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
-
Get the job distributed cache archives path.
- getJobDistCacheFiles(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
-
Get the job distributed cache files path.
- getJobDistCacheLibjars(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
-
Get the job distributed cache libjars path.
- getJobEndNotificationURI() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the uri to be invoked in-order to send a notification after the job
has completed (success/failure).
- getJobFile() - 类 中的方法org.apache.hadoop.mapred.JobProfile
-
Get the configuration file for the job.
- getJobFile() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get the path of the submitted job configuration.
- getJobFile() - 类 中的方法org.apache.hadoop.mapred.Task
-
- getJobForFallowSlot(TaskType) - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
-
- getJobHistoryFileName(JobConf, JobID) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Recover the job history filename from the history folder.
- getJobHistoryLogLocation(String) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Get the job history file path given the history filename
- getJobHistoryLogLocationForUser(String, JobConf) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Get the user job history file path
- getJobID() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- getJobID() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getJobID() - 类 中的方法org.apache.hadoop.mapred.JobProfile
-
Get the job id.
- getJobId() - 类 中的方法org.apache.hadoop.mapred.JobProfile
-
已过时。
use getJobID() instead
- getJobId() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
已过时。
use getJobID instead
- getJobID() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- getJobID() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
已过时。
This method is deprecated and will be removed. Applications should
rather use RunningJob.getID()
.
- getJobID() - 类 中的方法org.apache.hadoop.mapred.Task
-
Get the job name for this task.
- getJobID() - 类 中的方法org.apache.hadoop.mapred.TaskAttemptID
-
- getJobID() - 类 中的方法org.apache.hadoop.mapred.TaskID
-
- getJobID() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the unique ID for the job.
- getJobID() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- getJobId() - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
-
Get the jobid
- getJobID() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.DeleteJobEvent
-
Get the jobid.
- getJobID() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JobCompletedEvent
-
Get the job id.
- getJobID() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JobStartedEvent
-
Get the job id.
- getJobID() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
-
Returns the
JobID
object that this task attempt belongs to
- getJobID() - 类 中的方法org.apache.hadoop.mapreduce.TaskID
-
Returns the
JobID
object that this tip belongs to
- getJobID() - 类 中的方法org.apache.hadoop.tools.rumen.JobBuilder
-
- getJobid() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the Job ID
- getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobInfoChangeEvent
-
Get the Job ID
- getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
-
Get the job ID
- getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobPriorityChangeEvent
-
Get the Job ID
- getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobStatusChangedEvent
-
Get the Job Id
- getJobID() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the job ID
- getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the Job Id
- getJobId() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
-
Get the Job ID
- getJobID() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getJobID() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getJobIDsPattern(String, Integer) - 类 中的静态方法org.apache.hadoop.mapred.JobID
-
已过时。
- getJobJar(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
-
Get the job jar path.
- getJobJarFile(String, String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
-
- getJobLocalDir() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get job-specific shared directory for use as scratch space
When a job starts, a shared directory is created at location
${mapred.local.dir}/taskTracker/$user/jobcache/$jobid/work/
.
- getJobMapMB() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getJobName() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the user-specified job name.
- getJobName() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- getJobName() - 类 中的方法org.apache.hadoop.mapred.JobProfile
-
Get the user-specified job name.
- getJobName() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get the name of the job.
- getJobName() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the user-specified job name.
- getJobName() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- getJobName() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the Job name
- getJobName() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getJobPriority() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- getJobPriority() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
Return the priority of the job
- getJobProfile(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getJobProfile(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getJobProperties() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
Get the configuration properties of the job.
- getJobQueueName() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the acls configured for the job
- getJobReduceMB() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getJobRunState(int) - 类 中的静态方法org.apache.hadoop.mapred.JobStatus
-
Helper method to get human-readable state of the job.
- getJobsFromQueue(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Gets all the jobs which were added to particular Job Queue
- getJobsFromQueue(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getJobsFromQueue(String) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getJobSplitFile(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
-
- getJobSplitMetaFile(Path) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
-
- getJobState() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Returns the current state of the Job.
- getJobState() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- getJobStatus(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getJobStatus(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getJobStatus() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Returns a snapshot of the current status,
JobStatus
, of the Job.
- getJobSubmitHostAddress() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getJobSubmitHostName() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getJobToken(Credentials) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
-
- getJobTokenSecret() - 类 中的方法org.apache.hadoop.mapred.Task
-
Get the job token secret
- getJobTrackerHostPort() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- getJobTrackerMachine() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getJobTrackerState() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
- getJobTrackerUrl() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getJobTrackerUrl() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
-
- getJobtype() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getJtIdentifier() - 类 中的方法org.apache.hadoop.mapreduce.JobID
-
- getJvmContext() - 类 中的方法org.apache.hadoop.mapred.Task
-
Gets the task JvmContext
- getJvmInfo() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JvmFinishedEvent
-
Get the jvm info.
- getJvmManagerInstance() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getKeepCommandFile(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Does the user want to keep the command file for debugging?
- getKeepFailedTaskFiles() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Should the temporary files for failed tasks be kept?
- getKeepTaskFilesPattern() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the regular expression that is matched against the task names
to see if we need to keep the files.
- getKey(BytesWritable) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Copy the key into BytesWritable.
- getKey(byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Copy the key into user supplied buffer.
- getKey(byte[], int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Copy the key into user supplied buffer.
- getKey() - 接口 中的方法org.apache.hadoop.io.SequenceFile.Sorter.RawKeyValueIterator
-
Gets the current raw key
- getKey() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
-
Returns the stored rawKey
- getKey() - 接口 中的方法org.apache.hadoop.mapred.RawKeyValueIterator
-
Gets the current raw key.
- getKey() - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
-
- getKey() - 类 中的方法org.apache.hadoop.security.token.delegation.DelegationKey
-
- getKeyClass() - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
Returns the class of keys in this file.
- getKeyClass() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Returns the class of keys in this file.
- getKeyClass() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
-
Returns the class of keys in this file.
- getKeyClass() - 类 中的方法org.apache.hadoop.io.WritableComparator
-
Returns the WritableComparable implementation class.
- getKeyClass() - 类 中的方法org.apache.hadoop.mapred.KeyValueLineRecordReader
-
- getKeyClass() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
-
- getKeyClass() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
-
- getKeyClassName() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Returns the name of the key class.
- getKeyClassName() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
Retrieve the name of the key class for this SequenceFile.
- getKeyClassName() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
Retrieve the name of the key class for this SequenceFile.
- getKeyFieldComparatorOption() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- getKeyFieldComparatorOption(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
-
- getKeyFieldPartitionerOption() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- getKeyFieldPartitionerOption(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
-
- getKeyId() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- getKeyId() - 类 中的方法org.apache.hadoop.security.token.delegation.DelegationKey
-
- getKeyLength() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Get the length of the key.
- getKeyList() - 类 中的方法org.apache.hadoop.metrics.util.MetricsRegistry
-
已过时。
- getKeyNear(long) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get a sample key that is within a block whose starting offset is greater
than or equal to the specified offset.
- getKeyStream() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Streaming access to the key.
- getKeytab() - 类 中的方法org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
-
Returns the keytab used by the authentication handler.
- getKeyTypeID() - 类 中的方法org.apache.hadoop.record.meta.MapTypeID
-
get the TypeID of the map's key element
- getKeyUpdateInterval() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
-
- getKind() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- getKind() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier.Renewer
-
- getKind() - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenIdentifier
-
- getKind() - 类 中的方法org.apache.hadoop.mapreduce.security.token.delegation.DelegationTokenIdentifier
-
- getKind() - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
-
Get the token kind
- getKind() - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier.Renewer
-
- getKind() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- getKind() - 类 中的方法org.apache.hadoop.security.token.Token
-
Get the token kind
- getKind() - 类 中的方法org.apache.hadoop.security.token.Token.TrivialRenewer
-
- getKind() - 类 中的方法org.apache.hadoop.security.token.TokenIdentifier
-
Get the token kind
- getKrb5LoginModuleName() - 类 中的静态方法org.apache.hadoop.security.authentication.util.KerberosUtil
-
- getLargeReadOps() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Get the number of large file system read operations such as list files
under a large directory
- getLastCheckpointTmp() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
lastcheckpoint.tmp
is a transient directory, which holds
current file system state while the new state is saved into the new
current
during regular namespace updates.
- getLastContact() - 类 中的方法org.apache.hadoop.ipc.Server.Connection
-
- getLastHalf(String) - 类 中的静态方法org.apache.hadoop.net.NetworkTopology
-
Divide networklocation string into two parts by last separator, and get the
second part here.
- getLastKey() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get the last key in the TFile.
- getLastName() - 类 中的方法org.apache.hadoop.hdfs.protocol.DirectoryListing
-
Get the last name in this list
- getLastOutput() - 类 中的方法org.apache.hadoop.streaming.io.OutputReader
-
Returns the last output from the client as a String.
- getLastOutput() - 类 中的方法org.apache.hadoop.streaming.io.RawBytesOutputReader
-
- getLastOutput() - 类 中的方法org.apache.hadoop.streaming.io.TextOutputReader
-
- getLastOutput() - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesOutputReader
-
- getLastScanTime() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockMetaDataInfo
-
- getLastSeen() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
- getLastUpdate() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
The time when this information was accurate.
- getLaunchTime() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getLaunchTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobInfoChangeEvent
-
Get the Job launch time
- getLaunchTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
-
Get the launch time
- getLaunchTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getLayers() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedLocation
-
- getLayoutVersion() - 枚举 中的方法org.apache.hadoop.hdfs.protocol.LayoutVersion.Feature
-
Accessor method for feature layout version
- getLayoutVersion() - 类 中的方法org.apache.hadoop.hdfs.server.common.StorageInfo
-
- getLeaseByPath(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.LeaseManager
-
- getLeaseRenewer() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Return the lease renewer instance.
- getLeaves(String) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
return leaves in scope
- getLen() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
- getLen() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the length of this file, in bytes.
- getLength() - 类 中的方法org.apache.hadoop.examples.SleepJob.EmptySplit
-
- getLength() - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Get the length of the block
- getLength() - 类 中的方法org.apache.hadoop.fs.ContentSummary
-
- getLength() - 类 中的方法org.apache.hadoop.fs.FileChecksum
-
The length of the checksum in bytes
- getLength(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
已过时。
Use getFileStatus() instead
- getLength(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
已过时。
- getLength() - 类 中的方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
-
The length of the checksum in bytes
- getLength() - 类 中的方法org.apache.hadoop.fs.s3.Block
-
- getLength(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Find the block's on-disk length
- getLength(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns the specified block's on-disk length (excluding metadata)
- getLength() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface.MetaDataInputStream
-
- getLength() - 类 中的方法org.apache.hadoop.io.BinaryComparable
-
Return n st bytes 0..n-1 from {#getBytes()} are valid.
- getLength() - 类 中的方法org.apache.hadoop.io.BytesWritable
-
Get the current size of the buffer.
- getLength() - 类 中的方法org.apache.hadoop.io.DataInputBuffer
-
Returns the length of the input.
- getLength() - 类 中的方法org.apache.hadoop.io.DataOutputBuffer
-
Returns the length of the valid data currently in the buffer.
- getLength() - 类 中的方法org.apache.hadoop.io.InputBuffer
-
Returns the length of the input.
- getLength() - 类 中的方法org.apache.hadoop.io.OutputBuffer
-
Returns the length of the valid data currently in the buffer.
- getLength() - 接口 中的方法org.apache.hadoop.io.ReadaheadPool.ReadaheadRequest
-
- getLength() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
-
Returns the current length of the output file.
- getLength() - 类 中的方法org.apache.hadoop.io.Text
-
Returns the number of bytes in the byte array
- getLength() - 类 中的方法org.apache.hadoop.io.UTF8
-
已过时。
The number of bytes in the encoded string.
- getLength() - 类 中的方法org.apache.hadoop.mapred.FileSplit
-
The number of bytes in the file to process.
- getLength() - 接口 中的方法org.apache.hadoop.mapred.InputSplit
-
Get the total number of bytes in the data of the InputSplit
.
- getLength() - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
-
Return the aggregate length of all child InputSplits currently added.
- getLength(int) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
-
Get the length of ith child InputSplit.
- getLength() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
- getLength(int) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
Returns the length of the ith Path
- getLength() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
-
- getLength() - 类 中的方法org.apache.hadoop.mapreduce.InputSplit
-
Get the size of the split, so that the input splits can be sorted by size.
- getLength() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat.DataDrivenDBInputSplit
-
- getLength() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
-
- getLength() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
- getLength(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
Returns the length of the ith Path
- getLength() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
-
The number of bytes in the file to process.
- getLengths() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
Returns an array containing the lengths of the files in the split
- getLengths() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
Returns an array containing the lengths of the files in the split
- getLevel() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Return this node's level in the tree.
- getLevel() - 类 中的方法org.apache.hadoop.hdfs.tools.offlineImageViewer.DepthCounter
-
- getLevel() - 接口 中的方法org.apache.hadoop.net.Node
-
Return this node's level in the tree.
- getLevel() - 类 中的方法org.apache.hadoop.net.NodeBase
-
Return this node's level in the tree.
- getLevel() - 类 中的方法org.apache.hadoop.tools.rumen.Node
-
Get the level of the node.
- getLibJars(Configuration) - 类 中的静态方法org.apache.hadoop.util.GenericOptionsParser
-
If libjars are set in the conf, parse the libjars.
- getLinkCount(File) - 类 中的静态方法org.apache.hadoop.fs.HardLink
-
Retrieves the number of links to the specified file.
- getLinkMultArgLength(File, String[], File) - 类 中的静态方法org.apache.hadoop.fs.HardLink
-
Calculate the nominal length of all contributors to the total
commandstring length, including fixed overhead of the OS-dependent
command.
- getListener() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter.SecureResources
-
- getListenerAddress() - 类 中的方法org.apache.hadoop.ipc.Server
-
Return the socket (ip+port) on which the RPC server is listening to.
- getListing(String, byte[]) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Get a partial listing of the indicated directory
- getListing(String, byte[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Get a partial listing of the indicated directory
- getListing(String, byte[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getLiveNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Returned information is a JSON representation of map with host name as the
key and value is a map of live node attribute keys to its values
- getLiveNodes() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the live node information of the cluster.
- getLoadNativeLibraries(Configuration) - 类 中的方法org.apache.hadoop.util.NativeCodeLoader
-
Return if native hadoop libraries, if present, can be used for this job.
- getLocal(Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Get the local file syste
- getLocalAnalysisClass() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the local analysis class.
- getLocalCacheArchives(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Return the path array of the localized caches.
- getLocalCacheFiles(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Return the path array of the localized files.
- getLocalDirs() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- getLocalDirs() - 类 中的方法org.apache.hadoop.mapred.TaskController
-
- getLocalHostName() - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
Get the fqdn for the current host.
- getLocalInetAddress(String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Checks if
host
is a local host name and return
InetAddress
corresponding to that address.
- getLocality() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the locality of the task attempt
- getLocalJobDir(String, String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
-
- getLocalJobFilePath(JobID) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Get the path of the locally stored job file
- getLocalJobFilePath(JobID) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
-
Get the localized job file path on the job trackers local file system
- getLocalMaxRunningMaps(JobContext) - 类 中的静态方法org.apache.hadoop.mapred.LocalJobRunner
-
- getLocalName() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the string representation of the local name
- getLocalNameInBytes() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the Java UTF8 representation of the local name
- getLocalPath(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get a local file under a directory named by dirsProp with
the given path.
- getLocalPath(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Constructs a local file name.
- getLocalPathForWrite(String, Configuration) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
-
Get a path from the local FS.
- getLocalPathForWrite(String, long, Configuration) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
-
Get a path from the local FS.
- getLocalPathForWrite(String, long, Configuration, boolean) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
-
Get a path from the local FS.
- getLocalPathToRead(String, Configuration) - 类 中的方法org.apache.hadoop.fs.LocalDirAllocator
-
Get a path from the local FS for reading.
- getLocalTaskDir(String, String, String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
-
- getLocalTaskDir(String, String, String, boolean) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
-
- getLocatedBlocks() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
-
Get located blocks.
- getLocation(int) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
-
getLocations from ith InputSplit.
- getLocation() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getLocations() - 类 中的方法org.apache.hadoop.examples.SleepJob.EmptySplit
-
- getLocations() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- getLocations() - 类 中的方法org.apache.hadoop.mapred.FileSplit
-
- getLocations() - 接口 中的方法org.apache.hadoop.mapred.InputSplit
-
Get the list of hostnames where the input split is located.
- getLocations() - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
-
Collect a set of hosts from all child InputSplits.
- getLocations() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
Returns all the Paths where this input-split resides
- getLocations() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
-
Get the list of hostnames where the input split is located.
- getLocations() - 类 中的方法org.apache.hadoop.mapred.MultiFileSplit
-
已过时。
- getLocations() - 类 中的方法org.apache.hadoop.mapreduce.InputSplit
-
Get the list of nodes by name where the data for the split would be local.
- getLocations() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
-
Get the list of nodes by name where the data for the split would be local.
- getLocations() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
Returns all the Paths where this input-split resides
- getLocations() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
-
- getLocations() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
-
- getLocations() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
-
- getLoggedJob() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
Get the underlining
LoggedJob
object read directly from the trace.
- getLoginUser() - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
-
Get the currently logged in user.
- getLogLocation() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.JVMInfo
-
- getLogPath() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Get output directory for writing distcp logs.
- getLong(String, long) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the value of the name
property as a long
.
- getLong(Configuration, String) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
Utility to retrieve a specified key from a Configuration.
- getLongValue(Object) - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
-
- getLowerClause() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat.DataDrivenDBInputSplit
-
- getMachineByName(String) - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- getMachineByName(String) - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
-
- getMachines() - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- getMachines() - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
-
Get all machines of the cluster.
- getMachinesInRack() - 类 中的方法org.apache.hadoop.tools.rumen.RackNode
-
Get the machine nodes that belong to the rack.
- getMajor() - 类 中的方法org.apache.hadoop.io.file.tfile.Utils.Version
-
Get the major version.
- getMapBandwidth() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Get the map bandwidth in MB
- getMapCompletionEvents(JobID, int, int, TaskAttemptID, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getMapCompletionEvents(JobID, int, int, TaskAttemptID, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
-
Called by a reduce task to get the map output locations for finished maps.
- getMapCounters(Counters) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Returns map phase counters by summing over all map tasks in progress.
- getMapCounters() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the Map counters for the job
- getMapDebugScript() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the map task's debug script.
- getMapFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the map phase finish time
- getMapInputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getMapInputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getMapOutputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getMapOutputCompressorClass(Class<? extends CompressionCodec>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- getMapOutputKeyClass() - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.IndexUpdateMapper
-
Get the map output key class.
- getMapOutputKeyClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the key class for the map output data.
- getMapOutputKeyClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the key class for the map output data.
- getMapOutputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getMapOutputValueClass() - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.IndexUpdateMapper
-
Get the map output value class.
- getMapOutputValueClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the value class for the map output data.
- getMapOutputValueClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the value class for the map output data.
- getMapper() - 类 中的方法org.apache.hadoop.mapred.MapRunner
-
- getMapperClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the
Mapper
class for the job.
- getMapperClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the
Mapper
class for the job.
- getMapperClass(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.map.MultithreadedMapper
-
Get the application's mapper class.
- getMapperMaxSkipRecords(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Get the number of acceptable skip records surrounding the bad record PER
bad record in mapper.
- getMapperTriesToSucceed() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getMapredJobID() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- getMapredJobID() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- getMapredTempDir() - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Get the Map/Reduce temp directory.
- getMapRunnerClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- getMapRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.MapTaskAttemptInfo
-
Get the runtime for the map phase of the map-task attempt.
- getMapSlotCapacity() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the total number of map slots in the cluster.
- getMapSlots() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
-
Get the number of map slots of the node.
- getMapSpeculativeExecution() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Should speculative execution be used for this job for map tasks?
- getMapTaskAttemptInfoAdjusted(int, int, int) - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get
TaskAttemptInfo
for a given task-attempt, considering impact
of locality.
- getMapTaskAttemptInfoAdjusted(int, int, int) - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getMapTaskCompletionEvents() - 类 中的方法org.apache.hadoop.mapred.MapTaskCompletionEventsUpdate
-
- getMapTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get the information of the current state of the map tasks of a job.
- getMapTaskReports(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
- getMapTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getMapTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getMapTasks() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the number of currently running map tasks in the cluster.
- getMapTasks() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getMasterKeyId() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- getMaxAllowedCmdArgLength() - 类 中的静态方法org.apache.hadoop.fs.HardLink
-
Return this private value for use by unit tests.
- getMaxDate() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- getMaxDepth(int) - 类 中的静态方法org.apache.hadoop.util.QuickSort
-
Deepest recursion before giving up and doing a heapsort.
- getMaximum() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedDiscreteCDF
-
- getMaximumDistance() - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- getMaximumDistance() - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
-
Get the maximum distance possible between any two nodes.
- getMaxMapAttempts() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the configured number of maximum attempts that will be made to run a
map task, as specified by the mapred.map.max.attempts
property.
- getMaxMaps() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Get the max number of maps to use for this copy
- getMaxMapSlots() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get the maximum map slots for this node.
- getMaxMapTaskFailuresPercent() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the maximum percentage of map tasks that can fail without
the job being aborted.
- getMaxMapTasks() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the maximum capacity for running map tasks in the cluster.
- getMaxMemory() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
已过时。
- getMaxPhysicalMemoryForTask() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
已过时。
this variable is deprecated and nolonger in use.
- getMaxReduceAttempts() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the configured number of maximum attempts that will be made to run a
reduce task, as specified by the mapred.reduce.max.attempts
property.
- getMaxReduceSlots() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get the maximum reduce slots for this node.
- getMaxReduceTaskFailuresPercent() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the maximum percentage of reduce tasks that can fail without
the job being aborted.
- getMaxReduceTasks() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the maximum capacity for running reduce tasks in the cluster.
- getMaxSplitSize(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Get the maximum split size.
- getMaxTaskFailuresPerTracker() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Expert: Get the maximum no. of failures of a given job per tasktracker.
- getMaxTime() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
-
已过时。
- getMaxVirtualMemoryForTask() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- getMBeanInfo() - 类 中的方法org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
-
已过时。
- getMechanismName() - 枚举 中的方法org.apache.hadoop.security.SaslRpcServer.AuthMethod
-
Return the SASL mechanism name
- getMemory() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Get the total amount of buffer memory, in bytes.
- getMemory() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
-
Get the available physical RAM of the node.
- getMemoryCalculatorPlugin(Class<? extends MemoryCalculatorPlugin>, Configuration) - 类 中的静态方法org.apache.hadoop.util.MemoryCalculatorPlugin
-
已过时。
Get the MemoryCalculatorPlugin from the class name and configure it.
- getMemoryForMapTask() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get memory required to run a map task of the job, in MB.
- getMemoryForReduceTask() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get memory required to run a reduce task of the job, in MB.
- getMemoryPerMapSlot() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
-
Get the amount of RAM reserved for each map slot.
- getMemoryPerReduceSlot() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
-
Get the amount of RAM reserved for each reduce slot.
- getMergeRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceTaskAttemptInfo
-
Get the runtime for the merge phase of the reduce task-attempt
- getMessage() - 异常错误 中的方法org.apache.hadoop.hdfs.protocol.DSQuotaExceededException
-
- getMessage() - 异常错误 中的方法org.apache.hadoop.hdfs.protocol.NSQuotaExceededException
-
- getMessage() - 异常错误 中的方法org.apache.hadoop.hdfs.protocol.QuotaExceededException
-
- getMessage() - 异常错误 中的方法org.apache.hadoop.mapred.InvalidInputException
-
Get a summary message of the problems found.
- getMessage() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- getMessage() - 异常错误 中的方法org.apache.hadoop.mapreduce.lib.input.InvalidInputException
-
Get a summary message of the problems found.
- getMessage() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
- getMessage() - 异常错误 中的方法org.apache.hadoop.record.compiler.generated.ParseException
-
This method has the standard behavior when this object has been
created using the standard constructors.
- getMessage() - 错误 中的方法org.apache.hadoop.record.compiler.generated.TokenMgrError
-
You can also modify the body of this method to customize your error messages.
- getMetaBlock(String) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Stream access to a meta block
- getMetadata() - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
-
- getMetadata() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Returns the metadata object of the file
- getMetaDataInputStream(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- getMetaDataInputStream(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns metaData of block b as an input stream (and its length)
- getMetaDataLength(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- getMetaDataLength(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns the length of the metadata file of the specified block
- getMetaFile(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- getMetaPath() - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockLocalPathInfo
-
Get the Block metadata file.
- getMetric(String) - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
-
已过时。
Returns the metric object which can be a Float, Integer, Short or Byte.
- getMetric(String) - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache.Record
-
Get the metric value
- getMetricInstance(String) - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache.Record
-
Get the metric value
- getMetricNames() - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
-
已过时。
Returns the set of metric names.
- getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
-
- getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.mapred.TaskTrackerMetricsSource
-
- getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.AbstractMetricsSource
-
- getMetrics(MetricsBuilder, boolean) - 接口 中的方法org.apache.hadoop.metrics2.MetricsSource
-
Get metrics from the source
- getMetrics(MetricsBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.source.JvmMetricsSource
-
- getMetricsCopy() - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
-
已过时。
Returns a copy of this record's metrics.
- getMetricsList() - 类 中的方法org.apache.hadoop.metrics.util.MetricsRegistry
-
已过时。
- getMinimum() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedDiscreteCDF
-
- getMinor() - 类 中的方法org.apache.hadoop.io.file.tfile.Utils.Version
-
Get the minor version.
- getMinSplitSize(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Get the minimum split size
- getMinTime() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
-
已过时。
- getMissingBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Returns count of blocks with no good replicas left.
- getMissingBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Returns count of blocks with no good replicas left.
- getMissingBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getMode() - 类 中的方法org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- getModificationTime() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Get the modification time of the file.
- getModificationTime() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the modification time of the file.
- getMount() - 类 中的方法org.apache.hadoop.fs.DF
-
- getMultipleLinearRandomRetry(Configuration, String, boolean, String, String) - 类 中的静态方法org.apache.hadoop.io.retry.RetryUtils
-
Return the MultipleLinearRandomRetry policy specified in the conf,
or null if the feature is disabled.
- getName() - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino.Piece
-
- getName() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
已过时。
call #getUri() instead.
- getName() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
已过时。
call #getUri() instead.
- getName() - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
已过时。
- getName() - 类 中的方法org.apache.hadoop.fs.Path
-
Returns the final component of this path.
- getName() - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
已过时。
- getName() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
- getName(boolean) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Return hostname:port if requested, ip:port otherwise
- getName() - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.AccessTimeParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.BlockSizeParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.BufferSizeParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.ConcatSourcesParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.DelegationParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.DestinationParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.DoAsParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.GetOpParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.GroupParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.LengthParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.ModificationTimeParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.OffsetParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.OverwriteParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.OwnerParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.Param
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.PermissionParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.PostOpParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.PutOpParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.RecursiveParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.RenewerParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.ReplicationParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.TokenArgumentParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.UriFsPathParam
-
- getName() - 类 中的方法org.apache.hadoop.hdfs.web.resources.UserParam
-
- getName(Class) - 类 中的静态方法org.apache.hadoop.io.WritableName
-
Return the name for a class.
- getName() - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
Returns raw name of the group.
- getName() - 类 中的方法org.apache.hadoop.mapreduce.Counter
-
- getName() - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
-
Get the internal name of the group
- getName() - 类 中的方法org.apache.hadoop.metrics.util.MetricsBase
-
已过时。
- getName() - 接口 中的方法org.apache.hadoop.net.Node
-
Return this node's name
- getName() - 类 中的方法org.apache.hadoop.net.NodeBase
-
Return this node's name
- getName() - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
-
return the name of the record
- getName() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
-
Returns the principal name (this method name comes from the JDK
Principal
interface).
- getName() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the job name.
- getName() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedNetworkTopology
-
- getName() - 类 中的方法org.apache.hadoop.tools.rumen.Node
-
Get the name of the node.
- getName() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getNamed(String, Configuration) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
已过时。
call #get(URI,Configuration) instead.
- getNameDirStatuses() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getNameDirStatuses() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Get status information about the directories storing image and edits logs
of the NN.
- getNamedOutputFormatClass(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Returns the named output OutputFormat.
- getNamedOutputKeyClass(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Returns the key class for a named output.
- getNamedOutputs() - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Returns iterator with the defined name outputs.
- getNamedOutputsList(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Returns list of channel names.
- getNamedOutputValueClass(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Returns the value class for a named output.
- getNamenode() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Return the namenode's identifier
- getNamenodeAddr(URI) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getNameNodeAddr() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getNamenodeAddress() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getNamenodeAddress() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
-
Gets the namenode IP address.
- getNameNodeAddress() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Returns the address on which the NameNodes is listening to.
- getNameNodeMetrics() - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getNames() - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Get the list of names (hostname:port) hosting this block
- getNamespaceDirs(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getNamespaceEditsDirs(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getNamespaceID() - 类 中的方法org.apache.hadoop.hdfs.server.common.StorageInfo
-
- getNamesystem() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getNameWithIpcPort(boolean) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Return hostname:ipcPort if requested, ip:ipcPort otherwise
- getNestedStructTypeInfo(String) - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
-
Return the type info of a nested record.
- getNetgroupNames() - 类 中的方法org.apache.hadoop.security.NetgroupCache
-
- getNetgroups(String, List<String>) - 类 中的方法org.apache.hadoop.security.NetgroupCache
-
- getNetgroups(String, List<String>) - 类 中的方法org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
-
- getNetworkLocation() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
network location
- getNetworkLocation() - 接口 中的方法org.apache.hadoop.net.Node
-
Return the string representation of this node's network location
- getNetworkLocation() - 类 中的方法org.apache.hadoop.net.NodeBase
-
Return this node's network location
- getNewJobId() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Allocates a new JobId string.
- getNewJobId() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getNext() - 接口 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet.LinkedElement
-
Get the next element.
- getNext() - 类 中的方法org.apache.hadoop.tools.rumen.DefaultInputDemuxer
-
- getNext() - 接口 中的方法org.apache.hadoop.tools.rumen.InputDemuxer
-
Get the next pair.
- getNextHeartbeatInterval() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Calculates next heartbeat interval using cluster size.
- getNextJob() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStoryProducer
-
Get the next job.
- getNextJob() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJobProducer
-
- getNextRecordRange() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Get the next record range which is going to be processed by Task.
- getNextToken() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- getNextToken() - 类 中的方法org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- getNode(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Return the Node in the network topology that corresponds to the hostname
- getNode() - 类 中的方法org.apache.hadoop.mapred.join.Parser.NodeToken
-
- getNode() - 类 中的方法org.apache.hadoop.mapred.join.Parser.Token
-
- getNode(String) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Given a string representation of a node, return its reference
- getNodeForNetworkLocation(Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Return a reference to the node given its string representation.
- getNodeForNetworkLocation(Node) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
-
- getNodeGroup(String) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
-
Given a string representation of a node group for a specific network
location
- getNodesAtMaxLevel() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Returns a collection of nodes at the max level
- getNonDfsUsed() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
The used space by the data node.
- getNonDfsUsedSpace() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getNonDfsUsedSpace() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets total used space by data nodes for non DFS purposes such as storing
temporary files on the local file system
- getNullContext(String) - 类 中的静态方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
Returns a "null" context - one which does nothing.
- getNum() - 类 中的方法org.apache.hadoop.mapred.join.Parser.NumToken
-
- getNum() - 类 中的方法org.apache.hadoop.mapred.join.Parser.Token
-
- getNumber() - 类 中的方法org.apache.hadoop.metrics.spi.MetricValue
-
已过时。
- getNumberColumns() - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
-
Get the number of columns.
- getNumberMaps() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
- getNumberMaps() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getNumberOfBlocks() - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockListAsLongs
-
The number of blocks
- getNumberOfKeys() - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
-
Returns the number of delegation keys currently stored.
- getNumberOfPaths() - 类 中的方法org.apache.hadoop.tools.distcp2.CopyListing
-
Return the total number of paths to distcp, includes directories as well
This doesn't consider whether file/dir is already present and should be skipped during copy
- getNumberOfPaths() - 类 中的方法org.apache.hadoop.tools.distcp2.FileBasedCopyListing
-
Return the total number of paths to distcp, includes directories as well
This doesn't consider whether file/dir is already present and should be skipped during copy
- getNumberOfPaths() - 类 中的方法org.apache.hadoop.tools.distcp2.GlobbedCopyListing
-
Return the total number of paths to distcp, includes directories as well
This doesn't consider whether file/dir is already present and should be skipped during copy
- getNumberOfPaths() - 类 中的方法org.apache.hadoop.tools.distcp2.SimpleCopyListing
-
Return the total number of paths to distcp, includes directories as well
This doesn't consider whether file/dir is already present and should be skipped during copy
- getNumberOfThreads(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.map.MultithreadedMapper
-
The number of threads in the thread pool that will run the map function.
- getNumberOfUniqueHosts() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getNumberReduces() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the number of reduce in the
JobStory
.
- getNumberReduces() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getNumberValues() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedDiscreteCDF
-
- getNumBytes() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- getNumBytes() - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockLocalPathInfo
-
Get number of bytes in the block.
- getNumBytesInSum() - 类 中的方法org.apache.hadoop.util.DataChecksum
-
- getNumCores() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
-
Get the number of cores of the node.
- getNumExcludedNodes() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the number of excluded hosts in the cluster.
- getNumFiles(PathFilter) - 类 中的方法org.apache.hadoop.fs.InMemoryFileSystem
-
已过时。
- getNumLinesPerSplit(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
-
Get the number of lines per split
- getNumLoggedMaps() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
Getting the number of map tasks that are actually logged in the trace.
- getNumLoggedReduces() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
Getting the number of reduce tasks that are actually logged in the trace.
- getNumMapTasks() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get configured the number of reduce tasks for this job.
- getNumMapTasks(Configuration) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
- getNumOfKeyFields() - 类 中的方法org.apache.hadoop.streaming.PipeMapper
-
- getNumOfKeyFields() - 类 中的方法org.apache.hadoop.streaming.PipeMapRed
-
Returns the number of key fields.
- getNumOfKeyFields() - 类 中的方法org.apache.hadoop.streaming.PipeReducer
-
- getNumOfLeaves() - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Return the total number of nodes
- getNumOfRacks() - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Return the total number of racks
- getNumOfReplies() - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
-
Get the number of replies
- getNumOpenConnections() - 类 中的方法org.apache.hadoop.ipc.Server
-
The number of open RPC conections
- getNumPaths() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
Returns the number of Paths in the split
- getNumPaths() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
Returns the number of Paths in the split
- getNumProcessors() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Obtain the total number of processors present on the system.
- getNumProcessors() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain the total number of processors present on the system.
- getNumReduceTasks() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get configured the number of reduce tasks for this job.
- getNumReduceTasks() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get configured the number of reduce tasks for this job.
- getNumRequests() - 类 中的方法org.apache.hadoop.mapred.ShuffleExceptionTracker
-
Gets the number of requests we are tracking
- getNumReservedTaskTrackersForMaps() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getNumReservedTaskTrackersForReduces() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getNumResolvedTaskTrackers() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getNumSchedulingOpportunities() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getNumSlots() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getNumSlotsPerTask(TaskType) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getNumSlotsRequired() - 类 中的方法org.apache.hadoop.mapred.Task
-
- getNumStaleNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getNumStorageDirs() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
-
- getNumTaskCacheLevels() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getNumTasksToExecutePerJvm() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the number of tasks that a spawned JVM should execute
- getOccupiedMapSlots() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get number of occupied map slots in the cluster.
- getOccupiedReduceSlots() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the number of occupied reduce slots in the cluster.
- getOffset() - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Get the start offset of file associated with this block
- getOffset() - 接口 中的方法org.apache.hadoop.io.ReadaheadPool.ReadaheadRequest
-
- getOffset(int) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
Returns the start offset of the ith Path
- getOffset(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
Returns the start offset of the ith Path
- getOidInstance(String) - 类 中的静态方法org.apache.hadoop.security.authentication.util.KerberosUtil
-
- getOp() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocTextAndOp
-
Get the type of the operation.
- getOp() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
-
Get the type of operation.
- getOperations() - 类 中的方法org.apache.hadoop.mapred.QueueAclsInfo
-
- GetOpParam - org.apache.hadoop.hdfs.web.resources中的类
-
Http GET operation parameter.
- GetOpParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.GetOpParam
-
Constructor.
- GetOpParam.Op - org.apache.hadoop.hdfs.web.resources中的枚举
-
Get operations.
- getOpt(String) - 类 中的方法org.apache.hadoop.fs.shell.CommandFormat
-
Return if the option is set or not
- getOption() - 枚举 中的方法org.apache.hadoop.tools.distcp2.DistCpOptionSwitch
-
Get CLI Option corresponding to the distcp option
- getOtherAction() - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
-
- getOtherTasks() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getOutcome() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the outcome of the job execution.
- getOutcome() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getOutcome() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getOutput() - 类 中的方法org.apache.hadoop.util.Shell.ShellCommandExecutor
-
Get the output of the shell command.
- getOutputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getOutputBytes() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
-
- getOutputCommitter() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat
-
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat
-
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.LazyOutputFormat
-
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.NullOutputFormat
-
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputFormat
-
Get the output committer for this output format.
- getOutputCommitter() - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
-
- getOutputCommitter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
-
- getOutputCompressionType(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileOutputFormat
-
- getOutputCompressionType(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat
-
- getOutputCompressorClass(JobConf, Class<? extends CompressionCodec>) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
- getOutputCompressorClass(JobContext, Class<? extends CompressionCodec>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
- getOutputFieldCount() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getOutputFieldNames() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getOutputFormat() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- getOutputFormatClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
- getOutputKeyClass() - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.IndexUpdateReducer
-
Get the reduce output key class.
- getOutputKeyClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the key class for the job output data.
- getOutputKeyClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the key class for the job output data.
- getOutputKeyClass() - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
Returns the resolved output key class.
- getOutputKeyComparator() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- getOutputName(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Get the base output name for the output file.
- getOutputPath(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
Get the
Path
to the output directory for the map-reduce job.
- getOutputPath(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Get the
Path
to the output directory for the map-reduce job.
- getOutputReaderClass() - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
- getOutputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getOutputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
-
- getOutputSize() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Returns the number of bytes of output from this map.
- getOutputStream(Socket) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Same as getOutputStream(socket, 0).
- getOutputStream(Socket, long) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Returns OutputStream for the socket.
- getOutputStream(OutputStream) - 类 中的方法org.apache.hadoop.security.SaslRpcClient
-
Get a SASL wrapped OutputStream.
- getOutputTableName() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- getOutputValueClass() - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.IndexUpdateReducer
-
Get the reduce output value class.
- getOutputValueClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the value class for job outputs.
- getOutputValueClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the value class for job outputs.
- getOutputValueClass() - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
Returns the resolved output value class.
- getOutputValueGroupingComparator() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the user defined
WritableComparable
comparator for
grouping keys of inputs to the reduce.
- getOwner() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Get the owner of the file.
- getOwner() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the owner of the file.
- getOwner(FileDescriptor) - 类 中的静态方法org.apache.hadoop.io.nativeio.NativeIO
-
- getOwner() - 类 中的方法org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- getParameter(String) - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
-
Unquote the name and quote the value.
- getParameter(ServletRequest, String) - 类 中的静态方法org.apache.hadoop.util.ServletUtil
-
Get a parameter from a ServletRequest.
- getParameterMap() - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
-
- getParameterNames() - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
-
Return the set of parameter names, quoting each name.
- getParameterValues(String) - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
-
- getParent() - 类 中的方法org.apache.hadoop.fs.Path
-
Returns the parent of a path or null if at root.
- getParent() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Return this node's parent
- getParent() - 接口 中的方法org.apache.hadoop.net.Node
-
Return this node's parent
- getParent() - 类 中的方法org.apache.hadoop.net.NodeBase
-
Return this node's parent
- getParent() - 类 中的方法org.apache.hadoop.tools.rumen.Node
-
Get the parent node.
- getParentNode(Node, int) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
-
- getParser(RewindableInputStream) - 类 中的静态方法org.apache.hadoop.tools.rumen.JobHistoryParserFactory
-
- getPartialListing() - 类 中的方法org.apache.hadoop.hdfs.protocol.DirectoryListing
-
Get the partial listing of file status
- getPartition(Shard, IntermediateForm, int) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdatePartitioner
-
- getPartition(SecondarySort.IntPair, IntWritable, int) - 类 中的方法org.apache.hadoop.examples.SecondarySort.FirstPartitioner
-
- getPartition(IntWritable, NullWritable, int) - 类 中的方法org.apache.hadoop.examples.SleepJob
-
- getPartition(K2, V2, int) - 类 中的方法org.apache.hadoop.mapred.lib.HashPartitioner
-
- getPartition(K2, V2, int) - 类 中的方法org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner
-
- getPartition(int, int) - 类 中的方法org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner
-
- getPartition(K, V, int) - 类 中的方法org.apache.hadoop.mapred.lib.TotalOrderPartitioner
-
- getPartition(K2, V2, int) - 接口 中的方法org.apache.hadoop.mapred.Partitioner
-
Get the paritition number for a given key (hence record) given the total
number of partitions i.e. number of reduce-tasks for the job.
- getPartition() - 类 中的方法org.apache.hadoop.mapred.Task
-
Get the index of this task within the job.
- getPartition(BinaryComparable, V, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
-
- getPartition(K, V, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.HashPartitioner
-
- getPartition(K2, V2, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
-
- getPartition(int, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
-
- getPartition(K, V, int) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
-
- getPartition(KEY, VALUE, int) - 类 中的方法org.apache.hadoop.mapreduce.Partitioner
-
Get the partition number for a given key (hence record) given the total
number of partitions i.e. number of reduce-tasks for the job.
- getPartitionerClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- getPartitionerClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
- getPartitionFile(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.lib.TotalOrderPartitioner
-
Get the path to the SequenceFile storing the sorted partition keyset.
- getPartitionFile(Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
-
Get the path to the SequenceFile storing the sorted partition keyset.
- getPassword() - 类 中的方法org.apache.hadoop.security.token.Token
-
Get the token password/secret
- getPath() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
- getPath() - 类 中的方法org.apache.hadoop.mapred.FileSplit
-
The file containing this split's data.
- getPath(int) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
Returns the ith Path
- getPath(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
Returns the ith Path
- getPath() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
-
The file containing this split's data.
- getPath(Node) - 类 中的静态方法org.apache.hadoop.net.NodeBase
-
Return this node's path
- getPathForCustomFile(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
Helper function to generate a
Path
for a file that is unique for
the task within the job output directory.
- getPathForWorkFile(TaskInputOutputContext<?, ?, ?, ?>, String, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Helper function to generate a
Path
for a file that is unique for
the task within the job output directory.
- getPaths() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
Returns all the Paths in the split
- getPaths() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
Returns all the Paths in the split
- getPendingDeletionBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getPendingReplicationBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getPendingReplicationBlocks() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Blocks pending to be replicated
- getPercentExceptions() - 类 中的方法org.apache.hadoop.mapred.ShuffleExceptionTracker
-
Gets the percent of the requests that had exceptions occur.
- getPercentRemaining() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getPercentRemaining() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the total remaining space by data nodes as percentage of total
capacity
- getPercentUsed() - 类 中的方法org.apache.hadoop.fs.DF
-
- getPercentUsed() - 类 中的方法org.apache.hadoop.fs.InMemoryFileSystem
-
已过时。
- getPercentUsed() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getPercentUsed() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the total used space by data nodes as percentage of total capacity
- getPeriod() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
-
已过时。
Returns the timer period.
- getPeriod() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Returns the timer period.
- getPermission() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Get FsPermission associated with the file.
- getPermission() - 类 中的方法org.apache.hadoop.fs.permission.PermissionStatus
-
Return permission
- getPermission() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get FsPermission associated with the file.
- getPhase() - 类 中的方法org.apache.hadoop.mapred.Task
-
Return current phase of the task.
- getPhase() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Get current phase of this task.
- getPhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxMemoryCalculatorPlugin
-
已过时。
Obtain the total size of the physical memory present in the system.
- getPhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Obtain the total size of the physical memory present in the system.
- getPhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.MemoryCalculatorPlugin
-
已过时。
Obtain the total size of the physical memory present in the system.
- getPhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain the total size of the physical memory present in the system.
- getPhysicalMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin.ProcResourceValues
-
Obtain the physical memory size used by current process tree.
- getPhysicalMemoryUsage() - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Get the physical memory usage.
- getPlatformName() - 类 中的静态方法org.apache.hadoop.util.PlatformName
-
Get the complete platform as per the java-vm.
- getPort() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
- getPort() - 类 中的方法org.apache.hadoop.http.HttpServer
-
Get the port that the server is on
- getPos() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocRecordReader
-
- getPos() - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MultiFileLineRecordReader
-
- getPos() - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
-
- getPos() - 异常错误 中的方法org.apache.hadoop.fs.ChecksumException
-
- getPos() - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
-
- getPos() - 类 中的方法org.apache.hadoop.fs.FSDataOutputStream
-
- getPos() - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
- getPos() - 类 中的方法org.apache.hadoop.fs.FSInputStream
-
Return the current offset from the start of the file
- getPos() - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
-
- getPos() - 接口 中的方法org.apache.hadoop.fs.Seekable
-
Return the current offset from the start of the file
- getPos() - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
-
Return the current offset from the start of the file
- getPos() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
- getPos() - 类 中的方法org.apache.hadoop.io.compress.CompressionInputStream
-
This method returns the current position in the stream.
- getPos() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Unsupported (returns zero in all cases).
- getPos() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
-
Request position from proxied RR.
- getPos() - 类 中的方法org.apache.hadoop.mapred.KeyValueLineRecordReader
-
- getPos() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
return the amount of data processed
- getPos() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
-
Returns the current position in the input.
- getPos() - 类 中的方法org.apache.hadoop.mapred.LineRecordReader
-
- getPos() - 接口 中的方法org.apache.hadoop.mapred.RecordReader
-
Returns the current position in the input.
- getPos() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
- getPos() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsTextRecordReader
-
- getPos() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
-
- getPos() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
已过时。
- getPos() - 类 中的方法org.apache.hadoop.streaming.StreamBaseRecordReader
-
Returns the current position in the input.
- getPosition() - 类 中的方法org.apache.hadoop.io.DataInputBuffer
-
Returns the current position in the input.
- getPosition() - 类 中的方法org.apache.hadoop.io.InputBuffer
-
Returns the current position in the input.
- getPosition() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Return the current byte position in the input file.
- getPreferredBlockSize(String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Get the block size for the given file.
- getPreferredBlockSize(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getPreferredLocations() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getPreviousCheckpoint() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
previous.checkpoint
is a directory, which holds the previous
(before the last save) state of the storage directory.
- getPreviousDir() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
Directory previous
contains the previous file system state,
which the system can be rolled back to.
- getPreviousIntervalAverageTime() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
-
已过时。
The average rate of an operation in the previous interval
- getPreviousIntervalNumOps() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
-
已过时。
The number of operations in the previous interval
- getPreviousIntervalValue() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingInt
-
已过时。
The Value at the Previous interval
- getPreviousIntervalValue() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingLong
-
已过时。
The Value at the Previous interval
- getPreviousTmp() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
previous.tmp
is a transient directory, which holds
current file system state while the new state is saved into the new
current
during upgrade.
- getPreviousVersionFile() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
File VERSION
from the previous
directory.
- getPrincipal() - 类 中的方法org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
-
Returns the Kerberos principal used by the authentication handler.
- getPriority() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getPriority() - 类 中的方法org.apache.hadoop.tools.rumen.JobPriorityChangeEvent
-
Get the job priority
- getPriority() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getPrivateDistributedCacheDir(String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
-
- getProblems() - 异常错误 中的方法org.apache.hadoop.mapred.InvalidInputException
-
Get the complete list of the problems reported.
- getProblems() - 异常错误 中的方法org.apache.hadoop.mapreduce.lib.input.InvalidInputException
-
Get the complete list of the problems reported.
- getProcess() - 类 中的方法org.apache.hadoop.util.Shell
-
get the current sub-process executing the given command
- getProcessedByteCount() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
-
This method reports the processed bytes so far.
- getProcessTree() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Get the process-tree with latest state.
- getProcessTreeDump() - 类 中的方法org.apache.hadoop.util.ProcfsBasedProcessTree
-
Get a dump of the process-tree.
- getProcResourceValues() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
- getProcResourceValues() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain resource status used by current process tree.
- getProfile() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getProfileEnabled() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get whether the task profiling is enabled.
- getProfileParams() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the profiler configuration arguments.
- getProfileTaskRange(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the range of maps or reduces to profile.
- getProgress() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocRecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MultiFileLineRecordReader
-
- getProgress() - 接口 中的方法org.apache.hadoop.io.SequenceFile.Sorter.RawKeyValueIterator
-
Gets the Progress object; this has a float (0.0 - 1.0)
indicating the bytes processed by the iterator so far
- getProgress() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Report progress as the minimum of all child RR progress.
- getProgress() - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
-
Request progress from proxied RR.
- getProgress() - 类 中的方法org.apache.hadoop.mapred.KeyValueLineRecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
return progress based on the amount of data processed so far.
- getProgress() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.mapred.LineRecordReader
-
Get the progress within the split
- getProgress() - 接口 中的方法org.apache.hadoop.mapred.RawKeyValueIterator
-
Gets the Progress object; this has a float (0.0 - 1.0)
indicating the bytes processed by the iterator so far
- getProgress() - 接口 中的方法org.apache.hadoop.mapred.RecordReader
-
- getProgress() - 接口 中的方法org.apache.hadoop.mapred.Reporter
-
Get the progress of the task.
- getProgress() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
Return the progress within the input split
- getProgress() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsTextRecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
-
Return the progress within the input split
- getProgress() - 类 中的方法org.apache.hadoop.mapred.Task
-
- getProgress() - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- getProgress() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
The amount completed, between zero and one.
- getProgress() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
The current progress of the record reader through its data.
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
return progress based on the amount of data processed so far.
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.LineRecordReader
-
Get the progress within the split
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
Return the progress within the input split
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
-
Return the progress within the input split
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.RecordReader
-
The current progress of the record reader through its data.
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.StatusReporter
-
Get the current progress.
- getProgress() - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
-
- getProgress() - 类 中的方法org.apache.hadoop.streaming.StreamBaseRecordReader
-
- getProgress() - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicRecordReader
-
Implementation of RecordReader::getProgress().
- getProgress() - 类 中的方法org.apache.hadoop.util.Progress
-
Returns progress in this node. get() would give overall progress of the
root node(not just given current node).
- getProgressible() - 类 中的方法org.apache.hadoop.mapred.JobContext
-
Get the progress mechanism for reporting progress.
- getProgressible() - 类 中的方法org.apache.hadoop.mapred.TaskAttemptContext
-
- getProtocol() - 类 中的方法org.apache.hadoop.security.authorize.Service
-
Get the protocol for the service
- getProtocolVersion(String, long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Return protocol version corresponding to protocol interface.
- getProtocolVersion(String, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getProtocolVersion(String, long) - 接口 中的方法org.apache.hadoop.ipc.VersionedProtocol
-
Return protocol version corresponding to protocol interface.
- getProtocolVersion(String, long) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getProtocolVersion(String, long) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getProtocolVersion(String, long) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, Configuration, SocketFactory) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a client-side proxy object that implements the named protocol,
talking to a server at the named address.
- getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, Configuration, SocketFactory, int) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a client-side proxy object that implements the named protocol,
talking to a server at the named address.
- getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, UserGroupInformation, Configuration, SocketFactory) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a client-side proxy object that implements the named protocol,
talking to a server at the named address.
- getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, UserGroupInformation, Configuration, SocketFactory, int) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a client-side proxy object that implements the named protocol,
talking to a server at the named address.
- getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, UserGroupInformation, Configuration, SocketFactory, int, RetryPolicy, boolean) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a client-side proxy object that implements the named protocol,
talking to a server at the named address.
- getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, Configuration) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a client-side proxy object with the default SocketFactory
- getProxy(Class<? extends VersionedProtocol>, long, InetSocketAddress, Configuration, int) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
- getProxySuperuserGroupConfKey(String) - 类 中的静态方法org.apache.hadoop.security.authorize.ProxyUsers
-
Returns configuration key for effective user groups allowed for a superuser
- getProxySuperuserIpConfKey(String) - 类 中的静态方法org.apache.hadoop.security.authorize.ProxyUsers
-
Return configuration key for superuser ip addresses
- getPublicDistributedCacheDir() - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
-
- getQueue() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getQueueAclsForCurrentUser() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Gets the Queue ACLs for current user
- getQueueAclsForCurrentUser() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getQueueAclsForCurrentUser() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getQueueAdmins(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getQueueAdmins(String) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getQueueInfo(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Gets the queue information associated to a particular Job Queue
- getQueueInfo(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getQueueInfo(String) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getQueueInfoJson() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getQueueInfoJson() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getQueueManager() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Return the QueueManager
associated with the JobTracker.
- getQueueMetrics() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Get the QueueMetrics object associated with this job
- getQueueName() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Return the name of the queue to which this job is submitted.
- getQueueName() - 类 中的方法org.apache.hadoop.mapred.JobProfile
-
Get the name of the queue to which the job is submitted.
- getQueueName() - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
-
Get the queue name from JobQueueInfo
- getQueueName() - 类 中的方法org.apache.hadoop.mapred.QueueAclsInfo
-
- getQueueName() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the queue where the job is submitted.
- getQueueName() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getQueues() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Return an array of queue information objects about all the Job Queues
configured.
- getQueues() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getQueues() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getQueueState() - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
-
Return the queue state
- getQuota() - 类 中的方法org.apache.hadoop.fs.ContentSummary
-
Return the directory quota
- getRack(DatanodeInfo) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
-
Get rack string from a data node
- getRack(DatanodeInfo) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicyWithNodeGroup
-
- getRack(String) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Given a string representation of a rack for a specific network
location
To be overridden in subclasses for specific NetworkTopology
implementations, as alternative to overriding the full
NetworkTopology.getRack(String)
method.
- getRack(String) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
-
- getRackByName(String) - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- getRackByName(String) - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
-
- getRackNode() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
-
Get the rack node that the machine belongs to.
- getRacks() - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- getRacks() - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
-
Get all racks of the cluster.
- getRandomDatanode() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getRandomId() - 类 中的静态方法org.apache.hadoop.tools.DistCp
-
- getRandomMachines(int, Random) - 类 中的方法org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- getRandomMachines(int, Random) - 接口 中的方法org.apache.hadoop.tools.rumen.ClusterStory
-
Select a random set of machines.
- getRange(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Parse the given attribute as a set of integer ranges
- getRankingAt(int) - 类 中的方法org.apache.hadoop.tools.rumen.CDFRandomGenerator
-
- getRankings() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedDiscreteCDF
-
- getRaw(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
- getRaw() - 类 中的方法org.apache.hadoop.fs.LocalFileSystem
-
- getRawCapacity() - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
-
Return the total raw capacity of the filesystem, disregarding
replication .
- getRawCapacity() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Return the total raw capacity of the filesystem, disregarding
replication .
- getRawFileSystem() - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
get the raw file system
- getRawUsed() - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
-
Return the total raw used space in the filesystem, disregarding
replication .
- getRawUsed() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Return the total raw used space in the filesystem, disregarding
replication .
- getReaders(FileSystem, Path, Configuration) - 类 中的静态方法org.apache.hadoop.mapred.MapFileOutputFormat
-
Open the output generated by this format.
- getReaders(Configuration, Path) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileOutputFormat
-
Open the output generated by this format.
- getReadOps() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Get the number of file system read operations such as list files
- getReadyJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
- getReadyJobsList() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
- getRealm() - 类 中的方法org.apache.hadoop.security.KerberosName
-
Get the realm of the name.
- getRealUser() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
get RealUser (vs.
- getReasonsForBlacklisting(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getReasonsForGraylisting(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getRecordName() - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Returns the record name.
- getRecordName() - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Returns the record name.
- getRecordNum() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
-
Get the RecordNum corresponding to the entry pointed by the cursor.
- getRecordNumNear(long) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader
-
Get the RecordNum for the first key-value pair in a compressed block
whose byte offset in the TFile is greater than or equal to the specified
offset.
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.MyInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.examples.SleepJob.SleepInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.examples.terasort.TeraInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 接口 中的方法org.apache.hadoop.mapred.InputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 接口 中的方法org.apache.hadoop.mapred.join.ComposableInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputFormat
-
Construct a CompositeRecordReader for the children of this InputFormat
as defined in the init expression.
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.KeyValueTextInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
-
This is not implemented yet.
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.DelegatingInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.NLineInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.MultiFileInputFormat
-
已过时。
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsTextInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter
-
Create a record reader for the given split
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.mapred.TextInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.streaming.AutoInputFormat
-
- getRecordReader(InputSplit, JobConf, Reporter) - 类 中的方法org.apache.hadoop.streaming.StreamInputFormat
-
- getRecordReaderQueue() - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Return sorted list of RecordReaders for this composite.
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateOutputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.examples.terasort.TeraOutputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.FileOutputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBOutputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.MultipleOutputFormat
-
Create a composite record writer that can write key/value data to different
output files
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.lib.NullOutputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.MapFileOutputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 接口 中的方法org.apache.hadoop.mapred.OutputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.SequenceFileOutputFormat
-
- getRecordWriter(FileSystem, JobConf, String, Progressable) - 类 中的方法org.apache.hadoop.mapred.TextOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.LazyOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.NullOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.TextOutputFormat
-
- getRecordWriter(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputFormat
-
- getRecoveryDuration() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
How long the jobtracker took to recover from restart.
- getRedirect() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
-
- getRedirect() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
-
- getRedirect() - 接口 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Op
-
- getRedirect() - 类 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.TemporaryRedirectOp
-
- getRedirect() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
-
- getRedirect() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
-
- getReduceCounters(Counters) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Returns map phase counters by summing over all map tasks in progress.
- getReduceCounters() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the reduce counters for the job
- getReduceDebugScript() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the reduce task's debug Script
- getReduceInputGroups() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getReduceInputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getReduceOutputRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getReducerClass() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- getReducerClass() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
- getReducerMaxSkipGroups(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Get the number of acceptable skip groups surrounding the bad group PER
bad group in reducer.
- getReduceRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceTaskAttemptInfo
-
Get the runtime for the reduce phase of the reduce task-attempt.
- getReduceShuffleBytes() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getReduceSlotCapacity() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the total number of reduce slots in the cluster.
- getReduceSlots() - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode
-
Get the number of reduce slots of the node.
- getReduceSpeculativeExecution() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Should speculative execution be used for this job for reduce tasks?
- getReduceTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get the information of the current state of the reduce tasks of a job.
- getReduceTaskReports(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
- getReduceTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getReduceTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getReduceTasks() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the number of currently running reduce tasks in the cluster.
- getReduceTasks() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getRegistrationID(StorageInfo) - 类 中的静态方法org.apache.hadoop.hdfs.server.common.Storage
-
- getRegistrationID() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Get registrationID for datanodes based on the namespaceID.
- getRegistrationID() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
- getRelativePath(Path, Path) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
Gets relative path of child path with respect to a root path
For ex.
- getRelativeRanking() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedSingleRelativeRanking
-
- getRelativeTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getRemaining() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem.DiskStatus
-
- getRemaining() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
The raw free space.
- getRemaining() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Return how many bytes can still be stored in the FSDataset
- getRemaining() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.FSDatasetMBean
-
Returns the amount of free storage space (in bytes)
- getRemaining() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
-
- getRemaining() - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
-
Returns the number of bytes remaining in the compressed-data buffer;
typically called after the decompressor has finished decompressing
the current gzip stream (a.k.a.
- getRemaining() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
-
Returns 0
.
- getRemaining() - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
-
Returns the number of bytes remaining in the input buffer; normally
called when finished() is true to determine amount of post-gzip-stream
data.
- getRemaining() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
-
Returns the number of bytes remaining in the input buffers; normally
called when finished() is true to determine amount of post-gzip-stream
data.
- getRemainingArgs() - 类 中的方法org.apache.hadoop.util.GenericOptionsParser
-
Returns an array of Strings containing only application-specific arguments.
- getRemainingEntries() - 类 中的方法org.apache.hadoop.hdfs.protocol.DirectoryListing
-
Get the number of remaining entries that are left to be listed
- getRemainingPercent() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
The remaining space as percentage of configured capacity.
- getRemoteAddress() - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
-
- getRemoteAddress() - 类 中的静态方法org.apache.hadoop.ipc.Server
-
Returns remote address as a string when invoked inside an RPC.
- getRemoteIp() - 类 中的静态方法org.apache.hadoop.ipc.Server
-
Returns the remote side ip address when invoked inside an RPC
Returns null incase of an error.
- getRemovedTmp() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
removed.tmp
is a transient directory, which holds
current file system state while the previous state is moved into
current
during rollback.
- getRenewAddress(String, InetSocketAddress, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DelegationTokenFetcher
-
Get the URI that we use for getting, renewing, and cancelling the
delegation token.
- getRenewDate() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager.DelegationTokenInformation
-
returns renew date
- getRenewer() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- getRenewToken() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getRenewToken() - 接口 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenRenewer.Renewable
-
- getRenewToken() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getReplication() - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Get the replication factor of a file.
- getReplication(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
已过时。
Use getFileStatus() instead
- getReplication(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
已过时。
- getReplication() - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
Get the replication factor of a file.
- getReplWorkMultiplier(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.DFSUtil
-
Get DFS_NAMENODE_REPLICATION_WORK_MULTIPLIER_PER_ITERATION
from configuration.
- getReply(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
-
get the ith reply
- getReport() - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
-
log the counters
- getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.DoubleValueSum
-
- getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMax
-
- getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMin
-
- getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueSum
-
- getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMax
-
- getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMin
-
- getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
-
- getReport() - 接口 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregator
-
- getReport() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
-
- getReportDetails() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
-
- getReportItems() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
-
- getRequestFilter() - 类 中的方法org.apache.hadoop.hdfs.web.ParamFilter
-
- getRequestURL() - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
-
Quote the url so that users specifying the HOST HTTP header
can't inject attacks.
- getRequestURL(HttpServletRequest) - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Returns the full URL of the request including the query string.
- getReservedMapSlots() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get number of reserved map slots in the cluster.
- getReservedReduceSlots() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the number of reserved reduce slots in the cluster.
- getResolvedUrl(HttpURLConnection) - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
-
- getResource(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the
URL
for the named resource.
- getResourceBundle(String) - 类 中的静态方法org.apache.hadoop.mapreduce.CounterGroup
-
Returns the specified resource bundle, or throws an exception.
- getResourceCalculatorPlugin(Class<? extends ResourceCalculatorPlugin>, Configuration) - 类 中的静态方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Get the ResourceCalculatorPlugin from the class name and configure it.
- getResourceUsageMetrics() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getResourceUsageMetrics() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
-
- getResponseFilter() - 类 中的方法org.apache.hadoop.hdfs.web.ParamFilter
-
- getResult() - 类 中的方法org.apache.hadoop.examples.Sort
-
Get the last job that was run using this instance.
- getResult() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getRetainHours() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.JobCompletedEvent
-
Get the number of hours for which job logs should be retained.
- getRevision() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
-
- getRevision() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
-
Get the subversion revision number for the root directory
- getRoot() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
Get root directory of this storage
- getRoot(UserGroupInformation, DelegationParam, GetOpParam, OffsetParam, LengthParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.DatanodeWebHdfsMethods
-
Handle HTTP GET request for the root.
- getRoot(UserGroupInformation, DelegationParam, UserParam, DoAsParam, GetOpParam, OffsetParam, LengthParam, RenewerParam, BufferSizeParam) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.web.resources.NamenodeWebHdfsMethods
-
Handle HTTP GET request for the root.
- getRotations() - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino.Piece
-
- getRpcMetrics() - 类 中的方法org.apache.hadoop.ipc.Server
-
Returns a handle to the rpcMetrics (required in tests)
- getRpcPort() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getRpcPort() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
-
Gets the rpc port.
- getRpcPort() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getRpcPort() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
-
- getRunAsUser(JobConf) - 类 中的方法org.apache.hadoop.mapred.TaskController
-
Returns the local unix user that a given job will run as.
- getRunnable() - 类 中的方法org.apache.hadoop.util.Daemon
-
- getRunningJobList() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
- getRunningJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
- getRunningJobs() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Version that is called from a timer thread, and therefore needs to be
careful to synchronize.
- getRunningMaps() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the number of running map tasks in the cluster.
- getRunningReduces() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the number of running reduce tasks in the cluster.
- getRunningTaskAttempts() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
Get the running task attempt IDs for this task
- getRunState() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- getRunState() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getRunState() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptInfo
-
- getRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.MapTaskAttemptInfo
-
- getRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceTaskAttemptInfo
-
- getRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptInfo
-
Get the total runtime for the task-attempt.
- getSafemode() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getSafemode() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the safemode status
- getSafeModeText() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- getSafeModeTip() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getSample(InputFormat<K, V>, JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler.IntervalSampler
-
For each split sampled, emit when the ratio of the number of records
retained to the total record count is less than the specified
frequency.
- getSample(InputFormat<K, V>, JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler.RandomSampler
-
Randomize the split order, then take the specified number of keys from
each split sampled, where each key is selected with the specified
probability and possibly replaced by a subsequently selected key when
the quota of keys from that split is satisfied.
- getSample(InputFormat<K, V>, JobConf) - 接口 中的方法org.apache.hadoop.mapred.lib.InputSampler.Sampler
-
For a given job, collect and return a subset of the keys from the
input data.
- getSample(InputFormat<K, V>, JobConf) - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler.SplitSampler
-
From each split sampled, take the first numSamples / numSplits records.
- getSample(InputFormat<K, V>, Job) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.InputSampler.IntervalSampler
-
For each split sampled, emit when the ratio of the number of records
retained to the total record count is less than the specified
frequency.
- getSample(InputFormat<K, V>, Job) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.InputSampler.RandomSampler
-
Randomize the split order, then take the specified number of keys from
each split sampled, where each key is selected with the specified
probability and possibly replaced by a subsequently selected key when
the quota of keys from that split is satisfied.
- getSample(InputFormat<K, V>, Job) - 接口 中的方法org.apache.hadoop.mapreduce.lib.partition.InputSampler.Sampler
-
For a given job, collect and return a subset of the keys from the
input data.
- getSample(InputFormat<K, V>, Job) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.InputSampler.SplitSampler
-
From each split sampled, take the first numSamples / numSplits records.
- getSaslQop() - 枚举 中的方法org.apache.hadoop.security.SaslRpcServer.QualityOfProtection
-
- getScheduledReplicationBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getScheduledReplicationBlocks() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Blocks scheduled for replication
- getSchedulingInfo() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getSchedulingInfo() - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
-
Gets the scheduling information associated to particular job queue.
- getSchedulingInfo() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
Gets the Scheduling information associated to a particular Job.
- getScheme() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Get the uri scheme associated with this statistics object.
- getScope() - 类 中的方法org.apache.hadoop.hdfs.web.resources.UserProvider
-
- getSecond() - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
-
- getSecretAccessKey() - 类 中的方法org.apache.hadoop.fs.s3.S3Credentials
-
- getSecretKey(Credentials, Text) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
-
auxiliary method to get user's secret keys..
- getSecretKey(Text) - 类 中的方法org.apache.hadoop.security.Credentials
-
Returns the key bytes for the alias
- getSeed(String, long) - 类 中的静态方法org.apache.hadoop.tools.rumen.RandomSeedGenerator
-
Generates a new random seed.
- getSelectQuery() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBRecordReader
-
Returns the query for selecting the records,
subclasses can override this for custom behaviour.
- getSelectQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBRecordReader
-
Returns the query for selecting the records,
subclasses can override this for custom behaviour.
- getSelectQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
Returns the query for selecting the records,
subclasses can override this for custom behaviour.
- getSelectQuery() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.OracleDBRecordReader
-
Returns the query for selecting the records from an Oracle DB.
- getSelfAddr() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getSeqno() - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
-
Get the sequence number
- getSequenceFileOutputKeyClass(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
-
- getSequenceFileOutputKeyClass(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
-
- getSequenceFileOutputValueClass(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
-
- getSequenceFileOutputValueClass(JobContext) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
-
- getSequenceNumber() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- getSequenceWriter(TaskAttemptContext, Class<?>, Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
-
- getSerialization(Class<T>) - 类 中的方法org.apache.hadoop.io.serializer.SerializationFactory
-
- getSerializedLength() - 类 中的方法org.apache.hadoop.fs.s3.INode
-
- getSerializer(Class<Serializable>) - 类 中的方法org.apache.hadoop.io.serializer.JavaSerialization
-
- getSerializer(Class<T>) - 接口 中的方法org.apache.hadoop.io.serializer.Serialization
-
- getSerializer(Class<T>) - 类 中的方法org.apache.hadoop.io.serializer.SerializationFactory
-
- getSerializer(Class<Writable>) - 类 中的方法org.apache.hadoop.io.serializer.WritableSerialization
-
- getServer(Object, String, int, Configuration) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a server for a protocol implementation instance listening on a
port and address.
- getServer(Object, String, int, int, boolean, Configuration) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a server for a protocol implementation instance listening on a
port and address.
- getServer(Object, String, int, int, boolean, Configuration, SecretManager<? extends TokenIdentifier>) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Construct a server for a protocol implementation instance listening on a
port and address, with a secret manager.
- getServerAddress(Configuration, String, String, String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
已过时。
- getServerName() - 类 中的方法org.apache.hadoop.http.HttpServer.QuotingInputFilter.RequestQuoter
-
Quote the server name so that users specifying the HOST HTTP header
can't inject attacks.
- getServerPrincipal(String, String) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
Convert Kerberos principal name pattern to valid Kerberos principal
names.
- getServerPrincipal(String, InetAddress) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
Convert Kerberos principal name pattern to valid Kerberos principal names.
- getServerVersion() - 异常错误 中的方法org.apache.hadoop.ipc.RPC.VersionMismatch
-
Get the server's agreed to version.
- getService() - 类 中的方法org.apache.hadoop.security.token.Token
-
Get the service on which the token is supposed to be used
- getServiceAddress(Configuration, boolean) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Fetches the address for services to use when connecting to namenode
based on the value of fallback returns null if the special
address is not specified or returns the default namenode address
to be used by both clients and services.
- getServiceKey() - 类 中的方法org.apache.hadoop.security.authorize.Service
-
Get the configuration key for the service.
- getServiceName() - 类 中的方法org.apache.hadoop.security.KerberosName
-
Get the first component of the name.
- getServicePrincipal(String, String) - 类 中的静态方法org.apache.hadoop.security.authentication.util.KerberosUtil
-
Create Kerberos principal for a given service and hostname.
- getServiceRpcServerAddress(Configuration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Given a configuration get the address of the service rpc server
If the service rpc is not configured returns null
- getServices() - 类 中的方法org.apache.hadoop.hdfs.HDFSPolicyProvider
-
- getServices() - 类 中的方法org.apache.hadoop.mapred.MapReducePolicyProvider
-
- getServices() - 类 中的方法org.apache.hadoop.security.authorize.PolicyProvider
-
- getSessionId() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the user-specified session identifier.
- getSetupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Get the information of the current state of the setup tasks of a job.
- getSetupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getSetupTaskReports(JobID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getShape(boolean, int) - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino.Piece
-
- getShortName() - 类 中的方法org.apache.hadoop.security.KerberosName
-
Get the translation of the principal name into an operating system
user name.
- getShortUserName() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Get the user's login name.
- getShuffleFinished() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getShuffleFinishTime() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Get shuffle finish time for the task.
- getShuffleFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the finish time of the shuffle phase
- getShuffleRuntime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceTaskAttemptInfo
-
Get the runtime for the shuffle phase of the reduce task-attempt.
- getSize(OpenEntity, Class<?>, Type, Annotation[], MediaType) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.web.resources.OpenEntity.Writer
-
- getSize() - 类 中的方法org.apache.hadoop.io.BytesWritable
-
- getSize() - 接口 中的方法org.apache.hadoop.io.SequenceFile.ValueBytes
-
Size of stored data.
- getSize() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- getSize() - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- getSkipOutputPath(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Get the directory to which skipped records are written.
- getSkipRanges() - 类 中的方法org.apache.hadoop.mapred.Task
-
Get skipRanges.
- getSlope(String) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
-
已过时。
- getSocketFactory(Configuration, Class<?>) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Get the socket factory for the given class according to its
configuration parameter
hadoop.rpc.socket.factory.class.
- getSocketFactoryFromProperty(Configuration, String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Get the socket factory corresponding to the given proxy URI.
- getSortComparator() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
- getSortFinished() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getSortFinishTime() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Get sort finish time for the task,.
- getSortFinishTime() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the finish time of the sort phase
- getSourceFileListing() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
File path (hdfs:// or file://) that contains the list of actual
files to copy
- getSourcePaths() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Getter for sourcePaths.
- getSpace(int) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- getSpaceConsumed() - 类 中的方法org.apache.hadoop.fs.ContentSummary
-
Retuns (disk) space consumed
- getSpaceQuota() - 类 中的方法org.apache.hadoop.fs.ContentSummary
-
Returns (disk) space quota
- getSpeculativeExecution() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Should speculative execution be used for this job?
- getSpilledRecords() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getSplit() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- getSplitHosts(BlockLocation[], long, long, NetworkTopology) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
-
This function identifies and returns the hosts that contribute
most for a given split.
- getSplitIndex() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
-
- getSplitLocation() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitIndex
-
- getSplitLocation() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
-
- getSplitLocations() - 类 中的方法org.apache.hadoop.tools.rumen.TaskStartedEvent
-
Get the split locations, applicable for map tasks
- getSplits(int) - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino
-
Generate a list of prefixes to a given depth
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.examples.SleepJob.SleepInputFormat
-
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.examples.terasort.TeraInputFormat
-
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
-
- getSplits(JobConf, int) - 接口 中的方法org.apache.hadoop.mapred.InputFormat
-
Logically split the set of input files for the job.
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputFormat
-
Build a CompositeInputSplit from the child InputFormats by assigning the
ith split from each child to the ith composite split.
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
-
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat
-
Logically split the set of input files for the job.
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.lib.DelegatingInputFormat
-
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.lib.NLineInputFormat
-
Logically splits the set of input files for the job, splits N lines
of the input as one split.
- getSplits(JobConf, int) - 类 中的方法org.apache.hadoop.mapred.MultiFileInputFormat
-
已过时。
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.InputFormat
-
Logically split the set of input files for the job.
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
-
Logically split the set of input files for the job.
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
Logically split the set of input files for the job.
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingInputFormat
-
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Generate the list of files and make them into FileSplits.
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
-
Logically splits the set of input files for the job, splits N lines
of the input as one split.
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.lib.DynamicInputFormat
-
Implementation of InputFormat::getSplits().
- getSplits(JobContext) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.UniformSizeInputFormat
-
Implementation of InputFormat::getSplits().
- getSplitsForFile(FileStatus, Configuration, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
-
- getSplitter(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
-
- getSplitter(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.OracleDataDrivenDBInputFormat
-
- getSrcChecksum() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
-
Get the checksum of the source files from which Hadoop was
built.
- getSslConfigurationFile() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Get path where the ssl configuration file is present to use for hftps://
- getStackTrace() - 异常错误 中的方法org.apache.hadoop.security.authorize.AuthorizationException
-
- getStagingAreaDir() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Grab the jobtracker's view of the staging directory path where
job-specific files will be placed.
- getStagingAreaDir() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getStagingAreaDir() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getStagingDir(JobClient, Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.JobSubmissionFiles
-
Initializes the staging directory and returns the path.
- getStamp() - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
-
Returns the current generation stamp
- getStart() - 类 中的方法org.apache.hadoop.mapred.FileSplit
-
The position of the first byte in the file to process.
- getStart() - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
-
- getStart() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
-
- getStart() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
-
The position of the first byte in the file to process.
- getStartOffset() - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- getStartOffset() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
-
- getStartOffset() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitIndex
-
- getStartOffset() - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitMetaInfo
-
- getStartOffsets() - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
Returns an array containing the startoffsets of the files in the split
- getStartOffsets() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
Returns an array containing the start offsets of the files in the split
- getStartTime() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getStartTime() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getStartTime() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- getStartTime() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getStartTime() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
Get start time of task.
- getStartTime() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Get start time of the task.
- getStartTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getStartTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- getStartTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the start time
- getStartTime() - 类 中的方法org.apache.hadoop.tools.rumen.TaskStartedEvent
-
Get the start time of the task
- getState() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- getState() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
- getState() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
The most recent state, reported by a
Reporter
.
- getState() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the state string
- getState() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the state string
- getState() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the state string
- getStatement() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat.DBRecordWriter
-
- getStatement() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- getStateString() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getStaticResolution(String) - 类 中的静态方法org.apache.hadoop.net.NetUtils
-
Retrieves the resolved name for the passed host.
- getStatistics() - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
- getStatistics(String, Class<? extends FileSystem>) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Get the statistics for a particular file system
- getStats() - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Get a set of statistics about the filesystem.
- getStats() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getStatus() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getStatus() - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
-
- getStatus() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptContext
-
Get the last set status message.
- getStatus() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
-
Get the status
- getStatus() - 类 中的方法org.apache.hadoop.tools.rumen.JobStatusChangedEvent
-
Get the event status
- getStatus() - 类 中的方法org.apache.hadoop.tools.rumen.JobUnsuccessfulCompletionEvent
-
Get the status
- getStatusText(boolean) - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
-
Get upgradeStatus data as a text for reporting.
- getStorageDir(int) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
-
- getStorageDirType() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
Get storage directory type
- getStorageDirType() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirType
-
- getStorageID() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
- getStorageID() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataStorage
-
- getStorageInfo() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- getStorageInfo() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.FSDatasetMBean
-
Returns the storage id of the underlying storage
- getStoredBlock(long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
- getStoredBlock(long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
- getStr() - 类 中的方法org.apache.hadoop.mapred.join.Parser.StrToken
-
- getStr() - 类 中的方法org.apache.hadoop.mapred.join.Parser.Token
-
- getStrategy(Configuration, DistCpOptions) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
Returns the class that implements a copy strategy.
- getStreamingAddr(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getStreamingSocket() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter.SecureResources
-
- getString() - 类 中的静态方法org.apache.hadoop.hdfs.protocol.LayoutVersion
-
- getStringCollection(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the comma delimited values of the name
property as
a collection of String
s.
- getStringCollection(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Returns a collection of strings.
- getStringDescriptionFor(long) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
- getStrings(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the comma delimited values of the name
property as
an array of String
s.
- getStrings(String, String...) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Get the comma delimited values of the name
property as
an array of String
s.
- getStrings(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Returns an arraylist of strings.
- getSubject() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Get the underlying subject from this ugi.
- getSubmissionTime() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the job submission time.
- getSubmissionTime() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getSubmitTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobInfoChangeEvent
-
Get the Job submit time
- getSubmitTime() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the submit time
- getSubmitTime() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getSuccessfulJobList() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
- getSuccessfulJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
- getSuccessfulMapAttemptCDFs() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getSuccessfulReduceAttemptCDF() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getSuccessfulTaskAttempt() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
Get the attempt ID that took this task to completion
- GetSuffix(int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- getSum() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.DoubleValueSum
-
- getSum() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueSum
-
- getSummaryJson() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getSummaryJson() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getSupportedCompressionAlgorithms() - 类 中的静态方法org.apache.hadoop.io.file.tfile.TFile
-
Get names of supported compression algorithms.
- getSwitch() - 枚举 中的方法org.apache.hadoop.tools.distcp2.DistCpOptionSwitch
-
Get Switch symbol
- getSymlink(Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
This method checks to see if symlinks are to be create for the
localized cache files in the current working directory
Used by internal DistributedCache code.
- getSystemDir() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Grab the jobtracker system directory path where job-specific files are to be placed.
- getSystemDir() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getSystemDir() - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getTableName() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- getTabSize(int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- getTag() - 类 中的方法org.apache.hadoop.contrib.utils.join.TaggedMapOutput
-
- getTag(String) - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
-
已过时。
Returns a tag object which is can be a String, Integer, Short or Byte.
- getTag(String) - 类 中的方法org.apache.hadoop.metrics2.util.MetricsCache.Record
-
Get the tag value
- getTagNames() - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
-
已过时。
Returns the set of tag names
- getTagsCopy() - 类 中的方法org.apache.hadoop.metrics.spi.OutputRecord
-
已过时。
Returns a copy of this record's tags.
- getTargetPath() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Getter for the targetPath.
- getTargets() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockCommand
-
- getTask() - 类 中的方法org.apache.hadoop.mapred.JvmTask
-
- getTask(JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
Called upon startup by the child process, to fetch Task data.
- getTask(JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
-
Called when a child task process starts, to get its task.
- getTaskAttemptID() - 类 中的方法org.apache.hadoop.mapred.TaskAttemptContext
-
Get the taskAttemptID.
- getTaskAttemptId() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
Returns task id.
- getTaskAttemptID() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptContext
-
Get the unique name for this task attempt.
- getTaskAttemptId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the attempt id
- getTaskAttemptId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
-
Get the attempt id
- getTaskAttemptIDsPattern(String, Integer, Boolean, Integer, Integer) - 类 中的静态方法org.apache.hadoop.mapred.TaskAttemptID
-
已过时。
- getTaskAttemptInfo(TaskType, int, int) - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get
TaskAttemptInfo
for a given task-attempt, without regard to
impact of locality (e.g. not needed to make scheduling decisions).
- getTaskAttemptInfo(TaskType, int, int) - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getTaskAttemptLogDir(TaskAttemptID, String, String[]) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
Get attempt log directory path for the given attempt-id under randomly
selected mapred local directory.
- getTaskAttempts() - 类 中的方法org.apache.hadoop.mapred.JobHistory.Task
-
Returns all task attempts for this task.
- getTaskCompletionEvents(int, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- getTaskCompletionEvents(JobID, int, int) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getTaskCompletionEvents(JobID, int, int) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- getTaskCompletionEvents(int) - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get events indicating completion (success/failure) of component tasks.
- getTaskCompletionEvents(int) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Get events indicating completion (success/failure) of component tasks.
- getTaskController() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getTaskController() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
-
Get the taskController for deleting logs.
- getTaskDiagnostics(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Get the diagnostics for a given task
- getTaskDiagnostics(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
Returns the diagnostic information for a particular task in the given job.
- getTaskDiagnostics(TaskAttemptID) - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Gets the diagnostic messages for a given task attempt.
- getTaskDistributedCacheManager(JobID) - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
- getTaskFailures() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get the number of tasks that have failed on this tracker.
- getTaskID() - 类 中的方法org.apache.hadoop.mapred.Task
-
- getTaskID() - 类 中的方法org.apache.hadoop.mapred.TaskAttemptID
-
- getTaskId() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
- getTaskId() - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
-
Getter/Setter methods for log4j.
- getTaskId() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
- getTaskID() - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
The id of the task.
- getTaskID() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getTaskID() - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
-
Returns the
TaskID
object that this task attempt belongs to
- getTaskID() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the task ID
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the Task ID
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the task ID
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the task id
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
-
Get the task id
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
-
Get the task id
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
-
Get task id
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskStartedEvent
-
Get the task id
- getTaskId() - 类 中的方法org.apache.hadoop.tools.rumen.TaskUpdatedEvent
-
Get the task ID
- getTaskIDsPattern(String, Integer, Boolean, Integer) - 类 中的静态方法org.apache.hadoop.mapred.TaskID
-
已过时。
- getTaskInfo(JobConf) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- getTaskInfo(TaskType, int) - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
- getTaskInfo() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptInfo
-
Get the
TaskInfo
for the given task-attempt.
- getTaskInfo(TaskType, int) - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getTaskInProgress(TaskID) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Return the TaskInProgress that matches the tipid.
- getTaskLogFile(TaskAttemptID, boolean, TaskLog.LogName) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
- getTaskLogLength(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
Get the desired maximum length of task's logs.
- getTaskLogsUrl(JobHistory.TaskAttempt) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory
-
Return the TaskLogsUrl of a particular TaskAttempt
- getTaskLogUrl(String, String, String) - 类 中的静态方法org.apache.hadoop.mapred.TaskLogServlet
-
Construct the taskLogUrl
- getTaskMemory() - 类 中的方法org.apache.hadoop.tools.rumen.TaskInfo
-
- getTaskMemoryManager() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getTaskOutputFilter(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.JobClient
-
Get the task output filter out of the JobConf.
- getTaskOutputFilter() - 类 中的方法org.apache.hadoop.mapred.JobClient
-
已过时。
- getTaskOutputPath(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
Helper function to create the task's temporary output directory and
return the path to the task's output file.
- getTaskReports() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
Get the current tasks at the TaskTracker.
- getTaskRunTime() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
Returns time (in millisec) the task took to complete.
- getTasksInfoJson() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getTasksInfoJson() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
-
- getTaskStatus() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
Returns enum Status.SUCESS or Status.FAILURE.
- getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the task status
- getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the task status
- getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the task status
- getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
-
Get the task status
- getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
-
Get the task status
- getTaskStatus() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
-
Get task status
- getTaskTracker(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getTaskTracker() - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- getTaskTrackerCount() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the number of active trackers in the cluster.
- getTaskTrackerHttp() - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
http location of the tasktracker where this task ran.
- getTaskTrackerInstrumentation() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getTaskTrackerReportAddress() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
Return the port at which the tasktracker bound to
- getTaskTrackers() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the number of active task trackers in the cluster.
- getTaskTrackerStatus(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.MapAttemptFinishedEvent
-
Get the task type
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Get the task type
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptFinishedEvent
-
Get the task type
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the task type
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptUnsuccessfulCompletionEvent
-
Get the task type
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFailedEvent
-
Get the task type
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskFinishedEvent
-
Get task type
- getTaskType() - 类 中的方法org.apache.hadoop.tools.rumen.TaskStartedEvent
-
Get the task type
- getTerm() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
-
Get the term.
- getText() - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocTextAndOp
-
Get the text that represents a document.
- getText() - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentID
-
The text of the document id.
- getThreadCount() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getThreadCount() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getThreads() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getThreads() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the number of threads.
- getThreadState() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
- getTimeout(Configuration) - 类 中的静态方法org.apache.hadoop.ipc.Client
-
The time after which a RPC will timeout.
- getTimestamp(Configuration, URI) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Returns mtime of a given cache file on hdfs.
- getTip(TaskID) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Returns specified TaskInProgress, or null.
- getTmax(String) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
-
已过时。
- getTmpInputStreams(Block, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Returns handles to the block file and its metadata file
- getTmpInputStreams(Block, long, long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns an input stream at specified offset of the specified block
The block is still in the tmp directory and is not finalized
- getToken(int) - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- getToken(HttpServletRequest) - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
- getToken(Text) - 类 中的方法org.apache.hadoop.security.Credentials
-
Returns the Token object for the alias
- getTokenExpiryTime(DelegationTokenIdentifier) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
-
Returns expiry time of a token given its identifier.
- getTokenIdentifiers() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Get the set of TokenIdentifiers belonging to this UGI
- getTokenLifetime() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
-
- getTokens() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Obtain the collection of tokens associated with this user.
- getTokenServiceAddr(Token<?>) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
Decode the given token's service field into an InetAddress
- getTopologyPaths() - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Get the list of network topology paths for each of the hosts.
- getTotal() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getTotal() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets total raw bytes including non-dfs used space.
- getTotalBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getTotalBlocks() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the total numbers of blocks on the cluster.
- getTotalBytesRead() - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
-
Getter for the number of bytes read from this stream, since creation.
- getTotalCounters() - 类 中的方法org.apache.hadoop.tools.rumen.JobFinishedEvent
-
Get the counters for the job
- getTotalFiles() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getTotalFiles() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the total number of files on the cluster
- getTotalJobSubmissions() - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
Get the total number of job submissions in the cluster.
- getTotalLoad() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.FSClusterStats
-
an indication of the total load of the cluster.
- getTotalLoad() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Total number of connections.
- getTotalLoad() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Total Load on the FSNamesystem
- getTotalLogFileSize() - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
-
- getTotalMaps() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
-
Get the total number of maps
- getTotalMaps() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getTotalReduces() - 类 中的方法org.apache.hadoop.tools.rumen.JobInitedEvent
-
Get the total number of reduces
- getTotalReduces() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getTotalSleepTime() - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
-
Getter the total time spent in sleep.
- getTotalSubmissions() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getTrackerIdentifier() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Get the unique identifier (ie. timestamp) of this job tracker start.
- getTrackerName() - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
- getTrackerName() - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
-
- getTrackerName() - 类 中的方法org.apache.hadoop.tools.rumen.TaskAttemptStartedEvent
-
Get the tracker name
- getTrackerPort() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getTrackingURL() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get the URL where some job progress information will be displayed.
- getTrackingURL() - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Get the URL where some job progress information will be displayed.
- getTrash() - 类 中的方法org.apache.hadoop.fs.FsShell
-
- getTTExpiryInterval() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
Get the tasktracker expiry interval for the cluster
- getType() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
-
Get the type of the software component, which this object is upgrading.
- getType() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- getType() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.UpgradeObjectDatanode
-
- getType() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.UpgradeObjectNamenode
-
- getType() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.DeleteOpParam.Op
-
- getType() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.GetOpParam.Op
-
- getType() - 接口 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.Op
-
- getType() - 类 中的方法org.apache.hadoop.hdfs.web.resources.HttpOpParam.TemporaryRedirectOp
-
- getType() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PostOpParam.Op
-
- getType() - 枚举 中的方法org.apache.hadoop.hdfs.web.resources.PutOpParam.Op
-
- getType() - 类 中的方法org.apache.hadoop.mapred.join.Parser.Token
-
- getType() - 接口 中的方法org.apache.hadoop.security.authentication.server.AuthenticationHandler
-
Returns the authentication type of the authentication handler.
- getType() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
-
Returns the authentication mechanism of the token.
- getType() - 类 中的方法org.apache.hadoop.security.authentication.server.KerberosAuthenticationHandler
-
Returns the authentication type of the authentication handler, 'kerberos'.
- getType() - 类 中的方法org.apache.hadoop.security.authentication.server.PseudoAuthenticationHandler
-
Returns the authentication type of the authentication handler, 'simple'.
- getType() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritable
-
Get the type code embedded in the first byte.
- getTypeID() - 类 中的方法org.apache.hadoop.record.meta.FieldTypeInfo
-
get the field's TypeID object
- getTypes() - 类 中的方法org.apache.hadoop.io.GenericWritable
-
Return all classes that may be wrapped.
- getTypeVal() - 类 中的方法org.apache.hadoop.record.meta.TypeID
-
Get the type value.
- getUGI(HttpServletRequest, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
Same as getUGI(null, request, conf).
- getUGI(ServletContext, HttpServletRequest, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- getUGI(ServletContext, HttpServletRequest, Configuration, UserGroupInformation.AuthenticationMethod, boolean) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- getUlimitMemoryCommand(int) - 类 中的静态方法org.apache.hadoop.util.Shell
-
Get the Unix command for setting the maximum virtual memory available
to a given child process.
- getUlimitMemoryCommand(Configuration) - 类 中的静态方法org.apache.hadoop.util.Shell
-
- getUMask(Configuration) - 类 中的静态方法org.apache.hadoop.fs.permission.FsPermission
-
Get the user file creation mask (umask)
UMASK_LABEL
config param has umask value that is either symbolic
or octal.
- getUnderlyingProtocol() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
Return the underlying protocol that is used to talk to the namenode.
- getUnderlyingProtocol() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem.TokenManager
-
- getUnderlyingProtocol() - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem
-
Return the underlying protocol that is used to talk to the namenode.
- getUnderlyingProtocol() - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem.TokenManager
-
- getUnderReplicatedBlocks() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getUnderReplicatedBlocks() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.FSNamesystemMBean
-
Blocks under replicated
- getUnderReplicatedBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Returns count of blocks with one of more replica missing.
- getUnderReplicatedBlocksCount() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Returns count of blocks with one of more replica missing.
- getUniqueFile(TaskAttemptContext, String, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Generate a unique filename, based on the task id, name, and extension
- getUniqueItems() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
-
- getUniqueName(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
Helper function to generate a name that is unique for the task.
- getUnits(String) - 类 中的方法org.apache.hadoop.metrics.ganglia.GangliaContext
-
已过时。
- getUpgradePermission() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Return the default path permission when upgrading from releases with no
permissions (<=0.15) to releases with permissions (>=0.16)
- getUpgradeState() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- getUpgradeStatus() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
-
Upgrade status determines a percentage of the work done out of the total
amount required by the upgrade.
100% means that the upgrade is completed.
- getUpgradeStatus() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- getUpgradeStatus() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeObject
-
- getUpgradeStatus() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
-
Get upgrade upgradeStatus as a percentage of the total upgrade done.
- getUpgradeStatusReport(boolean) - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
-
Get status report for the upgrade.
- getUpgradeStatusReport(boolean) - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeObject
-
- getUpgradeStatusText() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- getUpgradeVersion() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- getUpperClause() - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat.DataDrivenDBInputSplit
-
- getUri() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Returns a URI whose scheme and authority identify this FileSystem.
- getUri() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Returns a URI whose scheme and authority identify this FileSystem.
- getUri() - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
-
- getUri() - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
Returns the uri of this filesystem.
- getUri() - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- getUri() - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- getUri() - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
- getUri() - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
- getUri() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- getUri() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getUri(InetSocketAddress) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- getUri() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getURIs(String, String) - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
get the uris of all the files/caches
- getURL() - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream.URLOpener
-
- getURL() - 类 中的方法org.apache.hadoop.mapred.JobProfile
-
Get the link to the web-ui for details of the job.
- getUrl() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
-
Get the subversion URL for the root Hadoop directory.
- getUsed() - 类 中的方法org.apache.hadoop.fs.DF
-
- getUsed() - 类 中的方法org.apache.hadoop.fs.DU
-
- getUsed() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Return the total size of all files in the filesystem.
- getUsed() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getUsed() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the used space by data nodes.
- getUsedMemory() - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
已过时。
- getUseNewMapper() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Should the framework use the new context-object code for running
the mapper?
- getUseNewReducer() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Should the framework use the new context-object code for running
the reducer?
- getUser() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- getUser() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the reported username for this job.
- getUser() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Get the user for the job
- getUser() - 类 中的方法org.apache.hadoop.mapred.JobProfile
-
Get the user id.
- getUser() - 类 中的方法org.apache.hadoop.mapred.Task
-
Get the name of the user running the job/task.
- getUser() - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
-
Get the Ugi with the username encoded in the token identifier
- getUser() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
Get the username encoded in the token identifier
- getUser() - 类 中的方法org.apache.hadoop.security.token.TokenIdentifier
-
Get the Ugi with the username encoded in the token identifier
- getUser() - 接口 中的方法org.apache.hadoop.tools.rumen.JobStory
-
Get the user who ran the job.
- getUser() - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- getUser() - 类 中的方法org.apache.hadoop.tools.rumen.ZombieJob
-
- getUser() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
-
The user that compiled Hadoop.
- getUserAction() - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
-
- getUserDir(String) - 类 中的静态方法org.apache.hadoop.mapred.TaskTracker
-
- getUserId() - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- getUserLogCleaner() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
-
- getUserLogDir() - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
- getUserName() - 类 中的方法org.apache.hadoop.fs.permission.PermissionStatus
-
Return user name
- getUserName(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Get the user name from the job conf
- getUsername() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- getUserName() - 类 中的方法org.apache.hadoop.security.authentication.client.PseudoAuthenticator
-
Returns the current user name.
- getUserName() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
-
Returns the user name.
- getUserName() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Get the user's full principal name.
- getUserName() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the user name
- getUsersForNetgroup(String) - 类 中的方法org.apache.hadoop.security.JniBasedUnixGroupsNetgroupMapping
-
Calls JNI function to get users for a netgroup, since C functions
are not reentrant we need to make this synchronized (see
documentation for setnetgrent, getnetgrent and endnetgrent)
- getUsersForNetgroupCommand(String) - 类 中的静态方法org.apache.hadoop.util.Shell
-
a Unix command to get a given netgroup's user list
- getUserToGroupsMappingService() - 类 中的静态方法org.apache.hadoop.security.Groups
-
Get the groups being used to map user-to-groups.
- getUserToGroupsMappingService(Configuration) - 类 中的静态方法org.apache.hadoop.security.Groups
-
- getVal() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMax
-
- getVal() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMin
-
- getVal() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMax
-
- getVal() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMin
-
- getValByRegex(String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
get keys matching the the regex
- getValidity() - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Returns the validity time of the generated tokens.
- getValue(Configuration) - 类 中的方法org.apache.hadoop.hdfs.web.resources.BlockSizeParam
-
- getValue(Configuration) - 类 中的方法org.apache.hadoop.hdfs.web.resources.BufferSizeParam
-
- getValue() - 类 中的方法org.apache.hadoop.hdfs.web.resources.Param
-
- getValue(Configuration) - 类 中的方法org.apache.hadoop.hdfs.web.resources.ReplicationParam
-
- getValue(HttpContext) - 类 中的方法org.apache.hadoop.hdfs.web.resources.UserProvider
-
- getValue(BytesWritable) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Copy the value into BytesWritable.
- getValue(byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Copy value into user-supplied buffer.
- getValue(byte[], int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Copy value into user-supplied buffer.
- getValue() - 接口 中的方法org.apache.hadoop.io.SequenceFile.Sorter.RawKeyValueIterator
-
Gets the current raw value
- getValue() - 接口 中的方法org.apache.hadoop.mapred.RawKeyValueIterator
-
Gets the current raw value.
- getValue() - 类 中的方法org.apache.hadoop.mapreduce.Counter
-
What is the current value of this counter?
- getValue() - 枚举 中的方法org.apache.hadoop.mapreduce.JobStatus.State
-
- getValue() - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
-
- getValue() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritable
-
Get the typed bytes as a Java object.
- getValue() - 类 中的方法org.apache.hadoop.util.DataChecksum
-
- getValue() - 枚举 中的方法org.apache.hadoop.util.ProcessTree.Signal
-
- getValue() - 类 中的方法org.apache.hadoop.util.PureJavaCrc32
- getValueClass() - 类 中的方法org.apache.hadoop.io.ArrayWritable
-
- getValueClass() - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
Returns the class of values in this file.
- getValueClass() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Returns the class of values in this file.
- getValueClass() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
-
Returns the class of values in this file.
- getValueClass() - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
-
- getValueClassName() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Returns the name of the value class.
- getValueClassName() - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
Retrieve the name of the value class for this SequenceFile.
- getValueClassName() - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
Retrieve the name of the value class for this SequenceFile.
- getValueLength() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Get the length of the value. isValueLengthKnown() must be tested
true.
- getValues() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext
-
Iterate through the values for the current key, reusing the same value
object, which is stored in the context.
- getValueStream() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner.Entry
-
Stream access to value.
- getValueTypeID() - 类 中的方法org.apache.hadoop.record.meta.MapTypeID
-
get the TypeID of the map's value element
- getVectorSize() - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
-
- getVersion() - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
-
Get the version number of the entire index.
- getVersion() - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
-
- getVersion() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
-
Get the layout version of the upgrade object.
- getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
-
Get the layout version of the currently running upgrade.
- getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.BlockMetadataHeader
-
Get the version
- getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- getVersion() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
-
Gets the version of Hadoop.
- getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- getVersion() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.NameNodeMXBean
-
Gets the version of Hadoop.
- getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
- getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
-
- getVersion() - 类 中的方法org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
-
- getVersion() - 类 中的方法org.apache.hadoop.io.VersionedWritable
-
Return the version number of the current implementation.
- getVersion() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getVersion() - 接口 中的方法org.apache.hadoop.mapred.JobTrackerMXBean
-
- getVersion() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- getVersion() - 接口 中的方法org.apache.hadoop.mapred.TaskTrackerMXBean
-
- getVersion() - 类 中的静态方法org.apache.hadoop.util.VersionInfo
-
Get the Hadoop version.
- getVersionFile() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
File VERSION
contains the following fields:
node type
layout version
namespaceID
fs state creation time
other fields specific for this node type
The version file is always written last during storage directory updates.
- getVersionTable() - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
Return a table containing version information.
- getVIntSize(long) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
Get the encoded length if an integer is stored in a variable-length format
- getVIntSize(long) - 类 中的静态方法org.apache.hadoop.record.Utils
-
Get the encoded length if an integer is stored in a variable-length format
- getVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxMemoryCalculatorPlugin
-
已过时。
Obtain the total size of the virtual memory present in the system.
- getVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.LinuxResourceCalculatorPlugin
-
Obtain the total size of the virtual memory present in the system.
- getVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.MemoryCalculatorPlugin
-
已过时。
Obtain the total size of the virtual memory present in the system.
- getVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin
-
Obtain the total size of the virtual memory present in the system.
- getVirtualMemorySize() - 类 中的方法org.apache.hadoop.util.ResourceCalculatorPlugin.ProcResourceValues
-
Obtain the virtual memory size used by a current process tree.
- getVirtualMemoryUsage() - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Get the virtual memory usage.
- getVisibleLength() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSDataInputStream
-
- getVisibleLength(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- getVisibleLength(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Returns the specified block's visible length (has metadata for this)
- getVIVersion() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- getVolumeInfo() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Returned information is a JSON representation of a map with
volume name as the key and value is a map of volume attribute
keys to its values
- getVolumeInfo() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
-
Gets the information of each volume on the Datanode.
- getWaitingJobList() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
- getWaitingJobs() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
- getWarn() - 类 中的静态方法org.apache.hadoop.log.metrics.EventCounter
-
- getWarningText(FSNamesystem) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- getWebAppsPath() - 类 中的方法org.apache.hadoop.http.HttpServer
-
Get the pathname to the webapps files.
- getWeight() - 类 中的方法org.apache.hadoop.util.bloom.Key
-
- getWithWildcardGS() - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- getWorkflowAdjacencies(Configuration) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Get the workflow adjacencies from the job conf
The string returned is of the form "key"="value" "key"="value" ...
- getWorkflowAdjacencies() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the workflow adjacencies
- getWorkflowId() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the workflow Id
- getWorkflowName() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the workflow name
- getWorkflowNodeName() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the workflow node name
- getWorkflowTags() - 类 中的方法org.apache.hadoop.tools.rumen.JobSubmittedEvent
-
Get the workflow tags
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Get the current working directory for the given file system
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Get the current working directory for the given file system
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
-
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
return the top level archive.
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Get the current working directory for the default file system.
- getWorkingDirectory() - 类 中的方法org.apache.hadoop.mapreduce.JobContext
-
Get the current working directory for the default file system.
- getWorkingDirectory(Job) - 类 中的静态方法org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
-
Getter for the working directory.
- getWorkOutputPath(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
- getWorkOutputPath(TaskInputOutputContext<?, ?, ?, ?>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Get the
Path
to the task's temporary output directory
for the map-reduce job
Tasks' Side-Effect Files
Some applications need to create/write-to side-files, which differ from
the actual job-outputs.
- getWorkPath() - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
-
Get the directory that the task should write results into
- getWrappedStream() - 类 中的方法org.apache.hadoop.fs.FSDataOutputStream
-
- getWriteOps() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Get the number of file system write operations such as create, append
rename etc.
- getXceiverCount() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
number of active connections
- getXceiverCount() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Number of concurrent xceivers per node.
- getXceiverCount() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.DataNodeMXBean
-
Returns an estimate of the number of Datanode threads
actively transferring blocks.
- getZlibCompressor(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
-
Return the appropriate implementation of the zlib compressor.
- getZlibCompressorType(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
-
Return the appropriate type of the zlib compressor.
- getZlibDecompressor(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
-
Return the appropriate implementation of the zlib decompressor.
- getZlibDecompressorType(Configuration) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
-
Return the appropriate type of the zlib decompressor.
- GlobbedCopyListing - org.apache.hadoop.tools.distcp2中的类
-
GlobbedCopyListing implements the CopyListing interface, to create the copy
listing-file by "globbing" all specified source paths (wild-cards and all.)
- GlobbedCopyListing(Configuration, Credentials) - 类 的构造器org.apache.hadoop.tools.distcp2.GlobbedCopyListing
-
Constructor, to initialize the configuration.
- GlobFilter - org.apache.hadoop.metrics2.filter中的类
-
A glob pattern filter for metrics
- GlobFilter() - 类 的构造器org.apache.hadoop.metrics2.filter.GlobFilter
-
- GlobPattern - org.apache.hadoop.fs中的类
-
A class for POSIX glob pattern with brace expansions.
- GlobPattern(String) - 类 的构造器org.apache.hadoop.fs.GlobPattern
-
Construct the glob pattern object with a glob pattern string
- globStatus(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Return all the files that match filePattern and are not checksum
files.
- globStatus(Path, PathFilter) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Return an array of FileStatus objects whose path names match pathPattern
and is accepted by the user-supplied path filter.
- go() - 类 中的方法org.apache.hadoop.hdfs.tools.offlineImageViewer.OfflineImageViewer
-
Process image file.
- go() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- goodClassOrNull(Configuration, String, String) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
It may seem strange to silently switch behaviour when a String
is not a classname; the reason is simplified Usage:
-mapper [classname | program ]
instead of the explicit Usage:
[-mapper program | -javamapper classname], -mapper and -javamapper are mutually exclusive.
- GRANDFATHER_GENERATION_STAMP - 类 中的静态变量org.apache.hadoop.hdfs.protocol.Block
-
- graylistedTaskTrackers() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Get the statuses of the graylisted task trackers in the cluster.
- GREATER_ICOST - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
This constant is accessible by subclasses for historical purposes.
- Grep - org.apache.hadoop.examples中的类
-
- GroupParam - org.apache.hadoop.hdfs.web.resources中的类
-
Group parameter.
- GroupParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.GroupParam
-
Constructor.
- Groups - org.apache.hadoop.security中的类
-
A user-to-groups mapping service.
- Groups(Configuration) - 类 的构造器org.apache.hadoop.security.Groups
-
- groups - 类 中的变量org.apache.hadoop.tools.rumen.JhCounters
-
- GSet<K,E extends K> - org.apache.hadoop.hdfs.util中的接口
-
- GSetByHashMap<K,E extends K> - org.apache.hadoop.hdfs.util中的类
-
- GSetByHashMap(int, float) - 类 的构造器org.apache.hadoop.hdfs.util.GSetByHashMap
-
- GT_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- GzipCodec - org.apache.hadoop.io.compress中的类
-
This class creates gzip compressors/decompressors.
- GzipCodec() - 类 的构造器org.apache.hadoop.io.compress.GzipCodec
-
- GzipCodec.GzipOutputStream - org.apache.hadoop.io.compress中的类
-
A bridge that wraps around a DeflaterOutputStream to make it
a CompressionOutputStream.
- GzipCodec.GzipOutputStream(OutputStream) - 类 的构造器org.apache.hadoop.io.compress.GzipCodec.GzipOutputStream
-
- GzipCodec.GzipOutputStream(CompressorStream) - 类 的构造器org.apache.hadoop.io.compress.GzipCodec.GzipOutputStream
-
Allow children types to put a different type in here.
- r - 类 中的静态变量org.apache.hadoop.net.NetworkTopology
-
- RackNode - org.apache.hadoop.tools.rumen中的类
-
RackNode
represents a rack node in the cluster topology.
- RackNode(String, int) - 类 的构造器org.apache.hadoop.tools.rumen.RackNode
-
- rackNodes - 类 中的变量org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- RAMDirectoryUtil - org.apache.hadoop.contrib.index.lucene中的类
-
A utility class which writes an index in a ram dir into a DataOutput and
read from a DataInput an index into a ram dir.
- RAMDirectoryUtil() - 类 的构造器org.apache.hadoop.contrib.index.lucene.RAMDirectoryUtil
-
- rand - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCp
-
- RANDOM - 接口 中的静态变量org.apache.hadoop.util.bloom.RemoveScheme
-
Random selection.
- randomDataNode() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
已过时。
- randomNode() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- RandomSeedGenerator - org.apache.hadoop.tools.rumen中的类
-
The purpose of this class is to generate new random seeds from a master
seed.
- RandomSeedGenerator() - 类 的构造器org.apache.hadoop.tools.rumen.RandomSeedGenerator
-
- RandomTextWriter - org.apache.hadoop.examples中的类
-
This program uses map/reduce to just run a distributed job where there is
no interaction between the tasks and each task writes a large unsorted
random sequence of words.
- RandomTextWriter() - 类 的构造器org.apache.hadoop.examples.RandomTextWriter
-
- randomValue() - 类 中的方法org.apache.hadoop.tools.rumen.CDFRandomGenerator
-
- RandomWriter - org.apache.hadoop.examples中的类
-
This program uses map/reduce to just run a distributed job where there is
no interaction between the tasks and each task write a large unsorted
random binary sequence file of BytesWritable.
- RandomWriter() - 类 的构造器org.apache.hadoop.examples.RandomWriter
-
- RATIO - 接口 中的静态变量org.apache.hadoop.util.bloom.RemoveScheme
-
Ratio Selection.
- RAW_BYTES_ID - 类 中的静态变量org.apache.hadoop.streaming.io.IdentifierResolver
-
- RawBytesInputWriter - org.apache.hadoop.streaming.io中的类
-
InputWriter that writes the client's input as raw bytes.
- RawBytesInputWriter() - 类 的构造器org.apache.hadoop.streaming.io.RawBytesInputWriter
-
- RawBytesOutputReader - org.apache.hadoop.streaming.io中的类
-
OutputReader that reads the client's output as raw bytes.
- RawBytesOutputReader() - 类 的构造器org.apache.hadoop.streaming.io.RawBytesOutputReader
-
- RawComparable - org.apache.hadoop.io.file.tfile中的接口
-
Interface for objects that can be compared through
RawComparator
.
- RawComparator<T> - org.apache.hadoop.io中的接口
-
A
Comparator
that operates directly on byte representations of
objects.
- RawHistoryFileServlet - org.apache.hadoop.mapred中的类
-
- RawHistoryFileServlet() - 类 的构造器org.apache.hadoop.mapred.RawHistoryFileServlet
-
- RawKeyValueIterator - org.apache.hadoop.mapred中的接口
-
RawKeyValueIterator
is an iterator used to iterate over
the raw keys and values during sort/merge of intermediate data.
- RawLocalFileSystem - org.apache.hadoop.fs中的类
-
Implement the FileSystem API for the raw local filesystem.
- RawLocalFileSystem() - 类 的构造器org.apache.hadoop.fs.RawLocalFileSystem
-
- rawMapping - 类 中的变量org.apache.hadoop.net.CachedDNSToSwitchMapping
-
- rawWriter - 类 中的变量org.apache.hadoop.mapreduce.lib.output.FilterOutputFormat.FilterRecordWriter
-
- RBRACE_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- Rcc - org.apache.hadoop.record.compiler.generated中的类
-
- Rcc(InputStream) - 类 的构造器org.apache.hadoop.record.compiler.generated.Rcc
-
- Rcc(InputStream, String) - 类 的构造器org.apache.hadoop.record.compiler.generated.Rcc
-
- Rcc(Reader) - 类 的构造器org.apache.hadoop.record.compiler.generated.Rcc
-
- Rcc(RccTokenManager) - 类 的构造器org.apache.hadoop.record.compiler.generated.Rcc
-
- RccConstants - org.apache.hadoop.record.compiler.generated中的接口
-
- RccTask - org.apache.hadoop.record.compiler.ant中的类
-
Hadoop record compiler ant Task
This task takes the given record definition files and compiles them into
java or c++
files.
- RccTask() - 类 的构造器org.apache.hadoop.record.compiler.ant.RccTask
-
Creates a new instance of RccTask
- RccTokenManager - org.apache.hadoop.record.compiler.generated中的类
-
- RccTokenManager(SimpleCharStream) - 类 的构造器org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- RccTokenManager(SimpleCharStream, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- read(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
-
- read(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
-
- read() - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
Read one checksum-verified byte
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
Read checksum verified bytes from this byte-input stream into
the specified byte array, starting at the given offset.
- read(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.FSInputStream
-
- read() - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
-
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
-
- read(DataInput) - 类 中的静态方法org.apache.hadoop.fs.permission.FsPermission
-
- read(DataInput) - 类 中的静态方法org.apache.hadoop.fs.permission.PermissionStatus
-
- read(long, byte[], int, int) - 接口 中的方法org.apache.hadoop.fs.PositionedReadable
-
Read upto the specified number of bytes, from a given
position within a file, and return the number of bytes read.
- read(byte[], int, int) - 接口 中的方法org.apache.hadoop.hdfs.BlockReader
-
- read() - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
-
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
-
- read() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
Read the entire buffer.
- read(long, byte[], int, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
Read bytes starting from the specified position.
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
- read() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
- read() - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
Read version file.
- read(File) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
- read() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
-
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
-
In CONTINOUS reading mode, this read method starts from the
start of the compressed stream and end at the end of file by
emitting un-compressed data.
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.CompressionInputStream
-
Read bytes from the stream.
- read() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
-
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
-
- read(DataInput) - 类 中的静态方法org.apache.hadoop.io.MD5Hash
-
Constructs, reads and returns an instance.
- read(DataInput) - 类 中的静态方法org.apache.hadoop.mapred.JobID
-
已过时。
- read(DataInput) - 类 中的静态方法org.apache.hadoop.mapred.TaskAttemptID
-
已过时。
- read(DataInput) - 类 中的静态方法org.apache.hadoop.mapred.TaskID
-
已过时。
- read() - 类 中的方法org.apache.hadoop.net.SocketInputStream
-
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.net.SocketInputStream
-
- read(ByteBuffer) - 类 中的方法org.apache.hadoop.net.SocketInputStream
-
- read() - 类 中的方法org.apache.hadoop.security.SaslInputStream
-
Reads the next byte of data from this input stream.
- read(byte[]) - 类 中的方法org.apache.hadoop.security.SaslInputStream
-
Reads up to b.length
bytes of data from this input stream into
an array of bytes.
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.security.SaslInputStream
-
Reads up to len
bytes of data from this input stream into an
array of bytes.
- read(DataInput) - 枚举 中的静态方法org.apache.hadoop.security.SaslRpcServer.AuthMethod
-
Read from in
- read() - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
-
- read(byte[]) - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
-
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.tools.distcp2.util.ThrottledInputStream
-
- read() - 类 中的方法org.apache.hadoop.tools.rumen.RewindableInputStream
-
- read(byte[], int, int) - 类 中的方法org.apache.hadoop.tools.rumen.RewindableInputStream
-
- read() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads a typed bytes sequence and converts it to a Java object.
- read() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- READ_TIMEOUT - 接口 中的静态变量org.apache.hadoop.hdfs.server.common.HdfsConstants
-
- READ_TIMEOUT_EXTENSION - 接口 中的静态变量org.apache.hadoop.hdfs.server.common.HdfsConstants
-
- ReadaheadPool - org.apache.hadoop.io中的类
-
Manages a pool of threads which can issue readahead requests on file descriptors.
- ReadaheadPool.ReadaheadRequest - org.apache.hadoop.io中的接口
-
An outstanding readahead request that has been submitted to
the pool.
- readaheadStream(String, FileDescriptor, long, long, long, ReadaheadPool.ReadaheadRequest) - 类 中的方法org.apache.hadoop.io.ReadaheadPool
-
Issue a request to readahead on the given file descriptor.
- readAll(byte[], int, int) - 接口 中的方法org.apache.hadoop.hdfs.BlockReader
-
- readAll(byte[], int, int) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
kind of like readFully().
- readAndProcess() - 类 中的方法org.apache.hadoop.ipc.Server.Connection
-
- readArray(ArrayWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readArray() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readBool(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- readBool(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- readBool(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Read a boolean from serialized record.
- readBool(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- readBool() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the boolean following a Type.BOOL
code.
- readBool(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- readBoolean(BooleanWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readBoolean() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readBuffer(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- readBuffer(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- readBuffer(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Read byte array from serialized record.
- readBuffer(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- readBuffer(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- readByte(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- readByte(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- readByte(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Read a byte from serialized record.
- readByte(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- readByte() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the byte following a Type.BYTE
code.
- readByte(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- readByte(ByteWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readByte() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readBytes(DataInputStream) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
- readBytes() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the bytes following a Type.BYTES
code.
- readBytes(BytesWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readBytes() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readChar() - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- readChunk(long, byte[], int, int, byte[]) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
Reads in next checksum chunk data into buf
at offset
and checksum into checksum
.
- readChunk(long, byte[], int, int, byte[]) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
- readCompressedByteArray(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
- readCompressedString(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
- readCompressedStringArray(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
- readDouble(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Parse a double from a byte array.
- readDouble(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- readDouble(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- readDouble(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Read a double-precision number from serialized record.
- readDouble(byte[], int) - 类 中的静态方法org.apache.hadoop.record.Utils
-
Parse a double from a byte array.
- readDouble(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- readDouble() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the double following a Type.DOUBLE
code.
- readDouble(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- readDouble(DoubleWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readDouble() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readEnum(DataInput, Class<T>) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
Read an Enum value from DataInput, Enums are read and written
using String values.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.conf.Configuration
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocTextAndOp
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentID
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IntermediateForm
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.contrib.index.mapred.Shard
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount.WordOffset
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
-
Read the two integers.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.examples.SleepJob.EmptySplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Implement readFields of Writable
- readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.ContentSummary
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.FileStatus
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.MD5MD5CRC32FileChecksum
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.permission.FsPermission
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.fs.permission.PermissionStatus
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.BlockLocalPathInfo
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DataTransferProtocol.PipelineAck
-
Writable interface
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.DirectoryListing
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.HdfsFileStatus
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.ExportedBlockKeys
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeStatusReport
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CheckpointSignature
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BalancerBandwidthCommand
-
Reads the bandwidth payload from the Balancer Bandwidth Command packet.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockCommand
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockMetaDataInfo
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlockRecoveryInfo
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations.BlockWithLocations
-
deserialization method
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.BlocksWithLocations
-
deserialization method
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeCommand
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.KeyUpdateCommand
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.NamespaceInfo
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.UpgradeCommand
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.ArrayWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.BooleanWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.BytesWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.ByteWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.CompressedWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.DoubleWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.FloatWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.GenericWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.IntWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.LongWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.MapWritable
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.MD5Hash
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.NullWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.ObjectWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.Text
-
deserialize
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.TwoDArrayWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.UTF8
-
已过时。
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.VersionedWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.VIntWritable
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.io.VLongWritable
-
- readFields(DataInput) - 接口 中的方法org.apache.hadoop.io.Writable
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.ClusterStatus
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.Counters
-
Read a set of groups.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.FileSplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.JobProfile
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputSplit
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.JvmTask
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileSplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.DBInputSplit
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.NullDBWritable
-
- readFields(ResultSet) - 类 中的方法org.apache.hadoop.mapred.lib.db.DBInputFormat.NullDBWritable
-
- readFields(ResultSet) - 接口 中的方法org.apache.hadoop.mapred.lib.db.DBWritable
-
Reads the fields of the object from the
ResultSet
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.MapTaskCompletionEventsUpdate
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.QueueAclsInfo
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.Task
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.ClusterMetrics
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.Counter
-
Read the binary representation of the counter
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.Counters
-
Read a set of groups.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.ID
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.JobID
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat.DataDrivenDBInputSplit
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.DBInputSplit
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.NullDBWritable
-
- readFields(ResultSet) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat.NullDBWritable
-
- readFields(ResultSet) - 接口 中的方法org.apache.hadoop.mapreduce.lib.db.DBWritable
-
Reads the fields of the object from the
ResultSet
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileSplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.FileSplit
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenIdentifier
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.TaskSplitIndex
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptID
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.mapreduce.TaskID
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.record.Record
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.security.authorize.AccessControlList
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.security.Credentials
-
Loads all the keys
- readFields(DataInput) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.security.token.delegation.DelegationKey
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.security.token.Token
-
Deserialize the fields of this object from in
.
- readFields(DataInput) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.BloomFilter
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.CountingBloomFilter
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.DynamicBloomFilter
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.Filter
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.Key
-
- readFields(DataInput) - 类 中的方法org.apache.hadoop.util.bloom.RetouchedBloomFilter
-
- readFieldsCompressed(DataInput) - 类 中的方法org.apache.hadoop.io.CompressedWritable
-
- readFileChannelFully(FileChannel, byte[], int, int) - 类 中的静态方法org.apache.hadoop.io.IOUtils
-
Reads len bytes in a loop using the channel of the stream
- readFloat(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Parse a float from a byte array.
- readFloat(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- readFloat(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- readFloat(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Read a single-precision float from serialized record.
- readFloat(byte[], int) - 类 中的静态方法org.apache.hadoop.record.Utils
-
Parse a float from a byte array.
- readFloat(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- readFloat() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the float following a Type.FLOAT
code.
- readFloat(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- readFloat(FloatWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readFloat() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readFully(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
-
- readFully(long, byte[]) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
-
- readFully(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
-
- readFully(long, byte[]) - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
-
- readFully(InputStream, byte[], int, int) - 类 中的静态方法org.apache.hadoop.fs.FSInputChecker
-
A utility function that tries to read up to len
bytes from
stm
- readFully(long, byte[], int, int) - 类 中的方法org.apache.hadoop.fs.FSInputStream
-
- readFully(long, byte[]) - 类 中的方法org.apache.hadoop.fs.FSInputStream
-
- readFully(long, byte[], int, int) - 接口 中的方法org.apache.hadoop.fs.PositionedReadable
-
Read the specified number of bytes, from a given
position within a file.
- readFully(long, byte[]) - 接口 中的方法org.apache.hadoop.fs.PositionedReadable
-
Read number of bytes equalt to the length of the buffer, from a given
position within a file.
- readFully(InputStream, byte[], int, int) - 类 中的静态方法org.apache.hadoop.io.IOUtils
-
Reads len bytes in a loop.
- readHeader(DataInputStream) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.BlockMetadataHeader
-
This reads all the fields till the beginning of checksum.
- readInt(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Parse an integer from a byte array.
- readInt(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- readInt(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- readInt(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Read an integer from serialized record.
- readInt(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- readInt() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the integer following a Type.INT
code.
- readInt(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- readInt(IntWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readInt() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readKeyValue() - 类 中的方法org.apache.hadoop.streaming.io.OutputReader
-
Read the next key/value pair outputted by the client.
- readKeyValue() - 类 中的方法org.apache.hadoop.streaming.io.RawBytesOutputReader
-
- readKeyValue() - 类 中的方法org.apache.hadoop.streaming.io.TextOutputReader
-
- readKeyValue() - 类 中的方法org.apache.hadoop.streaming.io.TypedBytesOutputReader
-
- readLine(LineReader, Text) - 类 中的静态方法org.apache.hadoop.streaming.StreamKeyValUtil
-
Read a utf8 encoded line from a data input stream.
- readLine(LineReader, Text) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
-
- readLine(Text, int, int) - 类 中的方法org.apache.hadoop.util.LineReader
-
Read one line from the InputStream into the given Text.
- readLine(Text, int) - 类 中的方法org.apache.hadoop.util.LineReader
-
Read from the InputStream into the given Text.
- readLine(Text) - 类 中的方法org.apache.hadoop.util.LineReader
-
Read from the InputStream into the given Text.
- readList() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the list following a Type.LIST
code.
- readLong(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Parse a long from a byte array.
- readLong(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- readLong(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- readLong(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Read a long integer from serialized record.
- readLong(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- readLong() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the long following a Type.LONG
code.
- readLong(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- readLong(LongWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readLong() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readMap() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the map following a Type.MAP
code.
- readMap(MapWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readMap() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readMapHeader() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the header following a Type.MAP
code.
- readObject(DataInput, Configuration) - 类 中的静态方法org.apache.hadoop.io.ObjectWritable
-
Read a
Writable
,
String
, primitive type, or an array of
the preceding.
- readObject(DataInput, ObjectWritable, Configuration) - 类 中的静态方法org.apache.hadoop.io.ObjectWritable
-
Read a
Writable
,
String
, primitive type, or an array of
the preceding.
- readRAMFiles(DataInput, RAMDirectory) - 类 中的静态方法org.apache.hadoop.contrib.index.lucene.RAMDirectoryUtil
-
Read a number of files from a data input to a ram directory.
- readRaw() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads a typed bytes sequence.
- readRawBool() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a Type.BOOL
code.
- readRawByte() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw byte following a Type.BYTE
code.
- readRawBytes(int) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a custom code.
- readRawBytes() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a Type.BYTES
code.
- readRawDouble() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a Type.DOUBLE
code.
- readRawFloat() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a Type.FLOAT
code.
- readRawInt() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a Type.INT
code.
- readRawList() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a Type.LIST
code.
- readRawLong() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a Type.LONG
code.
- readRawMap() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a Type.MAP
code.
- readRawString() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a Type.STRING
code.
- readRawVector() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the raw bytes following a Type.VECTOR
code.
- readSortedMap(SortedMapWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readSortedMap() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readSplitMetaInfo(JobID, FileSystem, Configuration, Path) - 类 中的静态方法org.apache.hadoop.mapreduce.split.SplitMetaInfoReader
-
- readString(DataInputStream) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
- readString(DataInput) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
-
Read a String as a VInt n, followed by n Bytes in Text format.
- readString(DataInput) - 类 中的静态方法org.apache.hadoop.io.Text
-
Read a UTF8 encoded string from in
- readString(DataInput) - 类 中的静态方法org.apache.hadoop.io.UTF8
-
已过时。
Read a UTF-8 encoded string.
- readString(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
- readString(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- readString(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- readString(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Read a UTF-8 encoded string from serialized record.
- readString(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- readString() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the string following a Type.STRING
code.
- readString(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- readStringArray(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
- readText(Text) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readText() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readTokenStorageFile(Path, Configuration) - 类 中的静态方法org.apache.hadoop.security.Credentials
-
Convenience method for reading a token storage file, and loading the Tokens
therein in the passed UGI
- readTokenStorageStream(DataInputStream) - 类 中的方法org.apache.hadoop.security.Credentials
-
Convenience method for reading a token storage file directly from a
datainputstream
- readType() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads a type byte and returns the corresponding
Type
.
- readType() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readUnsignedShort(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Parse an unsigned short from a byte array.
- readVector() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the vector following a Type.VECTOR
code.
- readVectorHeader() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Reads the header following a Type.VECTOR
code.
- readVInt(DataInput) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
-
Decoding the variable-length integer.
- readVInt(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Reads a zero-compressed encoded integer from a byte array and returns it.
- readVInt(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
Reads a zero-compressed encoded integer from input stream and returns it.
- readVInt(byte[], int) - 类 中的静态方法org.apache.hadoop.record.Utils
-
Reads a zero-compressed encoded integer from a byte array and returns it.
- readVInt(DataInput) - 类 中的静态方法org.apache.hadoop.record.Utils
-
Reads a zero-compressed encoded integer from a stream and returns it.
- readVInt(VIntWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readVInt() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readVLong(DataInput) - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils
-
Decoding the variable-length integer.
- readVLong(byte[], int) - 类 中的静态方法org.apache.hadoop.io.WritableComparator
-
Reads a zero-compressed encoded long from a byte array and returns it.
- readVLong(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
Reads a zero-compressed encoded long from input stream and returns it.
- readVLong(byte[], int) - 类 中的静态方法org.apache.hadoop.record.Utils
-
Reads a zero-compressed encoded long from a byte array and returns it.
- readVLong(DataInput) - 类 中的静态方法org.apache.hadoop.record.Utils
-
Reads a zero-compressed encoded long from a stream and return it.
- readVLong(VLongWritable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readVLong() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readWritable(Writable) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- readWritable() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- READY - 类 中的静态变量org.apache.hadoop.mapred.jobcontrol.Job
-
- Record() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- Record - org.apache.hadoop.record中的类
-
Abstract class that is extended by generated classes.
- Record() - 类 的构造器org.apache.hadoop.record.Record
-
- RECORD_INPUT - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
-
- RECORD_OUTPUT - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
-
- RECORD_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- RecordComparator - org.apache.hadoop.record中的类
-
A raw record comparator base class
- RecordComparator(Class<? extends WritableComparable>) - 类 的构造器org.apache.hadoop.record.RecordComparator
-
Construct a raw
Record
comparison implementation.
- RecordInput - org.apache.hadoop.record中的接口
-
Interface that all the Deserializers have to implement.
- RecordList() - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- RecordOutput - org.apache.hadoop.record中的接口
-
Interface that alll the serializers have to implement.
- RecordReader<K,V> - org.apache.hadoop.mapred中的接口
-
RecordReader
reads <key, value> pairs from an
InputSplit
.
- RecordReader<KEYIN,VALUEIN> - org.apache.hadoop.mapreduce中的类
-
The record reader breaks the data into key/value pairs for input to the
Mapper
.
- RecordReader() - 类 的构造器org.apache.hadoop.mapreduce.RecordReader
-
- RecordTypeInfo - org.apache.hadoop.record.meta中的类
-
A record's Type Information object which can read/write itself.
- RecordTypeInfo() - 类 的构造器org.apache.hadoop.record.meta.RecordTypeInfo
-
Create an empty RecordTypeInfo object.
- RecordTypeInfo(String) - 类 的构造器org.apache.hadoop.record.meta.RecordTypeInfo
-
Create a RecordTypeInfo object representing a record with the given name
- RecordWriter<K,V> - org.apache.hadoop.mapred中的接口
-
RecordWriter
writes the output <key, value> pairs
to an output file.
- RecordWriter<K,V> - org.apache.hadoop.mapreduce中的类
-
RecordWriter
writes the output <key, value> pairs
to an output file.
- RecordWriter() - 类 的构造器org.apache.hadoop.mapreduce.RecordWriter
-
- recoverBlock(Block, boolean, DatanodeInfo[]) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientDatanodeProtocol
-
Start generation-stamp recovery for specified block
- recoverBlock(Block, boolean, DatanodeInfo[]) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Start generation-stamp recovery for specified block
- recoverBlocks(Block[], DatanodeInfo[][]) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- recoverJobHistoryFile(JobConf, Path) - 类 中的静态方法org.apache.hadoop.mapred.JobHistory.JobInfo
-
Selects one of the two files generated as a part of recovery.
- recoverLease(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Start the lease recovery of a file
- recoverLease(String, String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Start lease recovery
- recoverLease(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Start lease recovery
- RecursiveParam - org.apache.hadoop.hdfs.web.resources中的类
-
Recursive parameter.
- RecursiveParam(Boolean) - 类 的构造器org.apache.hadoop.hdfs.web.resources.RecursiveParam
-
Constructor.
- RecursiveParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.RecursiveParam
-
Constructor.
- redCmd_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- reduce(Shard, Iterator<IntermediateForm>, OutputCollector<Shard, IntermediateForm>, Reporter) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateCombiner
-
- reduce(Shard, Iterator<IntermediateForm>, OutputCollector<Shard, Text>, Reporter) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateReducer
-
- reduce(Object, Iterator, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
-
- reduce(Object, Iterator, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
-
- reduce(BooleanWritable, Iterator<LongWritable>, OutputCollector<WritableComparable<?>, Writable>, Reporter) - 类 中的方法org.apache.hadoop.examples.PiEstimator.PiReducer
-
Accumulate number of points inside/outside results from the mappers.
- reduce(SecondarySort.IntPair, Iterable<IntWritable>, Reducer<SecondarySort.IntPair, IntWritable, Text, IntWritable>.Context) - 类 中的方法org.apache.hadoop.examples.SecondarySort.Reduce
-
- reduce(IntWritable, Iterator<NullWritable>, OutputCollector<NullWritable, NullWritable>, Reporter) - 类 中的方法org.apache.hadoop.examples.SleepJob
-
- reduce(Text, Iterable<IntWritable>, Reducer<Text, IntWritable, Text, IntWritable>.Context) - 类 中的方法org.apache.hadoop.examples.WordCount.IntSumReducer
-
- reduce(Text, Iterator<Text>, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorCombiner
-
Combines values for a given key.
- reduce(Text, Iterator<Text>, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorMapper
-
Do nothing.
- reduce(Text, Iterator<Text>, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorReducer
-
- reduce(Object, Iterator, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.ChainReducer
-
Chains the reduce(...)
- reduce(Text, Iterator<Text>, OutputCollector<Text, Text>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.FieldSelectionMapReduce
-
- reduce(K, Iterator<V>, OutputCollector<K, V>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.IdentityReducer
-
Writes all keys and values directly to output.
- reduce(K, Iterator<LongWritable>, OutputCollector<K, LongWritable>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.LongSumReducer
-
- reduce(K2, Iterator<V2>, OutputCollector<K3, V3>, Reporter) - 接口 中的方法org.apache.hadoop.mapred.Reducer
-
Reduces values for a given key.
- reduce(Text, Iterable<Text>, Reducer<Text, Text, Text, Text>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionReducer
-
- reduce(Key, Iterable<IntWritable>, Reducer<Key, IntWritable, Key, IntWritable>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.reduce.IntSumReducer
-
- reduce(KEY, Iterable<LongWritable>, Reducer<KEY, LongWritable, KEY, LongWritable>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.reduce.LongSumReducer
-
- reduce(KEYIN, Iterable<VALUEIN>, Reducer<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Reducer
-
This method is called once for each key.
- reduce(Object, Iterator, OutputCollector, Reporter) - 类 中的方法org.apache.hadoop.streaming.PipeReducer
-
- REDUCE_CLASS_ATTR - 类 中的静态变量org.apache.hadoop.mapreduce.JobContext
-
- REDUCE_OUTPUT_KEY_VALUE_SPEC - 类 中的静态变量org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
-
- ReduceAttempt20LineHistoryEventEmitter - org.apache.hadoop.tools.rumen中的类
-
- ReduceAttemptFinishedEvent - org.apache.hadoop.tools.rumen中的类
-
Event to record successful completion of a reduce attempt
- ReduceAttemptFinishedEvent(TaskAttemptID, TaskType, String, long, long, long, String, String, Counters) - 类 的构造器org.apache.hadoop.tools.rumen.ReduceAttemptFinishedEvent
-
Create an event to record completion of a reduce attempt
- ReduceContext<KEYIN,VALUEIN,KEYOUT,VALUEOUT> - org.apache.hadoop.mapreduce中的类
-
- ReduceContext(Configuration, TaskAttemptID, RawKeyValueIterator, Counter, Counter, RecordWriter<KEYOUT, VALUEOUT>, OutputCommitter, StatusReporter, RawComparator<KEYIN>, Class<KEYIN>, Class<VALUEIN>) - 类 的构造器org.apache.hadoop.mapreduce.ReduceContext
-
- ReduceContext.ValueIterable - org.apache.hadoop.mapreduce中的类
-
- ReduceContext.ValueIterable() - 类 的构造器org.apache.hadoop.mapreduce.ReduceContext.ValueIterable
-
- ReduceContext.ValueIterator - org.apache.hadoop.mapreduce中的类
-
- ReduceContext.ValueIterator() - 类 的构造器org.apache.hadoop.mapreduce.ReduceContext.ValueIterator
-
- reduceDebugSpec_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- reduceProgress() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- reduceProgress() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get the progress of the job's reduce-tasks, as a float between 0.0
and 1.0.
- reduceProgress() - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Get the progress of the job's reduce-tasks, as a float between 0.0
and 1.0.
- Reducer<K2,V2,K3,V3> - org.apache.hadoop.mapred中的接口
-
Reduces a set of intermediate values which share a key to a smaller set of
values.
- Reducer<KEYIN,VALUEIN,KEYOUT,VALUEOUT> - org.apache.hadoop.mapreduce中的类
-
Reduces a set of intermediate values which share a key to a smaller set of
values.
- Reducer() - 类 的构造器org.apache.hadoop.mapreduce.Reducer
-
- Reducer.Context - org.apache.hadoop.mapreduce中的类
-
- Reducer.Context(Configuration, TaskAttemptID, RawKeyValueIterator, Counter, Counter, RecordWriter<KEYOUT, VALUEOUT>, OutputCommitter, StatusReporter, RawComparator<KEYIN>, Class<KEYIN>, Class<VALUEIN>) - 类 的构造器org.apache.hadoop.mapreduce.Reducer.Context
-
- ReduceTaskAttemptInfo - org.apache.hadoop.tools.rumen中的类
-
- ReduceTaskAttemptInfo(TaskStatus.State, TaskInfo, long, long, long) - 类 的构造器org.apache.hadoop.tools.rumen.ReduceTaskAttemptInfo
-
- ReflectionUtils - org.apache.hadoop.util中的类
-
General reflection utils
- ReflectionUtils() - 类 的构造器org.apache.hadoop.util.ReflectionUtils
-
- refresh(Configuration, PolicyProvider) - 类 中的静态方法org.apache.hadoop.security.authorize.ServiceAuthorizationManager
-
- refresh() - 类 中的方法org.apache.hadoop.security.Groups
-
Refresh all user-to-groups mappings.
- refresh() - 类 中的方法org.apache.hadoop.util.HostsFileReader
-
- RefreshAuthorizationPolicyProtocol - org.apache.hadoop.security.authorize中的接口
-
Protocol which is used to refresh the authorization policy in use currently.
- refreshMBeans() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
- refreshMBeans() - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
- refreshMBeans() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystemMXBean
-
Force a refresh of MBeans
- refreshNodes() - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
-
- refreshNodes() - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Refresh the hosts and exclude files.
- refreshNodes() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Refreshes the list of hosts and excluded hosts from the configured
files.
- refreshNodes() - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Tells the namenode to reread the hosts and exclude files.
- refreshNodes(Configuration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Rereads the config to get hosts and exclude list file names.
- refreshNodes() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Refresh the list of datanodes that the namenode should allow to
connect.
- refreshNodes() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
Command to ask the namenode to reread the hosts and excluded hosts
file.
- refreshNodes() - 接口 中的方法org.apache.hadoop.mapred.AdminOperationsProtocol
-
- refreshNodes() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Rereads the config to get hosts and exclude list file names.
- refreshQueues() - 接口 中的方法org.apache.hadoop.mapred.AdminOperationsProtocol
-
Refresh the queue acls in use currently.
- refreshQueues() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- refreshServiceAcl() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- refreshServiceAcl() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
Refresh the authorization policy on the
NameNode
.
- refreshServiceAcl() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- refreshServiceAcl() - 接口 中的方法org.apache.hadoop.security.authorize.RefreshAuthorizationPolicyProtocol
-
Refresh the service-level authorization policy in-effect.
- refreshSuperUserGroupsConfiguration() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- refreshSuperUserGroupsConfiguration() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
refreshSuperUserGroupsConfiguration
NameNode
.
- refreshSuperUserGroupsConfiguration() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- refreshSuperUserGroupsConfiguration() - 类 中的方法org.apache.hadoop.mapred.tools.MRAdmin
-
- refreshSuperUserGroupsConfiguration() - 类 中的静态方法org.apache.hadoop.security.authorize.ProxyUsers
-
reread the conf and get new values for "hadoop.proxyuser.*.groups/hosts"
- refreshSuperUserGroupsConfiguration(Configuration) - 类 中的静态方法org.apache.hadoop.security.authorize.ProxyUsers
-
refresh configuration
- refreshSuperUserGroupsConfiguration() - 接口 中的方法org.apache.hadoop.security.RefreshUserMappingsProtocol
-
Refresh superuser proxy group list
- RefreshUserMappingsProtocol - org.apache.hadoop.security中的接口
-
Protocol use
- refreshUserToGroupsMappings() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- refreshUserToGroupsMappings() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
Refresh the user-to-groups mappings on the
NameNode
.
- refreshUserToGroupsMappings() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- refreshUserToGroupsMappings() - 接口 中的方法org.apache.hadoop.security.RefreshUserMappingsProtocol
-
Refresh user to group mappings.
- RegexFilter - org.apache.hadoop.metrics2.filter中的类
-
A regex pattern filter for metrics
- RegexFilter() - 类 的构造器org.apache.hadoop.metrics2.filter.RegexFilter
-
- RegexMapper<K> - org.apache.hadoop.mapred.lib中的类
-
A
Mapper
that extracts text matching a regular expression.
- RegexMapper() - 类 的构造器org.apache.hadoop.mapred.lib.RegexMapper
-
- regexpEscape(String) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- register(DatanodeRegistration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- REGISTER - 类 中的静态变量org.apache.hadoop.hdfs.server.protocol.DatanodeCommand
-
- register(DatanodeRegistration) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
-
Register Datanode.
- register(String, String, T) - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
- register(String, String, T) - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
- register(MetricsSystem.Callback) - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
- register(String, String, T) - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
- register(String, String, T) - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
- register(MetricsSystem.Callback) - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
- register(String, String, T) - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem
-
Register a metrics source
- register(String, String, T) - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem
-
Register a metrics sink
- register(MetricsSystem.Callback) - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem
-
Register a callback interface for JMX events
- register(String, String, Object) - 类 中的静态方法org.apache.hadoop.metrics2.util.MBeans
-
Register the MBean using our standard MBeanName format
"hadoop:service=,name="
Where the and are the supplied parameters
- registerDatanode(DatanodeRegistration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Register Datanode.
- registerDelegationTokensForRenewal(JobID, Credentials, Configuration) - 类 中的静态方法org.apache.hadoop.mapreduce.security.token.DelegationTokenRenewal
-
- registerMBean(String, String, Object) - 类 中的静态方法org.apache.hadoop.metrics.util.MBeanUtil
-
已过时。
Register the MBean using our standard MBeanName format
"hadoop:service=,name="
Where the and are the supplied parameters
- registerNotification(JobConf, JobStatus) - 类 中的静态方法org.apache.hadoop.mapred.JobEndNotifier
-
- registerSource(String, String, T) - 枚举 中的静态方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
Common static method to register a source
- registerUpdater(Updater) - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
-
已过时。
Registers a callback to be called at regular time intervals, as
determined by the implementation-class specific configuration.
- registerUpdater(Updater) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Registers a callback to be called at time intervals determined by
the configuration.
- registerUpdater(Updater) - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
-
已过时。
- registry - 类 中的变量org.apache.hadoop.metrics2.lib.AbstractMetricsSource
-
- registry() - 类 中的方法org.apache.hadoop.metrics2.lib.AbstractMetricsSource
-
- reinit(Configuration) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
-
- reinit(Configuration) - 接口 中的方法org.apache.hadoop.io.compress.Compressor
-
Prepare the compressor to be used in a new stream with settings defined in
the given Configuration
- reinit(Configuration) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Prepare the compressor to be used in a new stream with settings defined in
the given Configuration
- reinit(Configuration) - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInZlibDeflater
-
reinit the compressor with the given configuration.
- reinit(Configuration) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
Prepare the compressor to be used in a new stream with settings defined in
the given Configuration.
- ReInit(InputStream) - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- ReInit(InputStream, String) - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- ReInit(Reader) - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- ReInit(RccTokenManager) - 类 中的方法org.apache.hadoop.record.compiler.generated.Rcc
-
- ReInit(SimpleCharStream) - 类 中的方法org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- ReInit(SimpleCharStream, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- ReInit(Reader, int, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- ReInit(Reader, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- ReInit(Reader) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- ReInit(InputStream, String, int, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- ReInit(InputStream, int, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- ReInit(InputStream, String) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- ReInit(InputStream) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- ReInit(InputStream, String, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- ReInit(InputStream, int, int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- release() - 类 中的方法org.apache.hadoop.filecache.TaskDistributedCacheManager
-
- release(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
已过时。
- reloadConfiguration() - 类 中的方法org.apache.hadoop.conf.Configuration
-
Reload configuration from previously added resources.
- reloginFromKeytab() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Re-Login a user in from a keytab file.
- reloginFromTicketCache() - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Re-Login a user in from the ticket cache.
- remaining - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
- RemoteException - org.apache.hadoop.ipc中的异常错误
-
- RemoteException(String, String) - 异常错误 的构造器org.apache.hadoop.ipc.RemoteException
-
- remove() - 类 中的方法org.apache.hadoop.contrib.utils.join.ArrayListBackedIterator
-
- remove(K) - 接口 中的方法org.apache.hadoop.hdfs.util.GSet
-
Remove the element corresponding to the given key.
- remove(K) - 类 中的方法org.apache.hadoop.hdfs.util.GSetByHashMap
-
- remove(K) - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
-
- remove(Object) - 类 中的方法org.apache.hadoop.io.MapWritable
- remove(Object) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- remove() - 类 中的方法org.apache.hadoop.mapreduce.ReduceContext.ValueIterator
-
- remove() - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Removes, from the buffered data table, all rows having tags
that equal the tags that have been set on this record.
- remove(MetricsRecordImpl) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Called by MetricsRecordImpl.remove().
- remove() - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Removes the row, if it exists, in the buffered data table having tags
that equal the tags that have been set on this record.
- remove(MetricsRecordImpl) - 类 中的方法org.apache.hadoop.metrics.spi.NullContext
-
已过时。
Do-nothing version of remove
- remove(MetricsRecordImpl) - 类 中的方法org.apache.hadoop.metrics.spi.NullContextWithUpdateThread
-
已过时。
Do-nothing version of remove
- remove() - 类 中的方法org.apache.hadoop.metrics2.util.TryIterator
-
Guaranteed to throw UnsupportedOperationException
- remove(Node) - 类 中的方法org.apache.hadoop.net.NetworkTopology
-
Remove a node
Update node counter & rack counter if neccessary
- remove(Node) - 类 中的方法org.apache.hadoop.net.NetworkTopologyWithNodeGroup
-
Remove a node
Update node counter and rack counter if necessary
- removeAttribute(String) - 类 中的方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
Removes the named attribute if it exists.
- removeDatanode(DatanodeID) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
remove a datanode descriptor
- removeDelegationTokenRenewalForJob(JobID) - 类 中的静态方法org.apache.hadoop.mapreduce.security.token.DelegationTokenRenewal
-
removing DT for completed jobs
- removeJobInProgressListener(JobInProgressListener) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- RemoveScheme - org.apache.hadoop.util.bloom中的接口
-
Defines the different remove scheme for retouched Bloom filters.
- removeSuffix(String, String) - 类 中的静态方法org.apache.hadoop.io.compress.CompressionCodecFactory
-
Removes a suffix from a filename, if it has it.
- removeTag(String) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Removes any tag of the specified name.
- removeTag(String) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Removes any tag of the specified name.
- removeTaskDistributedCacheManager(JobID) - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
- removeTokenForJob(String) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
-
Remove the cached job token of a job from cache
- rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
Rename files/dirs
- rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Renames Path src to Path dst.
- rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Renames Path src to Path dst.
- rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
-
- rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
- rename(Path, Path) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
- rename(String, String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Rename file or directory.
- rename(Path, Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Rename files/dirs
- rename(Path, Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- rename(String, String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Rename an item in the file system namespace.
- rename(File, File) - 类 中的静态方法org.apache.hadoop.hdfs.server.common.Storage
-
- rename(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- rename(Path, Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- rename(FileSystem, String, String) - 类 中的静态方法org.apache.hadoop.io.MapFile
-
Renames an existing map directory.
- renameFile(String, String) - 类 中的方法org.apache.hadoop.contrib.index.lucene.FileSystemDirectory
-
- renameTo(String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Change the indicated filename.
- renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.Renewer
-
- renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem.TokenManager
-
- renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem.DtRenewer
-
- renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.mapred.JobClient.Renewer
-
- renew(Configuration) - 类 中的方法org.apache.hadoop.security.token.Token
-
Renew this delegation token
- renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.security.token.Token.TrivialRenewer
-
- renew(Token<?>, Configuration) - 类 中的方法org.apache.hadoop.security.token.TokenRenewer
-
Renew the given token.
- renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
已过时。
Use Token.renew instead.
- renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
已过时。
Use Token.renew instead.
- renewDelegationToken(Token<DelegationTokenIdentifier>) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Renew an existing delegation token.
- renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- renewDelegationToken(String, InetSocketAddress, Token<DelegationTokenIdentifier>, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DelegationTokenFetcher
-
Renew a Delegation Token.
- renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Renew a delegation token
- renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
Renew a delegation token to extend its lifetime.
- renewDelegationToken(Token<DelegationTokenIdentifier>) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- RenewDelegationTokenServlet - org.apache.hadoop.hdfs.server.namenode中的类
-
Renew delegation tokens over http for use in hftp.
- RenewDelegationTokenServlet() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.RenewDelegationTokenServlet
-
- RENEWER - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.GetDelegationTokenServlet
-
- RenewerParam - org.apache.hadoop.hdfs.web.resources中的类
-
Renewer parameter.
- RenewerParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.RenewerParam
-
Constructor.
- renewLease(String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Client programs can cause stateful changes in the NameNode
that affect other clients.
- renewLease(String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- renewToken(Token<TokenIdent>, String) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
Renew a delegation token.
- replaceFile(File, File) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Move the src file to the name specified by target.
- replay(X) - 类 中的方法org.apache.hadoop.mapred.join.ArrayListBackedIterator
-
- replay(TupleWritable) - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader.JoinDelegationIterator
-
- replay(V) - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader.MultiFilterDelegationIterator
-
- replay(U) - 类 中的方法org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
-
- replay(T) - 接口 中的方法org.apache.hadoop.mapred.join.ResetableIterator
-
Assign last value returned to actual.
- replay(X) - 类 中的方法org.apache.hadoop.mapred.join.StreamBackedIterator
-
- ReplicationParam - org.apache.hadoop.hdfs.web.resources中的类
-
Replication parameter.
- ReplicationParam(Short) - 类 的构造器org.apache.hadoop.hdfs.web.resources.ReplicationParam
-
Constructor.
- ReplicationParam(String) - 类 的构造器org.apache.hadoop.hdfs.web.resources.ReplicationParam
-
Constructor.
- replthread - 类 中的变量org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- report() - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
-
log the counters
- report() - 类 中的方法org.apache.hadoop.fs.HardLink.LinkStats
-
- report() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
Gives a report on how the FileSystem is doing.
- reportBadBlocks(LocatedBlock[]) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Report corrupt blocks that were discovered by the client.
- reportBadBlocks(LocatedBlock[]) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
The client wants to report corrupted blocks (blocks with specified
locations on datanodes).
- reportBadBlocks(LocatedBlock[]) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
The client has detected an error on the specified located blocks
and is reporting them to the server.
- reportBadBlocks(LocatedBlock[]) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
-
- reportChecksumFailure(Path, FSDataInputStream, long, FSDataInputStream, long) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
Report a checksum error to the file system.
- reportChecksumFailure(Path, FSDataInputStream, long, FSDataInputStream, long) - 类 中的方法org.apache.hadoop.fs.LocalFileSystem
-
Moves files to a bad file directory on the same device, so that their
storage will not be reused.
- reportChecksumFailure(Path, FSDataInputStream, long, FSDataInputStream, long) - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
-
We need to find the blocks that didn't match.
- reportChecksumFailure(Path, FSDataInputStream, long, FSDataInputStream, long) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
We need to find the blocks that didn't match.
- reportCleanupTIPs(boolean) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Return a vector of cleanup TaskInProgress objects
- reportCRCError() - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
-
- reportDiagnosticInfo(TaskAttemptID, String, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
Called when the task dies before completion, and we want to report back
diagnostic info
- reportDiagnosticInfo(TaskAttemptID, String, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
-
Report error messages back to parent.
- reporter - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinMapperBase
-
- reporter - 类 中的变量org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
-
- reporter - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
- Reporter - org.apache.hadoop.mapred中的接口
-
A facility for Map-Reduce applications to report progress and update
counters, status information etc.
- reporter - 类 中的变量org.apache.hadoop.mapred.Task.CombinerRunner
-
- reporter - 类 中的变量org.apache.hadoop.mapreduce.ReduceContext
-
- reportFatalError(TaskAttemptID, Throwable, String) - 类 中的方法org.apache.hadoop.mapred.Task
-
Report a fatal error to the parent (task) tracker.
- reportNextRecordRange(TaskUmbilicalProtocol, long) - 类 中的方法org.apache.hadoop.mapred.Task
-
Reports the next executing record range to TaskTracker.
- reportNextRecordRange(TaskAttemptID, SortedRanges.Range, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- reportNextRecordRange(TaskAttemptID, SortedRanges.Range, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
-
Report the record range which is going to process next by the Task.
- reportSetupTIPs(boolean) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Return a vector of setup TaskInProgress objects
- reportTasksInProgress(boolean, boolean) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Return a vector of completed TaskInProgress objects
- reportTaskTrackerError(String, String, String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- requestAsyncBlockReport() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- requestAsyncBlockReport() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Request that a block report be prepared.
- requiresLayout() - 类 中的方法org.apache.hadoop.log.metrics.EventCounter
-
- reserveSlots(TaskType, JobInProgress, int) - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
-
Reserve specified number of slots for a given job
.
- reserveSpaceWithCheckSum(Path, long) - 类 中的方法org.apache.hadoop.fs.InMemoryFileSystem
-
已过时。
Register a file with its size.
- reserveTaskTracker(TaskTracker, TaskType, int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- reset() - 类 中的方法org.apache.hadoop.contrib.utils.join.ArrayListBackedIterator
-
- reset() - 接口 中的方法org.apache.hadoop.contrib.utils.join.ResetableIterator
-
- reset() - 类 中的方法org.apache.hadoop.fs.FileSystem.Statistics
-
Reset the counts of bytes to 0.
- reset() - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
- reset() - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
-
- reset() - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
- reset() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
-
- reset() - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
-
- reset() - 接口 中的方法org.apache.hadoop.io.compress.Compressor
-
Resets compressor so that a new set of input data can be processed.
- reset() - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
-
Resets decompressor and input and output buffers so that a new set of
input data can be processed.
- reset() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
-
- reset() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Resets compressor so that a new set of input data can be processed.
- reset() - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
-
- reset() - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
-
Resets everything, including the input buffer, regardless of whether the
current gzip substream is finished.
- reset() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
- reset() - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
-
Resets everything including the input buffers (user and direct).
- reset(byte[], int) - 类 中的方法org.apache.hadoop.io.DataInputBuffer
-
Resets the data that the buffer reads.
- reset(byte[], int, int) - 类 中的方法org.apache.hadoop.io.DataInputBuffer
-
Resets the data that the buffer reads.
- reset() - 类 中的方法org.apache.hadoop.io.DataOutputBuffer
-
Resets the buffer to empty.
- reset(byte[], int) - 类 中的方法org.apache.hadoop.io.InputBuffer
-
Resets the data that the buffer reads.
- reset(byte[], int, int) - 类 中的方法org.apache.hadoop.io.InputBuffer
-
Resets the data that the buffer reads.
- reset() - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
Re-positions the reader before its first key.
- reset() - 类 中的方法org.apache.hadoop.io.OutputBuffer
-
Resets the buffer to empty.
- reset() - 类 中的方法org.apache.hadoop.mapred.join.ArrayListBackedIterator
-
- reset() - 类 中的方法org.apache.hadoop.mapred.join.JoinRecordReader.JoinDelegationIterator
-
- reset() - 类 中的方法org.apache.hadoop.mapred.join.MultiFilterRecordReader.MultiFilterDelegationIterator
-
- reset() - 类 中的方法org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
-
- reset() - 接口 中的方法org.apache.hadoop.mapred.join.ResetableIterator
-
Set iterator to return to the start of its range.
- reset() - 类 中的方法org.apache.hadoop.mapred.join.StreamBackedIterator
-
- reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.DoubleValueSum
-
reset the aggregator
- reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMax
-
reset the aggregator
- reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueMin
-
reset the aggregator
- reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.LongValueSum
-
reset the aggregator
- reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMax
-
reset the aggregator
- reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.StringValueMin
-
reset the aggregator
- reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
-
reset the aggregator
- reset() - 接口 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregator
-
reset the aggregator
- reset() - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.ValueHistogram
-
reset the aggregator
- reset(BytesWritable) - 类 中的方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- reset(BytesWritable) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- reset() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat.MinMax
-
- reset(SampleStat.MinMax) - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat.MinMax
-
- reset() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
-
- reset() - 类 中的方法org.apache.hadoop.record.Buffer
-
Reset the buffer to 0 size
- reset() - 类 中的方法org.apache.hadoop.util.DataChecksum
-
- reset() - 类 中的方法org.apache.hadoop.util.PureJavaCrc32
- ResetableIterator - org.apache.hadoop.contrib.utils.join中的接口
-
This defines an iterator interface that will help the reducer class
re-group its input by source tags.
- ResetableIterator<T extends Writable> - org.apache.hadoop.mapred.join中的接口
-
This defines an interface to a stateful Iterator that can replay elements
added to it directly.
- ResetableIterator.EMPTY<U extends Writable> - org.apache.hadoop.mapred.join中的类
-
- ResetableIterator.EMPTY() - 类 的构造器org.apache.hadoop.mapred.join.ResetableIterator.EMPTY
-
- resetAllMinMax() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- resetChecksumChunk(int) - 类 中的方法org.apache.hadoop.fs.FSOutputSummer
-
Resets existing buffer with a new one of the specified size.
- resetMinMax() - 类 中的方法org.apache.hadoop.metrics.util.MetricsTimeVaryingRate
-
已过时。
Reset the min max values
- resetMinMax() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableStat
-
Reset the all time min max of the metric
- resetSchedulingOpportunities() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- resetState() - 类 中的方法org.apache.hadoop.io.compress.BlockDecompressorStream
-
- resetState() - 类 中的方法org.apache.hadoop.io.compress.CompressionInputStream
-
Reset the decompressor to its initial state and discard any buffered data,
as the underlying stream may have been repositioned.
- resetState() - 类 中的方法org.apache.hadoop.io.compress.CompressionOutputStream
-
Reset the compression to the initial state.
- resetState() - 类 中的方法org.apache.hadoop.io.compress.CompressorStream
-
- resetState() - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
-
- resetState() - 类 中的方法org.apache.hadoop.io.compress.GzipCodec.GzipOutputStream
-
- resolve(List<String>) - 类 中的方法org.apache.hadoop.net.CachedDNSToSwitchMapping
-
- resolve(List<String>) - 接口 中的方法org.apache.hadoop.net.DNSToSwitchMapping
-
Resolves a list of DNS-names/IP-addresses and returns back a list of
switch information (network paths).
- resolve(String) - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
Resolves a given identifier.
- resolveAndAddToTopology(String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- resolvedURL - 类 中的变量org.apache.hadoop.hdfs.ByteRangeInputStream
-
- ResourceCalculatorPlugin - org.apache.hadoop.util中的类
-
Plugin to calculate resource information on the system.
- ResourceCalculatorPlugin() - 类 的构造器org.apache.hadoop.util.ResourceCalculatorPlugin
-
- ResourceCalculatorPlugin.ProcResourceValues - org.apache.hadoop.util中的类
-
- ResourceCalculatorPlugin.ProcResourceValues(long, long, long) - 类 的构造器org.apache.hadoop.util.ResourceCalculatorPlugin.ProcResourceValues
-
- ResourceUsageMetrics - org.apache.hadoop.tools.rumen中的类
-
Captures the resource usage metrics.
- ResourceUsageMetrics() - 类 的构造器org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
- restartReplicationWork() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- resume() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
resume the suspended thread
- resume() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
resume the suspended thread
- RetouchedBloomFilter - org.apache.hadoop.util.bloom中的类
-
Implements a retouched Bloom filter, as defined in the CoNEXT 2006 paper.
- RetouchedBloomFilter() - 类 的构造器org.apache.hadoop.util.bloom.RetouchedBloomFilter
-
Default constructor - use with readFields
- RetouchedBloomFilter(int, int, int) - 类 的构造器org.apache.hadoop.util.bloom.RetouchedBloomFilter
-
Constructor
- RetriableCommand - org.apache.hadoop.tools.distcp2.util中的类
-
This class represents commands that be retried on failure, in a configurable
manner.
- RetriableCommand(String) - 类 的构造器org.apache.hadoop.tools.distcp2.util.RetriableCommand
-
Constructor.
- RetriableCommand(String, RetryPolicy) - 类 的构造器org.apache.hadoop.tools.distcp2.util.RetriableCommand
-
Constructor.
- RetriableDirectoryCreateCommand - org.apache.hadoop.tools.distcp2.mapred中的类
-
This class extends Retriable command to implement the creation of directories
with retries on failure.
- RetriableDirectoryCreateCommand(String) - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.RetriableDirectoryCreateCommand
-
Constructor, taking a description of the action.
- RetriableFileCopyCommand - org.apache.hadoop.tools.distcp2.mapred中的类
-
This class extends RetriableCommand to implement the copy of files,
with retries on failure.
- RetriableFileCopyCommand(String) - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.RetriableFileCopyCommand
-
Constructor, taking a description of the action.
- RetriableFileCopyCommand(boolean, String) - 类 的构造器org.apache.hadoop.tools.distcp2.mapred.RetriableFileCopyCommand
-
Create a RetriableFileCopyCommand.
- RetriableFileCopyCommand.CopyReadException - org.apache.hadoop.tools.distcp2.mapred中的异常错误
-
Special subclass of IOException.
- RetriableFileCopyCommand.CopyReadException(Throwable) - 异常错误 的构造器org.apache.hadoop.tools.distcp2.mapred.RetriableFileCopyCommand.CopyReadException
-
- retrieveAsyncBlockReport() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- retrieveAsyncBlockReport() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Retrieve an asynchronously prepared block report.
- retrieveBlock(Block, long) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
-
- retrieveINode(Path) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
-
- retrievePassword(BlockTokenIdentifier) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
-
Look up the token password/secret for the given block token identifier.
- retrievePassword(JobTokenIdentifier) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
-
Look up the token password/secret for the given job token identifier.
- retrievePassword(TokenIdent) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
- retrievePassword(T) - 类 中的方法org.apache.hadoop.security.token.SecretManager
-
Retrieve the password for the given token identifier.
- retrieveTokenSecret(String) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenSecretManager
-
Look up the token password/secret for the given jobId.
- RETRY_FOREVER - 类 中的静态变量org.apache.hadoop.io.retry.RetryPolicies
-
Keep trying forever.
- retryByException(RetryPolicy, Map<Class<? extends Exception>, RetryPolicy>) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies
-
Set a default policy with some explicit handlers for specific exceptions.
- retryByRemoteException(RetryPolicy, Map<Class<? extends Exception>, RetryPolicy>) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies
-
A retry policy for RemoteException
Set a default policy with some explicit handlers for specific exceptions.
- RetryPolicies - org.apache.hadoop.io.retry中的类
-
- RetryPolicies() - 类 的构造器org.apache.hadoop.io.retry.RetryPolicies
-
- RetryPolicies.MultipleLinearRandomRetry - org.apache.hadoop.io.retry中的类
-
Given pairs of number of retries and sleep time (n0, t0), (n1, t1), ...,
the first n0 retries sleep t0 milliseconds on average,
the following n1 retries sleep t1 milliseconds on average, and so on.
- RetryPolicies.MultipleLinearRandomRetry(List<RetryPolicies.MultipleLinearRandomRetry.Pair>) - 类 的构造器org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry
-
- RetryPolicies.MultipleLinearRandomRetry.Pair - org.apache.hadoop.io.retry中的类
-
Pairs of numRetries and sleepSeconds
- RetryPolicies.MultipleLinearRandomRetry.Pair(int, int) - 类 的构造器org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry.Pair
-
- RetryPolicy - org.apache.hadoop.io.retry中的接口
-
Specifies a policy for retrying method failures.
- RetryProxy - org.apache.hadoop.io.retry中的类
-
A factory for creating retry proxies.
- RetryProxy() - 类 的构造器org.apache.hadoop.io.retry.RetryProxy
-
- retryUpToMaximumCountWithFixedSleep(int, long, TimeUnit) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies
-
Keep trying a limited number of times, waiting a fixed time between attempts,
and then fail by re-throwing the exception.
- retryUpToMaximumCountWithProportionalSleep(int, long, TimeUnit) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies
-
Keep trying a limited number of times, waiting a growing amount of time between attempts,
and then fail by re-throwing the exception.
- retryUpToMaximumTimeWithFixedSleep(long, long, TimeUnit) - 类 中的静态方法org.apache.hadoop.io.retry.RetryPolicies
-
Keep trying for a maximum time, waiting a fixed time between attempts,
and then fail by re-throwing the exception.
- RetryUtils - org.apache.hadoop.io.retry中的类
-
- RetryUtils() - 类 的构造器org.apache.hadoop.io.retry.RetryUtils
-
- returnCompressor(Compressor) - 类 中的静态方法org.apache.hadoop.io.compress.CodecPool
-
- returnDecompressor(Decompressor) - 类 中的静态方法org.apache.hadoop.io.compress.CodecPool
-
- reverseDns(InetAddress, String) - 类 中的静态方法org.apache.hadoop.net.DNS
-
Returns the hostname associated with the specified IP address by the
provided nameserver.
- rewind() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
-
Rewind to the first entry in the scanner.
- rewind() - 类 中的方法org.apache.hadoop.tools.rumen.RewindableInputStream
-
- RewindableInputStream - org.apache.hadoop.tools.rumen中的类
-
A simple wrapper class to make any input stream "rewindable".
- RewindableInputStream(InputStream) - 类 的构造器org.apache.hadoop.tools.rumen.RewindableInputStream
-
Constructor.
- RewindableInputStream(InputStream, int) - 类 的构造器org.apache.hadoop.tools.rumen.RewindableInputStream
-
Constructor
- RIO_PREFIX - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
-
- rjustify(String, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- rNodeMap - 类 中的变量org.apache.hadoop.tools.rumen.AbstractClusterStory
-
- rNums - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
-
This array really shouldn't be here.
- rollEditLog() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Roll the edit log.
- rollEditLog() - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.NamenodeProtocol
-
Closes the current edit log and opens a new one.
- rollFsImage() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Roll the image
- rollFsImage() - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.NamenodeProtocol
-
Rolls the fsImage log.
- ROOT - 类 中的静态变量org.apache.hadoop.net.NodeBase
-
- RoundRobinDistributionPolicy - org.apache.hadoop.contrib.index.example中的类
-
Choose a shard for each insert in a round-robin fashion.
- RoundRobinDistributionPolicy() - 类 的构造器org.apache.hadoop.contrib.index.example.RoundRobinDistributionPolicy
-
- RPC - org.apache.hadoop.ipc中的类
-
A simple RPC mechanism.
- RPC.Server - org.apache.hadoop.ipc中的类
-
An RPC Server.
- RPC.Server(Object, Configuration, String, int) - 类 的构造器org.apache.hadoop.ipc.RPC.Server
-
Construct an RPC server.
- RPC.Server(Object, Configuration, String, int, int, boolean, SecretManager<? extends TokenIdentifier>) - 类 的构造器org.apache.hadoop.ipc.RPC.Server
-
Construct an RPC server.
- RPC.VersionMismatch - org.apache.hadoop.ipc中的异常错误
-
A version mismatch for the RPC protocol.
- RPC.VersionMismatch(String, long, long) - 异常错误 的构造器org.apache.hadoop.ipc.RPC.VersionMismatch
-
Create a version mismatch exception
- RpcInstrumentation - org.apache.hadoop.ipc.metrics中的类
-
The RPC metrics instrumentation
- RpcInstrumentation.Detailed - org.apache.hadoop.ipc.metrics中的类
-
Use a separate source for detailed (per call) RPC metrics for
easy and efficient filtering
- rpcMetrics - 类 中的变量org.apache.hadoop.ipc.Server
-
- rrClass - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
- rrClass - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
- rrConstructor - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
- rrConstructor - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
- rrCstrMap - 类 中的静态变量org.apache.hadoop.mapred.join.Parser.Node
-
- RTI_FILTER - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
-
- RTI_FILTER_FIELDS - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
-
- RTI_VAR - 类 中的静态变量org.apache.hadoop.record.compiler.Consts
-
- run(Configuration, Path[], Path, int, Shard[]) - 接口 中的方法org.apache.hadoop.contrib.index.mapred.IIndexUpdater
-
Create a Map/Reduce job configuration and run the Map/Reduce job to
analyze documents and update Lucene instances in parallel.
- run(Configuration, Path[], Path, int, Shard[]) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdater
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.dancing.DistributedPentomino
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.DBCountPageView
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.Grep
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.Join
-
The main driver for sort program.
- run(String[]) - 类 中的方法org.apache.hadoop.examples.MultiFileWordCount
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.PiEstimator
-
Parse arguments and then runs a map/reduce job.
- run(String[]) - 类 中的方法org.apache.hadoop.examples.RandomTextWriter
-
This is the main routine for launching a distributed random write job.
- run(String[]) - 类 中的方法org.apache.hadoop.examples.RandomWriter
-
This is the main routine for launching a distributed random write job.
- run(int, int, long, int, long, int) - 类 中的方法org.apache.hadoop.examples.SleepJob
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.SleepJob
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.Sort
-
The main driver for sort program.
- run(String[]) - 类 中的方法org.apache.hadoop.examples.terasort.TeraGen
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.terasort.TeraSort
-
- run(String[]) - 类 中的方法org.apache.hadoop.examples.terasort.TeraValidate
-
- run() - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager.CleanupThread
-
- run(String[]) - 类 中的方法org.apache.hadoop.fs.FsShell
-
run
- run(String[]) - 类 中的方法org.apache.hadoop.fs.s3.MigrationTool
-
- run(Path) - 类 中的方法org.apache.hadoop.fs.shell.Command
-
Execute the command on the input path
- run(Path) - 类 中的方法org.apache.hadoop.fs.shell.Count
-
- run() - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenRenewer
-
- run(String[]) - 类 中的方法org.apache.hadoop.hdfs.server.balancer.Balancer
-
main method of Balancer
- run() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
No matter what kind of exception we get, keep retrying to offerService().
- run() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.UpgradeObjectDatanode
-
- run() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
-
- run(String[]) - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
- run(String[]) - 类 中的方法org.apache.hadoop.hdfs.tools.DFSck
-
- run() - 类 中的方法org.apache.hadoop.mapred.HDFSMonitorThread
-
- run(String[]) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
- run() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
The main loop for the thread.
- run() - 类 中的方法org.apache.hadoop.mapred.JobHistory.HistoryCleaner
-
Cleans up history data.
- run(String[]) - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler
-
Driver for InputSampler from the command line.
- run(RecordReader<K1, V1>, OutputCollector<K2, V2>, Reporter) - 类 中的方法org.apache.hadoop.mapred.lib.MultithreadedMapRunner
-
- run(RecordReader<K1, V1>, OutputCollector<K2, V2>, Reporter) - 接口 中的方法org.apache.hadoop.mapred.MapRunnable
-
Start mapping input <key, value> pairs.
- run(RecordReader<K1, V1>, OutputCollector<K2, V2>, Reporter) - 类 中的方法org.apache.hadoop.mapred.MapRunner
-
- run(String[]) - 类 中的方法org.apache.hadoop.mapred.pipes.Submitter
-
- run(JobConf, TaskUmbilicalProtocol) - 类 中的方法org.apache.hadoop.mapred.Task
-
Run this task as a part of the named job.
- run() - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
The communication thread handles communication with the parent (Task Tracker).
- run() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
The server retry loop.
- run(String[]) - 类 中的方法org.apache.hadoop.mapred.tools.MRAdmin
-
- run() - 类 中的方法org.apache.hadoop.mapred.UserLogCleaner
-
- run(Mapper<K1, V1, K2, V2>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingMapper
-
- run() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
The main loop for the thread.
- run(Mapper<K1, V1, K2, V2>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.map.MultithreadedMapper
-
Run the application's maps using a thread pool.
- run(String[]) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.InputSampler
-
Driver for InputSampler from the command line.
- run(Mapper<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Mapper
-
Expert users can override this method for more complete control over the
execution of the Mapper.
- run(Reducer<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Reducer
-
- run(String[]) - 类 中的方法org.apache.hadoop.streaming.DumpTypedBytes
-
The main driver for DumpTypedBytes
.
- run(String[]) - 类 中的方法org.apache.hadoop.streaming.LoadTypedBytes
-
The main driver for LoadTypedBytes
.
- run(RecordReader<K1, V1>, OutputCollector<K2, V2>, Reporter) - 类 中的方法org.apache.hadoop.streaming.PipeMapRunner
-
- run(String[]) - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- run(String[]) - 类 中的方法org.apache.hadoop.tools.DistCh
-
This is the main driver for recursively changing files properties.
- run(String[]) - 类 中的方法org.apache.hadoop.tools.DistCp
-
This is the main driver for recursively copying directories
across file systems.
- run(String[]) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCp
-
Implementation of Tool::run().
- run(String[]) - 类 中的方法org.apache.hadoop.tools.HadoopArchives
-
the main driver for creating the archives
it takes at least three command line parameters.
- run(String[]) - 类 中的方法org.apache.hadoop.tools.rumen.HadoopLogsAnalyzer
-
已过时。
- run(String[]) - 类 中的方法org.apache.hadoop.tools.rumen.TraceBuilder
-
- run() - 类 中的方法org.apache.hadoop.util.Shell
-
check to see if a command needs to be executed and execute if needed
- run(String[]) - 接口 中的方法org.apache.hadoop.util.Tool
-
Execute the command with the given arguments.
- run(Configuration, Tool, String[]) - 类 中的静态方法org.apache.hadoop.util.ToolRunner
-
Runs the given
Tool
by
Tool.run(String[])
, after
parsing with the given generic arguments.
- run(Tool, String[]) - 类 中的静态方法org.apache.hadoop.util.ToolRunner
-
Runs the Tool
with its Configuration
.
- RUNA - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
-
- runAll() - 类 中的方法org.apache.hadoop.fs.shell.Command
-
For each source path, execute the command
- RUNB - 接口 中的静态变量org.apache.hadoop.io.compress.bzip2.BZip2Constants
-
- runDatanodeDaemon(DataNode) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Start a single datanode daemon and wait for it to finish.
- RunJar - org.apache.hadoop.util中的类
-
Run a Hadoop job jar.
- RunJar() - 类 的构造器org.apache.hadoop.util.RunJar
-
- runJob(JobConf) - 类 中的静态方法org.apache.hadoop.contrib.utils.join.DataJoinJob
-
Submit/run a map/reduce job.
- runJob(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.JobClient
-
Utility that submits a job, then polls for progress until the job is
complete.
- runJob(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Submit a job to the map/reduce cluster.
- runJobCleanupTask(TaskUmbilicalProtocol, Task.TaskReporter) - 类 中的方法org.apache.hadoop.mapred.Task
-
- runJobSetupTask(TaskUmbilicalProtocol, Task.TaskReporter) - 类 中的方法org.apache.hadoop.mapred.Task
-
- RUNNING - 类 中的静态变量org.apache.hadoop.mapred.jobcontrol.Job
-
- RUNNING - 类 中的静态变量org.apache.hadoop.mapred.JobStatus
-
- running - 类 中的变量org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
- running_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- RunningJob - org.apache.hadoop.mapred中的接口
-
RunningJob
is the user-interface to query for details on a
running Map-Reduce job.
- runningJobs() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- runningMaps() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- runningReduces() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- runSetup(String, String, Path, TaskUmbilicalProtocol) - 类 中的方法org.apache.hadoop.mapred.JobLocalizer
-
- runTaskCleanupTask(TaskUmbilicalProtocol, Task.TaskReporter) - 类 中的方法org.apache.hadoop.mapred.Task
-
- S3Credentials - org.apache.hadoop.fs.s3中的类
-
Extracts AWS credentials from the filesystem URI or configuration.
- S3Credentials() - 类 的构造器org.apache.hadoop.fs.s3.S3Credentials
-
- S3Exception - org.apache.hadoop.fs.s3中的异常错误
-
Thrown if there is a problem communicating with Amazon S3.
- S3Exception(Throwable) - 异常错误 的构造器org.apache.hadoop.fs.s3.S3Exception
-
- S3FileSystem - org.apache.hadoop.fs.s3中的类
-
- S3FileSystem() - 类 的构造器org.apache.hadoop.fs.s3.S3FileSystem
-
- S3FileSystem(FileSystemStore) - 类 的构造器org.apache.hadoop.fs.s3.S3FileSystem
-
- S3FileSystemException - org.apache.hadoop.fs.s3中的异常错误
-
Thrown when there is a fatal exception while using
S3FileSystem
.
- S3FileSystemException(String) - 异常错误 的构造器org.apache.hadoop.fs.s3.S3FileSystemException
-
- S_IFBLK - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IFCHR - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IFDIR - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IFIFO - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IFLNK - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IFMT - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IFREG - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IFSOCK - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IFWHT - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IRUSR - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_ISGID - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_ISUID - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_ISVTX - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IWUSR - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- S_IXUSR - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO.Stat
-
- safeGetCanonicalPath(File) - 类 中的静态方法org.apache.hadoop.streaming.StreamUtil
-
- SafeModeException - org.apache.hadoop.hdfs.server.namenode中的异常错误
-
This exception is thrown when the name node is in safe mode.
- SafeModeException(String, FSNamesystem.SafeModeInfo) - 异常错误 的构造器org.apache.hadoop.hdfs.server.namenode.SafeModeException
-
- SafeModeException - org.apache.hadoop.mapred中的异常错误
-
This exception is thrown when the JobTracker is in safe mode.
- SafeModeException(String) - 异常错误 的构造器org.apache.hadoop.mapred.SafeModeException
-
SafeModeException
- SampleStat - org.apache.hadoop.metrics2.util中的类
-
Helper to compute running sample stats
- SampleStat() - 类 的构造器org.apache.hadoop.metrics2.util.SampleStat
-
Construct a new running sample stat
- SampleStat.MinMax - org.apache.hadoop.metrics2.util中的类
-
Helper to keep running min/max
- SampleStat.MinMax() - 类 的构造器org.apache.hadoop.metrics2.util.SampleStat.MinMax
-
- SASL_DEFAULT_REALM - 类 中的静态变量org.apache.hadoop.security.SaslRpcServer
-
- SASL_PROPS - 类 中的静态变量org.apache.hadoop.security.SaslRpcServer
-
- saslConnect(InputStream, OutputStream) - 类 中的方法org.apache.hadoop.security.SaslRpcClient
-
Do client side SASL authentication with server via the given InputStream
and OutputStream
- SaslInputStream - org.apache.hadoop.security中的类
-
A SaslInputStream is composed of an InputStream and a SaslServer (or
SaslClient) so that read() methods return data that are read in from the
underlying InputStream but have been additionally processed by the SaslServer
(or SaslClient) object.
- SaslInputStream(InputStream, SaslServer) - 类 的构造器org.apache.hadoop.security.SaslInputStream
-
Constructs a SASLInputStream from an InputStream and a SaslServer
Note: if the specified InputStream or SaslServer is null, a
NullPointerException may be thrown later when they are used.
- SaslInputStream(InputStream, SaslClient) - 类 的构造器org.apache.hadoop.security.SaslInputStream
-
Constructs a SASLInputStream from an InputStream and a SaslClient
Note: if the specified InputStream or SaslClient is null, a
NullPointerException may be thrown later when they are used.
- SaslOutputStream - org.apache.hadoop.security中的类
-
A SaslOutputStream is composed of an OutputStream and a SaslServer (or
SaslClient) so that write() methods first process the data before writing
them out to the underlying OutputStream.
- SaslOutputStream(OutputStream, SaslServer) - 类 的构造器org.apache.hadoop.security.SaslOutputStream
-
Constructs a SASLOutputStream from an OutputStream and a SaslServer
Note: if the specified OutputStream or SaslServer is null, a
NullPointerException may be thrown later when they are used.
- SaslOutputStream(OutputStream, SaslClient) - 类 的构造器org.apache.hadoop.security.SaslOutputStream
-
Constructs a SASLOutputStream from an OutputStream and a SaslClient
Note: if the specified OutputStream or SaslClient is null, a
NullPointerException may be thrown later when they are used.
- saslQop - 枚举 中的变量org.apache.hadoop.security.SaslRpcServer.QualityOfProtection
-
- SaslRpcClient - org.apache.hadoop.security中的类
-
A utility class that encapsulates SASL logic for RPC client
- SaslRpcClient(SaslRpcServer.AuthMethod, Token<? extends TokenIdentifier>, String, boolean) - 类 的构造器org.apache.hadoop.security.SaslRpcClient
-
Create a SaslRpcClient for an authentication method
- SaslRpcServer - org.apache.hadoop.security中的类
-
A utility class for dealing with SASL on RPC server
- SaslRpcServer() - 类 的构造器org.apache.hadoop.security.SaslRpcServer
-
- SaslRpcServer.AuthMethod - org.apache.hadoop.security中的枚举
-
Authentication method
- SaslRpcServer.QualityOfProtection - org.apache.hadoop.security中的枚举
-
- SaslRpcServer.SaslDigestCallbackHandler - org.apache.hadoop.security中的类
-
CallbackHandler for SASL DIGEST-MD5 mechanism
- SaslRpcServer.SaslDigestCallbackHandler(SecretManager<TokenIdentifier>, Server.Connection) - 类 的构造器org.apache.hadoop.security.SaslRpcServer.SaslDigestCallbackHandler
-
- SaslRpcServer.SaslGssCallbackHandler - org.apache.hadoop.security中的类
-
CallbackHandler for SASL GSSAPI Kerberos mechanism
- SaslRpcServer.SaslGssCallbackHandler() - 类 的构造器org.apache.hadoop.security.SaslRpcServer.SaslGssCallbackHandler
-
- SaslRpcServer.SaslStatus - org.apache.hadoop.security中的枚举
-
- saveCurrent(Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
Save current image and empty journal into current
directory.
- saveNamespace() - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Save namespace image.
- saveNamespace() - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Save namespace image.
- saveNamespace() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- saveNamespace() - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
Command to ask the namenode to save the namespace.
- saveSecretManagerState(DataOutputStream) - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSecretManager
-
Store the current state of the SecretManager for persistence
- scheduleBlockReport(long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
This methods arranges for the data node to send the block report at the next heartbeat.
- scheduleMap(TaskInProgress) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Adds a map tip to the list of running maps.
- scheduleOffSwitch(int) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Check if we can schedule an off-switch task for this job.
- scheduleReduce(TaskInProgress) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
Adds a reduce tip to the list of running reduces
- scheduleReduces() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- schedulingOpportunity() - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- SCHEME - 类 中的静态变量org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
File System URI: {SCHEME}://namenode:port/path/to/file
- SCHEME - 类 中的静态变量org.apache.hadoop.mapreduce.security.token.DelegationTokenRenewal
-
- ScriptBasedMapping - org.apache.hadoop.net中的类
-
This class implements the
DNSToSwitchMapping
interface using a
script configured via topology.script.file.name .
- ScriptBasedMapping() - 类 的构造器org.apache.hadoop.net.ScriptBasedMapping
-
- ScriptBasedMapping(Configuration) - 类 的构造器org.apache.hadoop.net.ScriptBasedMapping
-
- SecondaryNameNode - org.apache.hadoop.hdfs.server.namenode中的类
-
The Secondary NameNode is a helper to the primary NameNode.
- SecondaryNameNode(Configuration) - 类 的构造器org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
-
Create a connection to the primary namenode.
- SecondarySort - org.apache.hadoop.examples中的类
-
This is an example Hadoop Map/Reduce application.
- SecondarySort() - 类 的构造器org.apache.hadoop.examples.SecondarySort
-
- SecondarySort.FirstGroupingComparator - org.apache.hadoop.examples中的类
-
Compare only the first part of the pair, so that reduce is called once
for each value of the first part.
- SecondarySort.FirstGroupingComparator() - 类 的构造器org.apache.hadoop.examples.SecondarySort.FirstGroupingComparator
-
- SecondarySort.FirstPartitioner - org.apache.hadoop.examples中的类
-
Partition based on the first part of the pair.
- SecondarySort.FirstPartitioner() - 类 的构造器org.apache.hadoop.examples.SecondarySort.FirstPartitioner
-
- SecondarySort.IntPair - org.apache.hadoop.examples中的类
-
Define a pair of integers that are writable.
- SecondarySort.IntPair() - 类 的构造器org.apache.hadoop.examples.SecondarySort.IntPair
-
- SecondarySort.IntPair.Comparator - org.apache.hadoop.examples中的类
-
A Comparator that compares serialized IntPair.
- SecondarySort.IntPair.Comparator() - 类 的构造器org.apache.hadoop.examples.SecondarySort.IntPair.Comparator
-
- SecondarySort.MapClass - org.apache.hadoop.examples中的类
-
Read two integers from each line and generate a key, value pair
as ((left, right), right).
- SecondarySort.MapClass() - 类 的构造器org.apache.hadoop.examples.SecondarySort.MapClass
-
- SecondarySort.Reduce - org.apache.hadoop.examples中的类
-
A reducer class that just emits the sum of the input values.
- SecondarySort.Reduce() - 类 的构造器org.apache.hadoop.examples.SecondarySort.Reduce
-
- SecretManager<T extends TokenIdentifier> - org.apache.hadoop.security.token中的类
-
The server-side secret manager for each token type.
- SecretManager() - 类 的构造器org.apache.hadoop.security.token.SecretManager
-
- SecretManager.InvalidToken - org.apache.hadoop.security.token中的异常错误
-
The token was invalid and the message explains why.
- SecretManager.InvalidToken(String) - 异常错误 的构造器org.apache.hadoop.security.token.SecretManager.InvalidToken
-
- SecureDataNodeStarter - org.apache.hadoop.hdfs.server.datanode中的类
-
Utility class to start a datanode in a secure cluster, first obtaining
privileged resources before main startup and handing them to the datanode.
- SecureDataNodeStarter() - 类 的构造器org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter
-
- SecureDataNodeStarter.SecureResources - org.apache.hadoop.hdfs.server.datanode中的类
-
Stash necessary resources needed for datanode operation in a secure env.
- SecureDataNodeStarter.SecureResources(ServerSocket, SelectChannelConnector) - 类 的构造器org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter.SecureResources
-
- SecureIOUtils - org.apache.hadoop.io中的类
-
This class provides secure APIs for opening and creating files on the local
disk.
- SecureIOUtils() - 类 的构造器org.apache.hadoop.io.SecureIOUtils
-
- SecureIOUtils.AlreadyExistsException - org.apache.hadoop.io中的异常错误
-
Signals that an attempt to create a file at a given pathname has failed
because another file already existed at that path.
- SecureIOUtils.AlreadyExistsException(String) - 异常错误 的构造器org.apache.hadoop.io.SecureIOUtils.AlreadyExistsException
-
- SecureIOUtils.AlreadyExistsException(Throwable) - 异常错误 的构造器org.apache.hadoop.io.SecureIOUtils.AlreadyExistsException
-
- secureMain(String[], SecureDataNodeStarter.SecureResources) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- SecureShuffleUtils - org.apache.hadoop.mapreduce.security中的类
-
utilities for generating kyes, hashes and verifying them for shuffle
- SecureShuffleUtils() - 类 的构造器org.apache.hadoop.mapreduce.security.SecureShuffleUtils
-
- SecurityUtil - org.apache.hadoop.security中的类
-
- SecurityUtil() - 类 的构造器org.apache.hadoop.security.SecurityUtil
-
- SecurityUtil.QualifiedHostResolver - org.apache.hadoop.security中的类
-
This an alternate resolver with important properties that the standard
java resolver lacks:
1) The hostname is fully qualified.
- SecurityUtil.QualifiedHostResolver() - 类 的构造器org.apache.hadoop.security.SecurityUtil.QualifiedHostResolver
-
- seek(long) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
-
- seek(long) - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
-
- seek(long) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
Seek to the given position in the stream.
- seek(long) - 类 中的方法org.apache.hadoop.fs.FSInputStream
-
Seek to the given offset from the start of the file.
- seek(long) - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
-
- seek(long) - 接口 中的方法org.apache.hadoop.fs.Seekable
-
Seek to the given offset from the start of the file.
- seek(long) - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
-
Seek to the given offset from the start of the file.
- seek(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
Seek to a new arbitrary location
- seek(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
- seek(long) - 类 中的方法org.apache.hadoop.io.ArrayFile.Reader
-
Positions the reader before its n
th value.
- seek(long) - 类 中的方法org.apache.hadoop.io.compress.CompressionInputStream
-
This method is current not supported.
- seek(WritableComparable) - 类 中的方法org.apache.hadoop.io.MapFile.Reader
-
Positions the reader at the named key, or if none such exists, at the
first entry after the named key.
- seek(long) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Set the current byte position in the input file.
- seek(WritableComparable) - 类 中的方法org.apache.hadoop.io.SetFile.Reader
-
- seek(long) - 类 中的方法org.apache.hadoop.mapred.SequenceFileRecordReader
-
- Seekable - org.apache.hadoop.fs中的接口
-
Stream that permits seeking.
- seekNextRecordBoundary() - 类 中的方法org.apache.hadoop.streaming.StreamBaseRecordReader
-
Implementation should seek forward in_ to the first byte of the next record.
- seekNextRecordBoundary() - 类 中的方法org.apache.hadoop.streaming.StreamXmlRecordReader
-
- seekTo(byte[]) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
-
Move the cursor to the first entry whose key is greater than or equal
to the input key.
- seekTo(byte[], int, int) - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
-
Move the cursor to the first entry whose key is greater than or equal
to the input key.
- seekToEnd() - 类 中的方法org.apache.hadoop.io.file.tfile.TFile.Reader.Scanner
-
Seek to the end of the scanner.
- seekToNewSource(long) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
-
- seekToNewSource(long) - 类 中的方法org.apache.hadoop.fs.FSDataInputStream
-
- seekToNewSource(long) - 类 中的方法org.apache.hadoop.fs.FSInputStream
-
Seeks a different copy of the data.
- seekToNewSource(long) - 类 中的方法org.apache.hadoop.fs.ftp.FTPInputStream
-
- seekToNewSource(long) - 接口 中的方法org.apache.hadoop.fs.Seekable
-
Seeks a different copy of the data.
- seekToNewSource(long) - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream
-
Seeks a different copy of the data.
- seekToNewSource(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
Seek to given position on a node other than the current node.
- seekToNewSource(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
- seekToNewSource(long) - 类 中的方法org.apache.hadoop.io.compress.CompressionInputStream
-
This method is current not supported.
- seenPrimary_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- selectHdfsDelegationToken() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- selectHdfsDelegationToken(InetSocketAddress, UserGroupInformation, Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenSelector
-
Select the delegation token for hdfs from the ugi.
- selectHftpDelegationToken() - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- selectHftpDelegationToken() - 类 中的方法org.apache.hadoop.hdfs.HsftpFileSystem
-
- selectiveClearing(Key, short) - 类 中的方法org.apache.hadoop.util.bloom.RetouchedBloomFilter
-
Performs the selective clearing for a given key.
- selectToken(Text, Collection<Token<? extends TokenIdentifier>>) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSelector
-
- selectToken(Text, Collection<Token<? extends TokenIdentifier>>) - 类 中的方法org.apache.hadoop.mapreduce.security.token.JobTokenSelector
-
- selectToken(Text, Collection<Token<? extends TokenIdentifier>>) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSelector
-
- selectToken(Text, Collection<Token<? extends TokenIdentifier>>) - 接口 中的方法org.apache.hadoop.security.token.TokenSelector
-
- SEMICOLON_TKN - 接口 中的静态变量org.apache.hadoop.record.compiler.generated.RccConstants
-
- sendHeartbeat(DatanodeRegistration, long, long, long, int, int) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Data node notify the name node that it is alive
Return an array of block-oriented commands for the datanode to execute.
- sendHeartbeat(DatanodeRegistration, long, long, long, int, int) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeProtocol
-
sendHeartbeat() tells the NameNode that the DataNode is still
alive and well.
- SEPARATOR - 类 中的静态变量org.apache.hadoop.fs.Path
-
The directory separator, a slash.
- SEPARATOR - 类 中的静态变量org.apache.hadoop.mapreduce.ID
-
- SEPARATOR_CHAR - 类 中的静态变量org.apache.hadoop.fs.Path
-
- SequenceFile - org.apache.hadoop.io中的类
-
SequenceFile
s are flat files consisting of binary key/value
pairs.
- SequenceFile.CompressionType - org.apache.hadoop.io中的枚举
-
The compression type used to compress key/value pairs in the
SequenceFile
.
- SequenceFile.Metadata - org.apache.hadoop.io中的类
-
The class encapsulating with the metadata of a file.
- SequenceFile.Metadata() - 类 的构造器org.apache.hadoop.io.SequenceFile.Metadata
-
- SequenceFile.Metadata(TreeMap<Text, Text>) - 类 的构造器org.apache.hadoop.io.SequenceFile.Metadata
-
- SequenceFile.Reader - org.apache.hadoop.io中的类
-
Reads key/value pairs from a sequence-format file.
- SequenceFile.Reader(FileSystem, Path, Configuration) - 类 的构造器org.apache.hadoop.io.SequenceFile.Reader
-
Open the named file.
- SequenceFile.Sorter - org.apache.hadoop.io中的类
-
Sorts key/value pairs in a sequence-format file.
- SequenceFile.Sorter(FileSystem, Class<? extends WritableComparable>, Class, Configuration) - 类 的构造器org.apache.hadoop.io.SequenceFile.Sorter
-
Sort and merge files containing the named classes.
- SequenceFile.Sorter(FileSystem, RawComparator, Class, Class, Configuration) - 类 的构造器org.apache.hadoop.io.SequenceFile.Sorter
-
- SequenceFile.Sorter.RawKeyValueIterator - org.apache.hadoop.io中的接口
-
The interface to iterate over raw keys/values of SequenceFiles.
- SequenceFile.Sorter.SegmentDescriptor - org.apache.hadoop.io中的类
-
This class defines a merge segment.
- SequenceFile.Sorter.SegmentDescriptor(long, long, Path) - 类 的构造器org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
-
Constructs a segment
- SequenceFile.ValueBytes - org.apache.hadoop.io中的接口
-
The interface to 'raw' values of SequenceFiles.
- SequenceFile.Writer - org.apache.hadoop.io中的类
-
Write key/value pairs to a sequence-format file.
- SequenceFile.Writer(FileSystem, Configuration, Path, Class, Class) - 类 的构造器org.apache.hadoop.io.SequenceFile.Writer
-
Create the named file.
- SequenceFile.Writer(FileSystem, Configuration, Path, Class, Class, Progressable, SequenceFile.Metadata) - 类 的构造器org.apache.hadoop.io.SequenceFile.Writer
-
Create the named file with write-progress reporter.
- SequenceFile.Writer(FileSystem, Configuration, Path, Class, Class, int, short, long, Progressable, SequenceFile.Metadata) - 类 的构造器org.apache.hadoop.io.SequenceFile.Writer
-
Create the named file with write-progress reporter.
- SequenceFileAsBinaryInputFormat - org.apache.hadoop.mapred中的类
-
InputFormat reading keys, values from SequenceFiles in binary (raw)
format.
- SequenceFileAsBinaryInputFormat() - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat
-
- SequenceFileAsBinaryInputFormat - org.apache.hadoop.mapreduce.lib.input中的类
-
InputFormat reading keys, values from SequenceFiles in binary (raw)
format.
- SequenceFileAsBinaryInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat
-
- SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader - org.apache.hadoop.mapred中的类
-
Read records from a SequenceFile as binary (raw) bytes.
- SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader(Configuration, FileSplit) - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
- SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader - org.apache.hadoop.mapreduce.lib.input中的类
-
Read records from a SequenceFile as binary (raw) bytes.
- SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileAsBinaryInputFormat.SequenceFileAsBinaryRecordReader
-
- SequenceFileAsBinaryOutputFormat - org.apache.hadoop.mapred中的类
-
- SequenceFileAsBinaryOutputFormat() - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
-
- SequenceFileAsBinaryOutputFormat - org.apache.hadoop.mapreduce.lib.output中的类
-
- SequenceFileAsBinaryOutputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
-
- SequenceFileAsBinaryOutputFormat.WritableValueBytes - org.apache.hadoop.mapred中的类
-
Inner class used for appendRaw
- SequenceFileAsBinaryOutputFormat.WritableValueBytes() - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- SequenceFileAsBinaryOutputFormat.WritableValueBytes(BytesWritable) - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- SequenceFileAsBinaryOutputFormat.WritableValueBytes - org.apache.hadoop.mapreduce.lib.output中的类
-
Inner class used for appendRaw
- SequenceFileAsBinaryOutputFormat.WritableValueBytes() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- SequenceFileAsBinaryOutputFormat.WritableValueBytes(BytesWritable) - 类 的构造器org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat.WritableValueBytes
-
- SequenceFileAsTextInputFormat - org.apache.hadoop.mapred中的类
-
This class is similar to SequenceFileInputFormat, except it generates SequenceFileAsTextRecordReader
which converts the input keys and values to their String forms by calling toString() method.
- SequenceFileAsTextInputFormat() - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsTextInputFormat
-
- SequenceFileAsTextInputFormat - org.apache.hadoop.mapreduce.lib.input中的类
-
This class is similar to SequenceFileInputFormat, except it generates
SequenceFileAsTextRecordReader which converts the input keys and values
to their String forms by calling toString() method.
- SequenceFileAsTextInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextInputFormat
-
- SequenceFileAsTextRecordReader - org.apache.hadoop.mapred中的类
-
This class converts the input keys and values to their String forms by calling toString()
method.
- SequenceFileAsTextRecordReader(Configuration, FileSplit) - 类 的构造器org.apache.hadoop.mapred.SequenceFileAsTextRecordReader
-
- SequenceFileAsTextRecordReader - org.apache.hadoop.mapreduce.lib.input中的类
-
This class converts the input keys and values to their String forms by
calling toString() method.
- SequenceFileAsTextRecordReader() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileAsTextRecordReader
-
- SequenceFileInputFilter<K,V> - org.apache.hadoop.mapred中的类
-
A class that allows a map/red job to work on a sample of sequence files.
- SequenceFileInputFilter() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFilter
-
- SequenceFileInputFilter<K,V> - org.apache.hadoop.mapreduce.lib.input中的类
-
A class that allows a map/red job to work on a sample of sequence files.
- SequenceFileInputFilter() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter
-
- SequenceFileInputFilter.Filter - org.apache.hadoop.mapred中的接口
-
filter interface
- SequenceFileInputFilter.Filter - org.apache.hadoop.mapreduce.lib.input中的接口
-
filter interface
- SequenceFileInputFilter.FilterBase - org.apache.hadoop.mapred中的类
-
base class for Filters
- SequenceFileInputFilter.FilterBase() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFilter.FilterBase
-
- SequenceFileInputFilter.FilterBase - org.apache.hadoop.mapreduce.lib.input中的类
-
base class for Filters
- SequenceFileInputFilter.FilterBase() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.FilterBase
-
- SequenceFileInputFilter.MD5Filter - org.apache.hadoop.mapred中的类
-
This class returns a set of records by examing the MD5 digest of its
key against a filtering frequency f.
- SequenceFileInputFilter.MD5Filter() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFilter.MD5Filter
-
- SequenceFileInputFilter.MD5Filter - org.apache.hadoop.mapreduce.lib.input中的类
-
This class returns a set of records by examing the MD5 digest of its
key against a filtering frequency f.
- SequenceFileInputFilter.MD5Filter() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.MD5Filter
-
- SequenceFileInputFilter.PercentFilter - org.apache.hadoop.mapred中的类
-
This class returns a percentage of records
The percentage is determined by a filtering frequency f using
the criteria record# % f == 0.
- SequenceFileInputFilter.PercentFilter() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFilter.PercentFilter
-
- SequenceFileInputFilter.PercentFilter - org.apache.hadoop.mapreduce.lib.input中的类
-
This class returns a percentage of records
The percentage is determined by a filtering frequency f using
the criteria record# % f == 0.
- SequenceFileInputFilter.PercentFilter() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.PercentFilter
-
- SequenceFileInputFilter.RegexFilter - org.apache.hadoop.mapred中的类
-
Records filter by matching key to regex
- SequenceFileInputFilter.RegexFilter() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFilter.RegexFilter
-
- SequenceFileInputFilter.RegexFilter - org.apache.hadoop.mapreduce.lib.input中的类
-
Records filter by matching key to regex
- SequenceFileInputFilter.RegexFilter() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.RegexFilter
-
- SequenceFileInputFormat<K,V> - org.apache.hadoop.mapred中的类
-
- SequenceFileInputFormat() - 类 的构造器org.apache.hadoop.mapred.SequenceFileInputFormat
-
- SequenceFileInputFormat<K,V> - org.apache.hadoop.mapreduce.lib.input中的类
-
- SequenceFileInputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFormat
-
- SequenceFileOutputFormat<K,V> - org.apache.hadoop.mapred中的类
-
- SequenceFileOutputFormat() - 类 的构造器org.apache.hadoop.mapred.SequenceFileOutputFormat
-
- SequenceFileOutputFormat<K,V> - org.apache.hadoop.mapreduce.lib.output中的类
-
- SequenceFileOutputFormat() - 类 的构造器org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat
-
- SequenceFileRecordReader<K,V> - org.apache.hadoop.mapred中的类
-
- SequenceFileRecordReader(Configuration, FileSplit) - 类 的构造器org.apache.hadoop.mapred.SequenceFileRecordReader
-
- SequenceFileRecordReader<K,V> - org.apache.hadoop.mapreduce.lib.input中的类
-
- SequenceFileRecordReader() - 类 的构造器org.apache.hadoop.mapreduce.lib.input.SequenceFileRecordReader
-
- Serialization<T> - org.apache.hadoop.io.serializer中的接口
-
- SerializationFactory - org.apache.hadoop.io.serializer中的类
-
- SerializationFactory(Configuration) - 类 的构造器org.apache.hadoop.io.serializer.SerializationFactory
-
Serializations are found by reading the io.serializations
property from conf
, which is a comma-delimited list of
classnames.
- serialize() - 类 中的方法org.apache.hadoop.fs.s3.INode
-
- serialize(T) - 接口 中的方法org.apache.hadoop.io.serializer.Serializer
-
Serialize t
to the underlying output stream.
- serialize(RecordOutput, String) - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
-
Serialize the type information for a record
- serialize(RecordOutput, String) - 类 中的方法org.apache.hadoop.record.Record
-
Serialize a record with tag (ususally field name)
- serialize(RecordOutput) - 类 中的方法org.apache.hadoop.record.Record
-
Serialize a record without a tag
- Serializer<T> - org.apache.hadoop.io.serializer中的接口
-
Provides a facility for serializing objects of type
to an
OutputStream
.
- serialVersionUID - 异常错误 中的静态变量org.apache.hadoop.hdfs.protocol.DSQuotaExceededException
-
- serialVersionUID - 异常错误 中的静态变量org.apache.hadoop.hdfs.protocol.NSQuotaExceededException
-
- serialVersionUID - 异常错误 中的静态变量org.apache.hadoop.hdfs.protocol.QuotaExceededException
-
- Server - org.apache.hadoop.ipc中的类
-
An abstract IPC service.
- Server(String, int, Class<? extends Writable>, int, Configuration) - 类 的构造器org.apache.hadoop.ipc.Server
-
- Server(String, int, Class<? extends Writable>, int, Configuration, String) - 类 的构造器org.apache.hadoop.ipc.Server
-
- Server(String, int, Class<? extends Writable>, int, Configuration, String, SecretManager<? extends TokenIdentifier>) - 类 的构造器org.apache.hadoop.ipc.Server
-
Constructs a server listening on the named port and address.
- Server.Connection - org.apache.hadoop.ipc中的类
-
Reads calls from a connection and queues them for handling.
- Server.Connection(SelectionKey, SocketChannel, long) - 类 的构造器org.apache.hadoop.ipc.Server.Connection
-
- Servers - org.apache.hadoop.metrics2.util中的类
-
Helpers to handle server addresses
- SERVERS_PROPERTY - 类 中的静态变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
-
- Service - org.apache.hadoop.security.authorize中的类
-
An abstract definition of service as related to
Service Level Authorization for Hadoop.
- Service(String, Class<?>) - 类 的构造器org.apache.hadoop.security.authorize.Service
-
- SERVICE_AUTHORIZATION_CONFIG - 类 中的静态变量org.apache.hadoop.security.authorize.ServiceAuthorizationManager
-
- ServiceAuthorizationManager - org.apache.hadoop.security.authorize中的类
-
An authorization manager which handles service-level authorization
for incoming service requests.
- ServiceAuthorizationManager() - 类 的构造器org.apache.hadoop.security.authorize.ServiceAuthorizationManager
-
- ServicePlugin - org.apache.hadoop.util中的接口
-
Service plug-in interface.
- serviceRPCAddress - 类 中的变量org.apache.hadoop.hdfs.server.namenode.NameNode
-
RPC server for DN address
- ServletUtil - org.apache.hadoop.util中的类
-
- ServletUtil() - 类 的构造器org.apache.hadoop.util.ServletUtil
-
- SESSION_TIMEZONE_KEY - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.OracleDBRecordReader
-
Configuration key to set to a timezone string.
- set(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the value
of the name
property.
- set(int, int) - 类 中的方法org.apache.hadoop.examples.SecondarySort.IntPair
-
Set the left and right values.
- set(boolean, Checksum, int, int) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
Set the checksum related parameters
- set(String) - 类 中的方法org.apache.hadoop.fs.GlobPattern
-
Set and compile a glob pattern
- set(long, long, long) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- set(Writable[]) - 类 中的方法org.apache.hadoop.io.ArrayWritable
-
- set(boolean) - 类 中的方法org.apache.hadoop.io.BooleanWritable
-
Set the value of the BooleanWritable
- set(BytesWritable) - 类 中的方法org.apache.hadoop.io.BytesWritable
-
Set the BytesWritable to the contents of the given newData.
- set(byte[], int, int) - 类 中的方法org.apache.hadoop.io.BytesWritable
-
Set the value to a copy of the given byte range
- set(byte) - 类 中的方法org.apache.hadoop.io.ByteWritable
-
Set the value of this ByteWritable.
- set(double) - 类 中的方法org.apache.hadoop.io.DoubleWritable
-
- set(float) - 类 中的方法org.apache.hadoop.io.FloatWritable
-
Set the value of this FloatWritable.
- set(Writable) - 类 中的方法org.apache.hadoop.io.GenericWritable
-
Set the instance that is wrapped.
- set(int) - 类 中的方法org.apache.hadoop.io.IntWritable
-
Set the value of this IntWritable.
- set(long) - 类 中的方法org.apache.hadoop.io.LongWritable
-
Set the value of this LongWritable.
- set(MD5Hash) - 类 中的方法org.apache.hadoop.io.MD5Hash
-
Copy the contents of another instance into this instance.
- set(Object) - 类 中的方法org.apache.hadoop.io.ObjectWritable
-
Reset the instance.
- set(Text, Text) - 类 中的方法org.apache.hadoop.io.SequenceFile.Metadata
-
- set(String) - 类 中的方法org.apache.hadoop.io.Text
-
Set to contain the contents of a string.
- set(byte[]) - 类 中的方法org.apache.hadoop.io.Text
-
Set to a utf8 byte array
- set(Text) - 类 中的方法org.apache.hadoop.io.Text
-
copy a text.
- set(byte[], int, int) - 类 中的方法org.apache.hadoop.io.Text
-
Set the Text to range of bytes
- set(Writable[][]) - 类 中的方法org.apache.hadoop.io.TwoDArrayWritable
-
- set(String) - 类 中的方法org.apache.hadoop.io.UTF8
-
已过时。
Set to contain the contents of a string.
- set(UTF8) - 类 中的方法org.apache.hadoop.io.UTF8
-
已过时。
Set to contain the contents of a string.
- set(int) - 类 中的方法org.apache.hadoop.io.VIntWritable
-
Set the value of this VIntWritable.
- set(long) - 类 中的方法org.apache.hadoop.io.VLongWritable
-
Set the value of this LongWritable.
- set(int) - 类 中的方法org.apache.hadoop.metrics.util.MetricsIntValue
-
已过时。
Set the value
- set(long) - 类 中的方法org.apache.hadoop.metrics.util.MetricsLongValue
-
已过时。
Set the value
- set(int) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeInt
-
Set the value of the metric
- set(long) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeLong
-
Set the value of the metric
- set(byte[]) - 类 中的方法org.apache.hadoop.record.Buffer
-
Use the specified bytes array as underlying sequence.
- set(byte[], double) - 类 中的方法org.apache.hadoop.util.bloom.Key
-
- set(float) - 类 中的方法org.apache.hadoop.util.Progress
-
Called during execution on a leaf node to set its progress.
- SET_GROUP_COMMAND - 类 中的静态变量org.apache.hadoop.util.Shell
-
- SET_OWNER_COMMAND - 类 中的静态变量org.apache.hadoop.util.Shell
-
a Unix command to set owner
- SET_PERMISSION_COMMAND - 类 中的静态变量org.apache.hadoop.util.Shell
-
a Unix command to set permission
- setAdminState(DatanodeInfo.AdminStates) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Sets the admin state of this node.
- setAggregatorDescriptors(JobConf, Class<? extends ValueAggregatorDescriptor>[]) - 类 中的静态方法org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorJob
-
- setArchiveSizes(JobID, long[]) - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
Set the sizes for any archives, files, or directories in the private
distributed cache.
- setArchiveTimestamps(Configuration, String) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
This is to check the timestamp of the archives to be localized.
- setAssignedJobID(JobID) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
Set the mapred ID for this job as assigned by the
mapred framework.
- setAtomicCommit(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set if data need to be committed automatically
- setAtomicWorkPath(Path) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set the work path for atomic commit
- setAttemptsToStartSkipping(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Set the number of Task attempts AFTER which skip mode
will be kicked off.
- setAttribute(String, Object) - 类 中的方法org.apache.hadoop.http.HttpServer
-
Set a value in the webapp context.
- setAttribute(Context, String, Object) - 类 中的方法org.apache.hadoop.http.HttpServer
-
Set a value in the webapp context.
- setAttribute(String, Object) - 类 中的方法org.apache.hadoop.metrics.ContextFactory
-
已过时。
Sets the named factory attribute to the specified value, creating it
if it did not already exist.
- setAttribute(Attribute) - 类 中的方法org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
-
已过时。
- setAttributes(AttributeList) - 类 中的方法org.apache.hadoop.metrics.util.MetricsDynamicMBeanBase
-
已过时。
- setAuthenticationMethod(UserGroupInformation.AuthenticationMethod) - 类 中的方法org.apache.hadoop.security.UserGroupInformation
-
Sets the authentication method in the subject
- setAutoIncrMapperProcCount(Configuration, boolean) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
- setAutoIncrReducerProcCount(Configuration, boolean) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
- setBalancerBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Requests the namenode to tell all datanodes to use a new, non-persistent
bandwidth value for dfs.balance.bandwidthPerSec.
- setBalancerBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Requests the namenode to tell all datanodes to use a new, non-persistent
bandwidth value for dfs.balance.bandwidthPerSec.
- setBalancerBandwidth(long) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Tell all datanodes to use a new, non-persistent bandwidth value for
dfs.balance.bandwidthPerSec.
- setBalancerBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.DatanodeDescriptor
-
- setBalancerBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Tell all datanodes to use a new, non-persistent bandwidth value for
dfs.balance.bandwidthPerSec.
- setBalancerBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Tell all datanodes to use a new, non-persistent bandwidth value for
dfs.balance.bandwidthPerSec.
- setBalancerBandwidth(String[], int) - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
Command to ask the namenode to set the balancer bandwidth for all of the
datanodes.
- setBandwidth(long) - 类 中的方法org.apache.hadoop.hdfs.util.DataTransferThrottler
-
Sets throttle bandwidth.
- setBlockId(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- setBlocking(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set if Disctp should run blocking or non-blocking
- setBlockToken(Token<BlockTokenIdentifier>) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlock
-
- setBoolean(String, boolean) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the value of the name
property to a boolean
.
- setBooleanIfUnset(String, boolean) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the given property, if it is currently unset.
- setBoundingQuery(Configuration, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
-
Set the user-defined bounding query to use with a user-defined query.
- setCacheArchives(URI[], Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Set the configuration with the given set of archives.
- setCacheFiles(URI[], Configuration) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Set the configuration with the given set of files.
- setCancelDelegationTokenUponJobCompletion(boolean) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Sets the flag that will allow the JobTracker to cancel the HDFS delegation
tokens upon job completion.
- setCapacity(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Sets raw capacity.
- setCapacity(int) - 类 中的方法org.apache.hadoop.io.BytesWritable
-
Change the capacity of the backing storage.
- setCapacity(int) - 类 中的方法org.apache.hadoop.record.Buffer
-
Change the capacity of the backing storage.
- setChanged() - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutable
-
Set the changed flag in mutable operations
- setChannelPosition(Block, FSDatasetInterface.BlockWriteStreams, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
Sets the offset in the block to which the
the next write will write data to.
- setChannelPosition(Block, FSDatasetInterface.BlockWriteStreams, long, long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Sets the file pointer of the data stream and checksum stream to
the specified values.
- setClass(String, Class<?>, Class<?>) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the value of the name
property to the name of a
theClass
implementing the given interface xface
.
- setClassLoader(ClassLoader) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the class loader that will be used to load the various objects.
- setCodecClasses(Configuration, List<Class>) - 类 中的静态方法org.apache.hadoop.io.compress.CompressionCodecFactory
-
Sets a list of codec classes in the configuration.
- setCombinerClass(Class<? extends Reducer>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the user-defined combiner class used to combine map-outputs
before being sent to the reducers.
- setCombinerClass(Class<? extends Reducer>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the combiner class for the job.
- setCommitDirectory(Job, Path) - 类 中的静态方法org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
-
Setter for the final directory for DistCp (where files copied will be
moved, atomically.)
- setCompressionLevel(Configuration, ZlibCompressor.CompressionLevel) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
-
- setCompressionStrategy(Configuration, ZlibCompressor.CompressionStrategy) - 类 中的静态方法org.apache.hadoop.io.compress.zlib.ZlibFactory
-
- setCompressionType(Configuration, SequenceFile.CompressionType) - 类 中的静态方法org.apache.hadoop.io.SequenceFile
-
- setCompressMapOutput(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Should the map outputs be compressed before transfer?
- setCompressOutput(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
Set whether the output of the job is compressed.
- setCompressOutput(Job, boolean) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Set whether the output of the job is compressed.
- setConf(Configuration) - 接口 中的方法org.apache.hadoop.conf.Configurable
-
Set the configuration to be used by this object.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.conf.Configured
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.hdfs.server.balancer.Balancer
-
set this balancer's configuration
- setConf(Configuration) - 类 中的方法org.apache.hadoop.io.AbstractMapWritable
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.io.compress.DefaultCodec
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.io.compress.SnappyCodec
-
Set the configuration to be used by this object.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.io.GenericWritable
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.io.ObjectWritable
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Set the configuration to be used by this object.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.lib.InputSampler
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter.MD5Filter
-
configure the filter according to configuration
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter.PercentFilter
-
configure the filter by checking the configuration
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.SequenceFileInputFilter.RegexFilter
-
configure the Filter by checking the configuration
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.Task
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapred.TaskController
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
Set the configuration to be used by this object.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.MD5Filter
-
configure the filter according to configuration
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.PercentFilter
-
configure the filter by checking the configuration
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.RegexFilter
-
configure the Filter by checking the configuration
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
-
Read in the partition file and build indexing data structures.
- setConf(Configuration) - 类 中的方法org.apache.hadoop.net.ScriptBasedMapping
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.net.SocksSocketFactory
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.streaming.DumpTypedBytes
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.streaming.LoadTypedBytes
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.tools.DistCp
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.tools.HadoopArchives
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.tools.Logalyzer.LogComparator
-
- setConf(Configuration) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritableInput
-
- setConf(Object, Configuration) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
-
Check and set 'configuration' if necessary.
- setConfiguration(Configuration) - 类 中的静态方法org.apache.hadoop.security.KerberosName
-
Set the static configuration to get the rules.
- setConfiguration(Configuration) - 类 中的静态方法org.apache.hadoop.security.UserGroupInformation
-
Set the static configuration for UGI.
- setConfirmationNeeded(boolean) - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
-
- setContentionTracing(boolean) - 类 中的静态方法org.apache.hadoop.util.ReflectionUtils
-
- setContext(String) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Set the metrics context tag
- setContext(String) - 类 中的方法org.apache.hadoop.metrics2.MetricsRecordBuilder
-
Set the context tag
- setCopyStrategy(String) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set the copy strategy to use.
- setCounters(Counters) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Set the task's counters.
- setCountersEnabled(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.lib.MultipleOutputs
-
Enables or disables counters for the named outputs.
- setCountersEnabled(Job, boolean) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.MultipleOutputs
-
Enables or disables counters for the named outputs.
- setCredentials(Credentials) - 类 中的方法org.apache.hadoop.tools.distcp2.CopyListing
-
set Credentials store, on which FS delegatin token will be cached
- setCumulativeCpuUsage(long) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Set the cumulative CPU usage.
- setDebugStream(PrintStream) - 类 中的方法org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- setDecommissioned() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Sets the admin state to indicate that decommision is complete.
- setDefaultAuthenticator(Class<? extends Authenticator>) - 类 中的静态方法org.apache.hadoop.security.authentication.client.AuthenticatedURL
-
- setDefaultUri(Configuration, URI) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Set the default filesystem URI in a configuration.
- setDefaultUri(Configuration, String) - 类 中的静态方法org.apache.hadoop.fs.FileSystem
-
Set the default filesystem URI in a configuration.
- setDelegationToken(Token<T>) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- setDelegationToken(Token<T>) - 接口 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenRenewer.Renewable
-
Set delegation token.
- setDelegationToken(Token<T>) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- setDelete(Term) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
-
Set the instance to be a delete operation.
- setDeleteMissing(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set if files only present in target should be deleted
- setDestdir(File) - 类 中的方法org.apache.hadoop.record.compiler.ant.RccTask
-
Sets directory where output files will be generated
- setDiagnosticInfo(String) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
-
- setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
-
- setDictionary(byte[], int, int) - 接口 中的方法org.apache.hadoop.io.compress.Compressor
-
Sets preset dictionary for compression.
- setDictionary(byte[], int, int) - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
-
Sets preset dictionary for compression.
- setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Does nothing.
- setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
-
Does nothing.
- setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
-
Sets preset dictionary for compression.
- setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
- setDictionary(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
-
- setDigest(String) - 类 中的方法org.apache.hadoop.io.MD5Hash
-
Sets the digest value from a hex string.
- setDisplayName(String) - 类 中的方法org.apache.hadoop.mapred.Counters.Counter
-
- setDisplayName(String) - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
Set the display name
- setDisplayName(String) - 类 中的方法org.apache.hadoop.mapreduce.Counter
-
已过时。
- setDistributionPolicyClass(Class<? extends IDistributionPolicy>) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the distribution policy class.
- setDocumentAnalyzerClass(Class<? extends Analyzer>) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the analyzer class.
- setDoubleValue(Object, double) - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
-
Set the given counter to the given value
- setEditLog(FSEditLog) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
Testing hook
- setEnd(long) - 类 中的方法org.apache.hadoop.io.compress.SplitCompressionInputStream
-
- setEnum(String, T) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the value of the name
property to the given type.
- setEnvironment(Map<String, String>) - 类 中的方法org.apache.hadoop.util.Shell
-
set the environment for the command
- setEventId(int) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
set event Id. should be assigned incrementally starting from 0.
- setExcludesFile(String) - 类 中的方法org.apache.hadoop.util.HostsFileReader
-
- setExecutable(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Set the URI for the application's executable.
- setExpires(long) - 类 中的方法org.apache.hadoop.security.authentication.server.AuthenticationToken
-
Sets the expiration of the token.
- setExpiryDate(long) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- setExpiryDate(long) - 类 中的方法org.apache.hadoop.security.token.delegation.DelegationKey
-
- setFactor(int) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Set the number of streams to merge at once.
- setFactory(Class, WritableFactory) - 类 中的静态方法org.apache.hadoop.io.WritableFactories
-
Define a factory for a class.
- setFailonerror(boolean) - 类 中的方法org.apache.hadoop.record.compiler.ant.RccTask
-
Given multiple files (via fileset), set the error handling behavior
- setFailureInfo(String) - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
set the reason for failuire of this job
- setFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.common.Storage
-
Set common storage fields.
- setFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataStorage
-
- setFields(Properties, Storage.StorageDirectory) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSImage
-
Write last checkpoint time and version file into the storage directory.
- SetFile - org.apache.hadoop.io中的类
-
A file-based set of keys.
- SetFile() - 类 的构造器org.apache.hadoop.io.SetFile
-
- setFile(File) - 类 中的方法org.apache.hadoop.record.compiler.ant.RccTask
-
Sets the record definition file attribute
- SetFile.Reader - org.apache.hadoop.io中的类
-
Provide access to an existing set file.
- SetFile.Reader(FileSystem, String, Configuration) - 类 的构造器org.apache.hadoop.io.SetFile.Reader
-
Construct a set reader for the named set.
- SetFile.Reader(FileSystem, String, WritableComparator, Configuration) - 类 的构造器org.apache.hadoop.io.SetFile.Reader
-
Construct a set reader for the named set using the named comparator.
- SetFile.Writer - org.apache.hadoop.io中的类
-
Write a new set file.
- SetFile.Writer(FileSystem, String, Class<? extends WritableComparable>) - 类 的构造器org.apache.hadoop.io.SetFile.Writer
-
已过时。
pass a Configuration too
- SetFile.Writer(Configuration, FileSystem, String, Class<? extends WritableComparable>, SequenceFile.CompressionType) - 类 的构造器org.apache.hadoop.io.SetFile.Writer
-
Create a set naming the element class and compression type.
- SetFile.Writer(Configuration, FileSystem, String, WritableComparator, SequenceFile.CompressionType) - 类 的构造器org.apache.hadoop.io.SetFile.Writer
-
Create a set naming the element comparator and compression type.
- setFileLength(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.LocatedBlocks
-
Sets the file length of the file.
- setFileTimestamps(Configuration, String) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
This is to check the timestamp of the files to be localized.
- setFilterClass(Configuration, Class) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileInputFilter
-
set the filter class
- setFilterClass(Job, Class<?>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter
-
set the filter class
- setFinalSync(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.examples.terasort.TeraOutputFormat
-
Set the requirement for a final sync before the stream is closed.
- setFloat(String, float) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the value of the name
property to a float
.
- setForce(int) - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
-
- setFormat(JobConf) - 类 中的方法org.apache.hadoop.mapred.join.CompositeInputFormat
-
Interpret a given string as a composite expression.
- setFrequency(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileInputFilter.MD5Filter
-
set the filtering frequency in configuration
- setFrequency(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileInputFilter.PercentFilter
-
set the frequency and stores it in conf
- setFrequency(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.MD5Filter
-
set the filtering frequency in configuration
- setFrequency(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.PercentFilter
-
set the frequency and stores it in conf
- setFsImageLoadTime(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- setGenerationStamp(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- setGenerationStamp(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Sets the generation stamp for this filesystem
- setGroup(String) - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Sets group.
- setGroupingComparatorClass(Class<? extends RawComparator>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
- setHeapUsage(long) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Set the total heap usage.
- setHostName(String) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
- setHosts(String[]) - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Set the hosts hosting this block
- setID(int) - 类 中的方法org.apache.hadoop.mapred.join.Parser.Node
-
- setIfUnset(String, String) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Sets a property if it is currently unset.
- setIgnoreFailures(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set if failures during copy be ignored
- setIncludeCounters(boolean) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- setIncludesFile(String) - 类 中的方法org.apache.hadoop.util.HostsFileReader
-
- setIndexInputFormatClass(Class<? extends InputFormat>) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the index input format class.
- setIndexInterval(int) - 类 中的方法org.apache.hadoop.io.MapFile.Writer
-
Sets the index interval.
- setIndexInterval(Configuration, int) - 类 中的静态方法org.apache.hadoop.io.MapFile.Writer
-
Sets the index interval and stores it in conf
- setIndexMaxFieldLength(int) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the max field length for a Lucene instance.
- setIndexMaxNumSegments(int) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the max number of segments for a Lucene instance.
- setIndexShards(String) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the string representation of a number of shards.
- setIndexShards(IndexUpdateConfiguration, Shard[]) - 类 中的静态方法org.apache.hadoop.contrib.index.mapred.Shard
-
- setIndexUpdaterClass(Class<? extends IIndexUpdater>) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the index updater class.
- setIndexUseCompoundFile(boolean) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set whether use the compound file format for a Lucene instance.
- setInfoPort(int) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
- setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyCompressor
-
- setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.BZip2DummyDecompressor
-
- setInput(byte[], int, int) - 接口 中的方法org.apache.hadoop.io.compress.Compressor
-
Sets input data for compression.
- setInput(byte[], int, int) - 接口 中的方法org.apache.hadoop.io.compress.Decompressor
-
Sets input data for decompression.
- setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Sets input data for compression.
- setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.snappy.SnappyDecompressor
-
Sets input data for decompression.
- setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.BuiltInGzipDecompressor
-
Sets input data for decompression.
- setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibCompressor
-
- setInput(byte[], int, int) - 类 中的方法org.apache.hadoop.io.compress.zlib.ZlibDecompressor
-
- setInput(JobConf, Class<? extends DBWritable>, String, String, String, String...) - 类 中的静态方法org.apache.hadoop.mapred.lib.db.DBInputFormat
-
Initializes the map-part of the job with the appropriate input settings.
- setInput(JobConf, Class<? extends DBWritable>, String, String) - 类 中的静态方法org.apache.hadoop.mapred.lib.db.DBInputFormat
-
Initializes the map-part of the job with the appropriate input settings.
- setInput(Job, Class<? extends DBWritable>, String, String, String, String...) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
-
Note that the "orderBy" column is called the "splitBy" in this version.
- setInput(Job, Class<? extends DBWritable>, String, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
-
setInput() takes a custom query and a separate "bounding query" to use
instead of the custom "count query" used by DBInputFormat.
- setInput(Job, Class<? extends DBWritable>, String, String, String, String...) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
Initializes the map-part of the job with the appropriate input settings.
- setInput(Job, Class<? extends DBWritable>, String, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DBInputFormat
-
Initializes the map-part of the job with the appropriate input settings.
- setInputBoundingQuery(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setInputClass(Class<? extends DBWritable>) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setInputConditions(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setInputCountQuery(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setInputDataLength(long) - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
-
- setInputDataLocations(String[]) - 类 中的方法org.apache.hadoop.mapreduce.split.JobSplit.SplitMetaInfo
-
- setInputFieldNames(String...) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setInputFormat(Class<? extends InputFormat>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the
InputFormat
implementation for the map-reduce job.
- setInputFormatClass(Class<? extends InputFormat>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
- setInputOrderBy(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setInputPathFilter(JobConf, Class<? extends PathFilter>) - 类 中的静态方法org.apache.hadoop.mapred.FileInputFormat
-
Set a PathFilter to be applied to the input paths for the map-reduce job.
- setInputPathFilter(Job, Class<? extends PathFilter>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Set a PathFilter to be applied to the input paths for the map-reduce job.
- setInputPaths(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.FileInputFormat
-
Sets the given comma separated paths as the list of inputs
for the map-reduce job.
- setInputPaths(JobConf, Path...) - 类 中的静态方法org.apache.hadoop.mapred.FileInputFormat
-
Set the array of
Path
s as the list of inputs
for the map-reduce job.
- setInputPaths(Job, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Sets the given comma separated paths as the list of inputs
for the map-reduce job.
- setInputPaths(Job, Path...) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Set the array of
Path
s as the list of inputs
for the map-reduce job.
- setInputQuery(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setInputSplit(InputSplit) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- setInputTableName(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setInputWriterClass(Class<? extends InputWriter>) - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
- setInsert(Document) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
-
Set the instance to be an insert operation.
- setInt(String, int) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the value of the name
property to an int
.
- setInteractive(boolean) - 枚举 中的方法org.apache.hadoop.hdfs.server.common.HdfsConstants.StartupOption
-
- setIOSortMB(int) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the IO sort space in MB.
- setIpcPort(int) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
- setIsCleanup(boolean) - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
-
Set whether the task is a cleanup attempt or not.
- setIsJavaMapper(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Set whether the Mapper is written in Java.
- setIsJavaRecordReader(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Set whether the job is using a Java RecordReader.
- setIsJavaRecordWriter(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Set whether the job will use a Java RecordWriter.
- setIsJavaReducer(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Set whether the Reducer is written in Java.
- setIssueDate(long) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- setJar(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the user jar for the map-reduce job.
- setJarByClass(Class) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the job's jar file by finding an example class location.
- setJarByClass(Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the Jar by finding where a given class came from.
- setJob(Job) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
Set the mapreduce job
- setJobACLs(Map<JobACL, AccessControlList>) - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
Set the job acls
- setJobConf(JobConf) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
Set the mapred job conf for this job.
- setJobConf() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- setJobEndNotificationURI(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the uri to be invoked in-order to send a notification after the job
has completed (success/failure).
- setJobFile(String) - 类 中的方法org.apache.hadoop.mapred.Task
-
- setJobID(String) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
Set the job ID for this job.
- setJobID(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
Set the job ID for this job.
- setJobName(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the user-specified job name.
- setJobName(String) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
Set the job name for this job.
- setJobName(String) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the user-specified job name.
- setJobName(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
Set the job name for this job.
- setJobPriority(JobPriority) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- setJobPriority(JobPriority) - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
Set the priority of the job, defaulting to NORMAL.
- setJobPriority(JobID, String) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- setJobPriority(JobID, String) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- setJobPriority(String) - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Set the priority of a running job.
- setJobState(ControlledJob.State) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
Set the state for this job.
- setJobToken(Token<? extends TokenIdentifier>, Credentials) - 类 中的静态方法org.apache.hadoop.mapreduce.security.TokenCache
-
store job token
- setJobTokenSecret(SecretKey) - 类 中的方法org.apache.hadoop.mapred.Task
-
Set the job token secret
- setJvmContext(JvmContext) - 类 中的方法org.apache.hadoop.mapred.Task
-
Set the task JvmContext
- setKeepCommandFile(JobConf, boolean) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
Set whether to keep the command file for debugging
- setKeepFailedTaskFiles(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set whether the framework should keep the intermediate files for
failed tasks.
- setKeepTaskFilesPattern(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set a regular expression for task names that should be kept.
- setKeyComparator(Class<? extends WritableComparator>) - 类 中的方法org.apache.hadoop.mapred.join.Parser.Node
-
- setKeyFieldComparatorOptions(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- setKeyFieldComparatorOptions(Job, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedComparator
-
- setKeyFieldPartitionerOptions(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- setKeyFieldPartitionerOptions(Job, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.partition.KeyFieldBasedPartitioner
-
- setKeyId(int) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenIdentifier
-
- setKeys(ExportedBlockKeys) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
-
Set block keys, only to be used in slave mode
- setKeyValue(Text, Text, byte[], int, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader
-
- setKind(Text) - 类 中的方法org.apache.hadoop.security.token.Token
-
Set the token kind.
- setLanguage(String) - 类 中的方法org.apache.hadoop.record.compiler.ant.RccTask
-
Sets the output language option
- setLastContact(long) - 类 中的方法org.apache.hadoop.ipc.Server.Connection
-
- setLastSeen(long) - 类 中的方法org.apache.hadoop.mapred.TaskTrackerStatus
-
- setLastUpdate(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Sets time when this information was accurate.
- setLeasePeriod(long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.LeaseManager
-
- setLeftOffset(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
-
Set the subarray to be used for partitioning to
bytes[offset:]
in Python syntax.
- setLength(long) - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Set the length of block
- setLevel(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
- setLevel(int) - 接口 中的方法org.apache.hadoop.net.Node
-
Set this node's level in the tree.
- setLevel(int) - 类 中的方法org.apache.hadoop.net.NodeBase
-
Set this node's level in the tree
- setLoadNativeLibraries(Configuration, boolean) - 类 中的方法org.apache.hadoop.util.NativeCodeLoader
-
Set if native hadoop libraries, if present, can be used for this job.
- setLocalAnalysisClass(Class<? extends ILocalAnalysis>) - 类 中的方法org.apache.hadoop.contrib.index.mapred.IndexUpdateConfiguration
-
Set the local analysis class.
- setLocalArchives(Configuration, String) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Set the conf to contain the location for localized archives.
- setLocalFiles(Configuration, String) - 类 中的静态方法org.apache.hadoop.filecache.DistributedCache
-
Set the conf to contain the location for localized files.
- setLocalMaxRunningMaps(JobContext, int) - 类 中的静态方法org.apache.hadoop.mapred.LocalJobRunner
-
Set the max number of map tasks to run concurrently in the LocalJobRunner.
- setLogPath(Path) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set the log path where distcp output logs are stored
Uses JobStagingDir/_logs by default
- setLong(String, long) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the value of the name
property to a long
.
- setLongValue(Object, long) - 类 中的方法org.apache.hadoop.contrib.utils.join.JobBase
-
Set the given counter to the given value
- setMapBandwidth(int) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set per map bandwidth
- setMapDebugScript(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the debug script to run when the map tasks fail.
- setMapOutputCompressorClass(Class<? extends CompressionCodec>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- setMapOutputKeyClass(Class<?>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the key class for the map output data.
- setMapOutputKeyClass(Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the key class for the map output data.
- setMapOutputValueClass(Class<?>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the value class for the map output data.
- setMapOutputValueClass(Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the value class for the map output data.
- setMapperClass(Class<? extends Mapper>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the
Mapper
class for the job.
- setMapperClass(Class<? extends Mapper>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
- setMapperClass(Job, Class<? extends Mapper<K1, V1, K2, V2>>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.map.MultithreadedMapper
-
Set the application's mapper class.
- setMapperMaxSkipRecords(Configuration, long) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Set the number of acceptable skip records surrounding the bad record PER
bad record in mapper.
- setMapredJobID(String) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
- setMapRunnerClass(Class<? extends MapRunnable>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- setMapSlots(int) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
-
Set the number of map slot for the node.
- setMapSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Turn speculative execution on or off for this job for map tasks.
- setMapSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Turn speculative execution on or off for this job for map tasks.
- SETMASK - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
This constant is accessible by subclasses for historical purposes.
- setMasterKeyId(int) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- setMaxDate(long) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- setMaxInputSplitSize(Job, long) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Set the maximum split size
- setMaxItems(long) - 类 中的方法org.apache.hadoop.mapred.lib.aggregate.UniqValueCount
-
Set the limit on the number of unique values
- setMaxMapAttempts(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Expert: Set the number of maximum attempts that will be made to run a
map task.
- setMaxMaps(int) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set the max number of maps to use for copy
- setMaxMapTaskFailuresPercent(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Expert: Set the maximum percentage of map tasks that can fail without the
job being aborted.
- setMaxPhysicalMemoryForTask(long) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
已过时。
- setMaxReduceAttempts(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Expert: Set the number of maximum attempts that will be made to run a
reduce task.
- setMaxReduceTaskFailuresPercent(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the maximum percentage of reduce tasks that can fail without the job
being aborted.
- setMaxSplitSize(long) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
-
Specify the maximum size (in bytes) of each split.
- setMaxSplitSize(long) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
Specify the maximum size (in bytes) of each split.
- setMaxTaskFailuresPerTracker(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the maximum no. of failures of a given job per tasktracker.
- setMaxVirtualMemoryForTask(long) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- setMemory(int) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Set the total amount of buffer memory, in bytes.
- setMemory(long) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
-
Set the physical memory of the node.
- setMemoryForMapTask(long) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- setMemoryForReduceTask(long) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- setMemoryPerMapSlot(long) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
-
Set the amount of RAM reserved for each map slot.
- setMemoryPerReduceSlot(long) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
-
Set the amount of RAM reserved for each reduce slot.
- setMessage(String) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
Set the message for this job.
- setMessage(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
Set the message for this job.
- setMetric(String, int) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, long) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, short) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, byte) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, float) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, int) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, long) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, short) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, byte) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named metric to the specified value.
- setMetric(String, float) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named metric to the specified value.
- setMinInputSplitSize(Job, long) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.FileInputFormat
-
Set the minimum input split size
- setMinSplitSize(long) - 类 中的方法org.apache.hadoop.mapred.FileInputFormat
-
- setMinSplitSizeNode(long) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
-
Specify the minimum size (in bytes) of each split per node.
- setMinSplitSizeNode(long) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
Specify the minimum size (in bytes) of each split per node.
- setMinSplitSizeRack(long) - 类 中的方法org.apache.hadoop.mapred.lib.CombineFileInputFormat
-
Specify the minimum size (in bytes) of each split per rack.
- setMinSplitSizeRack(long) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
Specify the minimum size (in bytes) of each split per rack.
- setName(String) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
- setName(Class, String) - 类 中的静态方法org.apache.hadoop.io.WritableName
-
Set the name that a class should be known as to something other than the
class name.
- setName(String) - 类 中的方法org.apache.hadoop.record.meta.RecordTypeInfo
-
set the name of the record
- setNames(String[]) - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Set the names (host:port) hosting this block
- setNamesystem(FSNamesystem) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- setNetworkLocation(String) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Sets the network location
- setNetworkLocation(String) - 接口 中的方法org.apache.hadoop.net.Node
-
Set the node's network location
- setNetworkLocation(String) - 类 中的方法org.apache.hadoop.net.NodeBase
-
Set this node's network location
- setNewStorageID(DatanodeRegistration) - 类 中的静态方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- setNext(LightWeightGSet.LinkedElement) - 接口 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet.LinkedElement
-
Set the next element.
- setNextRecordRange(SortedRanges.Range) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
Set the next record range which is going to be processed by Task.
- setNodeReplicationLimit(int) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- setNumberOfThreads(Job, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.map.MultithreadedMapper
-
Set the number of threads in the pool for running maps.
- setNumBytes(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.Block
-
- setNumCores(int) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
-
Set the number of cores for the node.
- setNumLinesPerSplit(Job, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.NLineInputFormat
-
Set the number of lines per split
- setNumMapTasks(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the number of map tasks for this job.
- setNumReduceTasks(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the requisite number of reduce tasks for this job.
- setNumReduceTasks(int) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the number of reduce tasks for the job.
- setNumTasksToExecutePerJvm(int) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Sets the number of tasks that a spawned task JVM should run
before it exits
- setOffset(long) - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Set the start offset of file associated with this block
- setOffsets(Configuration, int, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
-
Set the subarray to be used for partitioning to
bytes[left:(right+1)]
in Python syntax.
- setOp(DocumentAndOp.Op) - 类 中的方法org.apache.hadoop.contrib.index.example.LineDocTextAndOp
-
Set the type of the operation.
- setOutput(JobConf, String, String...) - 类 中的静态方法org.apache.hadoop.mapred.lib.db.DBOutputFormat
-
Initializes the reduce-part of the job with the appropriate output settings
- setOutput(Job, String, String...) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat
-
Initializes the reduce-part of the job with
the appropriate output settings
- setOutput(Job, String, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.DBOutputFormat
-
Initializes the reduce-part of the job
with the appropriate output settings
- setOutputCommitter(Class<? extends OutputCommitter>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- setOutputCompressionType(JobConf, SequenceFile.CompressionType) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileOutputFormat
-
- setOutputCompressionType(Job, SequenceFile.CompressionType) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat
-
- setOutputCompressorClass(JobConf, Class<? extends CompressionCodec>) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
- setOutputCompressorClass(Job, Class<? extends CompressionCodec>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
- setOutputFieldCount(int) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setOutputFieldNames(String...) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setOutputFormat(Class<? extends OutputFormat>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- setOutputFormatClass(Class<? extends OutputFormat>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
- setOutputFormatClass(Job, Class<? extends OutputFormat>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.LazyOutputFormat
-
Set the underlying output format for LazyOutputFormat.
- setOutputKeyClass(Class<?>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the key class for the job output data.
- setOutputKeyClass(Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the key class for the job output data.
- setOutputKeyClass(Class) - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
Sets the output key class class.
- setOutputKeyComparatorClass(Class<? extends RawComparator>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- setOutputName(JobContext, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Set the base output name for output file to be created.
- setOutputPath(JobConf, Path) - 类 中的静态方法org.apache.hadoop.mapred.FileOutputFormat
-
Set the
Path
of the output directory for the map-reduce job.
- setOutputPath(Job, Path) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.FileOutputFormat
-
Set the
Path
of the output directory for the map-reduce job.
- setOutputReaderClass(Class<? extends OutputReader>) - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
- setOutputTableName(String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBConfiguration
-
- setOutputValueClass(Class<?>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the value class for job outputs.
- setOutputValueClass(Class<?>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the value class for job outputs.
- setOutputValueClass(Class) - 类 中的方法org.apache.hadoop.streaming.io.IdentifierResolver
-
Sets the output value class.
- setOutputValueGroupingComparator(Class<? extends RawComparator>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the user defined
RawComparator
comparator for
grouping keys in the input to the reduce.
- setOverwrite(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set if files should always be overwritten on target
- setOwner(String) - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Sets owner.
- setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Set owner of a path (i.e. a file or a directory).
- setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Set owner of a path (i.e. a file or a directory).
- setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
not implemented.
- setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
Use the command chown to set owner.
- setOwner(String, String, String) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Set file or directory owner.
- setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Set owner of a path (i.e. a file or a directory).
- setOwner(String, String, String) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Set owner of a path (i.e. a file or a directory).
- setOwner(String, String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Set owner for an existing file.
- setOwner(String, String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Set owner of a path (i.e. a file or a directory).
- setOwner(Path, String, String) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- setParent(Node) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
- setParent(Node) - 接口 中的方法org.apache.hadoop.net.Node
-
Set this node's parent
- setParent(Node) - 类 中的方法org.apache.hadoop.net.NodeBase
-
Set this node's parent
- setPartitionerClass(Class<? extends Partitioner>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- setPartitionerClass(Class<? extends Partitioner>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
- setPartitionFile(JobConf, Path) - 类 中的静态方法org.apache.hadoop.mapred.lib.TotalOrderPartitioner
-
Set the path to the SequenceFile storing the sorted partition keyset.
- setPartitionFile(Configuration, Path) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.TotalOrderPartitioner
-
Set the path to the SequenceFile storing the sorted partition keyset.
- setPathName(String) - 异常错误 中的方法org.apache.hadoop.hdfs.protocol.QuotaExceededException
-
- setPattern(Configuration, String) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileInputFilter.RegexFilter
-
Define the filtering regex and stores it in conf
- setPattern(Configuration, String) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.input.SequenceFileInputFilter.RegexFilter
-
Define the filtering regex and stores it in conf
- setPeriod(int) - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Sets the timer period
- setPermission(FsPermission) - 类 中的方法org.apache.hadoop.fs.FileStatus
-
Sets permission.
- setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Set permission of a path.
- setPermission(File, FsPermission) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Set permissions to the required value.
- setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Set permission of a path.
- setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
Not implemented.
- setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
Use the command chmod to set permission.
- setPermission(String, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Set permissions to a file or directory.
- setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Set permission of a path.
- setPermission(String, FsPermission) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Set permissions for an existing file/directory.
- setPermission(String, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Set permissions for an existing file.
- setPermission(String, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Set permissions for an existing file/directory.
- setPermission(Path, FsPermission) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- setPhase(TaskStatus.Phase) - 类 中的方法org.apache.hadoop.mapred.Task
-
Set current phase of the task.
- setPhysicalMemoryUsage(long) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Set the physical memory usage.
- setPingInterval(Configuration, int) - 类 中的静态方法org.apache.hadoop.ipc.Client
-
set the ping interval value in configuration
- setPrinter(DancingLinks.SolutionAcceptor<Pentomino.ColumnName>) - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino
-
Set the printer for the puzzle.
- setPriority(JobPriority) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- setProfileEnabled(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set whether the system should collect profiler information for some of
the tasks in this job?
- setProfileParams(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the profiler configuration arguments.
- setProfileTaskRange(boolean, String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the ranges of maps or reduces to profile. setProfileEnabled(true)
must also be called.
- setProgress(float) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- setProgress(float) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- setProgressable(Progressable) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Set the progressable object in order to report progress.
- setQueueName(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the name of the queue to which this job should be submitted.
- setQueueName(String) - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
-
Set the queue name of the JobQueueInfo
- setQueueName(String) - 类 中的方法org.apache.hadoop.mapred.QueueAclsInfo
-
- setQueueState(String) - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
-
Set the state of the queue
- setQuietMode(boolean) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the quietness-mode.
- setQuota(Path, long, long) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Set a directory's quotas
- setQuota(String, long, long) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Set the quota for a directory.
- setQuota(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Set the quota for a directory.
- setReduceDebugScript(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the debug script to run when the reduce tasks fail.
- setReducer(JobConf, Class<? extends Reducer<K1, V1, K2, V2>>, Class<? extends K1>, Class<? extends V1>, Class<? extends K2>, Class<? extends V2>, boolean, JobConf) - 类 中的静态方法org.apache.hadoop.mapred.lib.ChainReducer
-
Sets the Reducer class to the chain job's JobConf.
- setReducerClass(Class<? extends Reducer>) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
- setReducerClass(Class<? extends Reducer>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
- setReducerMaxSkipGroups(Configuration, long) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Set the number of acceptable skip groups surrounding the bad group PER
bad group in reducer.
- setReduceSlots(int) - 类 中的方法org.apache.hadoop.tools.rumen.MachineNode.Builder
-
Set the number of reduce slot for the node.
- setReduceSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Turn speculative execution on or off for this job for reduce tasks.
- setReduceSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Turn speculative execution on or off for this job for reduce tasks.
- setRemaining(long) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Sets raw free space.
- setReplication(Path, short) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
Set replication for an existing file.
- setReplication(Path, short) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Set replication for an existing file.
- setReplication(Path, short) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Set replication for an existing file.
- setReplication(Path, short) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
Not implemented.
- setReplication(Path, short) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- setReplication(String, short) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Set replication for an existing file.
- setReplication(Path, short) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- setReplication(String, short) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Set replication for an existing file.
- setReplication(String, short) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Set replication for an existing file.
- setReplication(String, short) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Set replication for an existing file.
- setReplication(Path, short) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- setRetryPolicy(RetryPolicy) - 类 中的方法org.apache.hadoop.tools.distcp2.util.RetriableCommand
-
Fluent-interface to change the RetryHandler.
- setRightOffset(Configuration, int) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.partition.BinaryPartitioner
-
Set the subarray to be used for partitioning to
bytes[:(offset+1)]
in Python syntax.
- setRpcServiceServerAddress(Configuration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Modifies the configuration passed to contain the service rpc address setting
- setRules(String) - 类 中的静态方法org.apache.hadoop.security.KerberosName
-
Set the rules.
- setRunningTaskAttempts(Collection<TaskAttemptID>) - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
set running attempt(s) of the task.
- setRunState(int) - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
Change the current run state of the job.
- setRunState(TaskStatus.State) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- setSafeMode(FSConstants.SafeModeAction) - 类 中的方法org.apache.hadoop.hdfs.ChecksumDistributedFileSystem
-
Enter, leave or get safe mode.
- setSafeMode(FSConstants.SafeModeAction) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
Enter, leave or get safe mode.
- setSafeMode(FSConstants.SafeModeAction) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Enter, leave or get safe mode.
- setSafeMode(FSConstants.SafeModeAction) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Enter, leave or get safe mode.
- setSafeMode(FSConstants.SafeModeAction) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- setSafeMode(String[], int) - 类 中的方法org.apache.hadoop.hdfs.tools.DFSAdmin
-
Safe mode maintenance command.
- setSafeMode(JobTracker.SafeModeAction) - 接口 中的方法org.apache.hadoop.mapred.AdminOperationsProtocol
-
Set safe mode for the JobTracker.
- setSafeMode(JobTracker.SafeModeAction) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- setSafeModeTime(long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- setSchedulingInfo(Object) - 类 中的方法org.apache.hadoop.mapred.JobInProgress
-
- setSchedulingInfo(String) - 类 中的方法org.apache.hadoop.mapred.JobQueueInfo
-
Set the scheduling information associated to particular job queue
- setSchedulingInfo(String) - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
Used to set the scheduling information associated to a particular Job.
- setSequenceFileOutputKeyClass(JobConf, Class<?>) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
-
Set the key class for the
SequenceFile
This allows the user to specify the key class to be different
from the actual class (
BytesWritable
) used for writing
- setSequenceFileOutputKeyClass(Job, Class<?>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
-
Set the key class for the
SequenceFile
This allows the user to specify the key class to be different
from the actual class (
BytesWritable
) used for writing
- setSequenceFileOutputValueClass(JobConf, Class<?>) - 类 中的静态方法org.apache.hadoop.mapred.SequenceFileAsBinaryOutputFormat
-
Set the value class for the
SequenceFile
This allows the user to specify the value class to be different
from the actual class (
BytesWritable
) used for writing
- setSequenceFileOutputValueClass(Job, Class<?>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.output.SequenceFileAsBinaryOutputFormat
-
Set the value class for the
SequenceFile
This allows the user to specify the value class to be different
from the actual class (
BytesWritable
) used for writing
- setSequenceNumber(int) - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenIdentifier
-
- setService(Text) - 类 中的方法org.apache.hadoop.security.token.Token
-
Set the service on which the token is supposed to be used
- setServiceAddress(Configuration, String) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Set the configuration property for the service rpc address
to address
- setSessionId(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the user-specified session identifier.
- setSessionTimeZone(Configuration, Connection) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.db.OracleDBRecordReader
-
Set session time zone
- setSize(int) - 类 中的方法org.apache.hadoop.io.BytesWritable
-
Change the size of the buffer.
- setSizes(long[]) - 类 中的方法org.apache.hadoop.filecache.TaskDistributedCacheManager
-
- setSkipCRC(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set if checksum comparison should be skipped while determining if
source and destination files are identical
- setSkipOutputPath(JobConf, Path) - 类 中的静态方法org.apache.hadoop.mapred.SkipBadRecords
-
Set the directory to which skipped records are written.
- setSkipping(boolean) - 类 中的方法org.apache.hadoop.mapred.Task
-
Sets whether to run Task in skipping mode.
- setSkipRanges(SortedRanges) - 类 中的方法org.apache.hadoop.mapred.Task
-
Set skipRanges.
- setSocketSendBufSize(int) - 类 中的方法org.apache.hadoop.ipc.Server
-
Sets the socket buffer size used for responding to RPCs
- setSortComparatorClass(Class<? extends RawComparator>) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Define the comparator that controls how the keys are sorted before they
are passed to the
Reducer
.
- setSourcePaths(List<Path>) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Setter for sourcePaths.
- setSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Turn speculative execution on or off for this job.
- setSpeculativeExecution(boolean) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Turn speculative execution on or off for this job.
- setSslConfigurationFile(String) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set the SSL configuration file path to use with hftps:// (local path)
- setStamp(long) - 类 中的方法org.apache.hadoop.hdfs.server.common.GenerationStamp
-
Sets the current generation stamp
- setStart(long) - 类 中的方法org.apache.hadoop.io.compress.SplitCompressionInputStream
-
- setState(int) - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
Set the state for this job.
- setStatement(PreparedStatement) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- setStateString(String) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- setStatus(String) - 接口 中的方法org.apache.hadoop.mapred.Reporter
-
Set the status description for the task.
- setStatus(String) - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- setStatus(TaskTrackerStatus) - 类 中的方法org.apache.hadoop.mapreduce.server.jobtracker.TaskTracker
-
- setStatus(String) - 类 中的方法org.apache.hadoop.mapreduce.StatusReporter
-
- setStatus(String) - 类 中的方法org.apache.hadoop.mapreduce.TaskAttemptContext
-
Set the current status of the task to the given string.
- setStatus(String) - 类 中的方法org.apache.hadoop.mapreduce.TaskInputOutputContext
-
- setStatus(String) - 类 中的方法org.apache.hadoop.util.Progress
-
- setStorageID(String) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeID
-
sets the data storage ID.
- setStorageInfo(StorageInfo) - 类 中的方法org.apache.hadoop.hdfs.server.common.StorageInfo
-
- setStorageInfo(DataStorage) - 类 中的方法org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
- setStrings(String, String...) - 类 中的方法org.apache.hadoop.conf.Configuration
-
Set the array of string values for the name
property as
as comma delimited values.
- setSuccessfulAttempt(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.TaskReport
-
set successful attempt ID of the task.
- setSyncFolder(boolean) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Set if source and target folder contents be sync'ed up
- setTabSize(int) - 类 中的方法org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- setTag(Text) - 类 中的方法org.apache.hadoop.contrib.utils.join.TaggedMapOutput
-
- setTag(String, String) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named tag to the specified value.
- setTag(String, int) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named tag to the specified value.
- setTag(String, long) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named tag to the specified value.
- setTag(String, short) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named tag to the specified value.
- setTag(String, byte) - 接口 中的方法org.apache.hadoop.metrics.MetricsRecord
-
已过时。
Sets the named tag to the specified value.
- setTag(String, String) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named tag to the specified value.
- setTag(String, int) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named tag to the specified value.
- setTag(String, long) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named tag to the specified value.
- setTag(String, short) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named tag to the specified value.
- setTag(String, byte) - 类 中的方法org.apache.hadoop.metrics.spi.MetricsRecordImpl
-
已过时。
Sets the named tag to the specified value.
- setTaskId(String) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
- setTaskID(TaskAttemptID) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
Sets task id.
- setTaskId(String) - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
-
- setTaskOutputFilter(JobClient.TaskStatusFilter) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
已过时。
- setTaskOutputFilter(JobConf, JobClient.TaskStatusFilter) - 类 中的静态方法org.apache.hadoop.mapred.JobClient
-
Modify the JobConf to set the task output filter.
- setTaskRunTime(int) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
Set the task completion time
- setTaskStatus(TaskCompletionEvent.Status) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
Set task status.
- setTaskTracker(String) - 类 中的方法org.apache.hadoop.mapred.TaskStatus
-
- setTaskTrackerHttp(String) - 类 中的方法org.apache.hadoop.mapred.TaskCompletionEvent
-
Set task tracker http location.
- setThreads(int, int) - 类 中的方法org.apache.hadoop.http.HttpServer
-
Set the min, max number of worker threads (simultaneous connections).
- setTimes(Path, long, long) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Set access time of a file
- setTimes(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient
-
set the modification and access time of a file
- setTimes(Path, long, long) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
Set access time of a file
- setTimes(String, long, long) - 接口 中的方法org.apache.hadoop.hdfs.protocol.ClientProtocol
-
Sets the modification and access time of the file to the specified time.
- setTimes(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
stores the modification and access time for this inode.
- setTimes(String, long, long) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
- setTimes(Path, long, long) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- setTokenLifetime(long) - 类 中的方法org.apache.hadoop.hdfs.security.token.block.BlockTokenSecretManager
-
set token lifetime.
- setTokenService(Token<?>, InetSocketAddress) - 类 中的静态方法org.apache.hadoop.security.SecurityUtil
-
Set the given token's service to the format expected by the RPC client
- setTopologyPaths(String[]) - 类 中的方法org.apache.hadoop.fs.BlockLocation
-
Set the network topology paths of the hosts
- setTotalLogFileSize(long) - 类 中的方法org.apache.hadoop.mapred.TaskLogAppender
-
- setUMask(Configuration, FsPermission) - 类 中的静态方法org.apache.hadoop.fs.permission.FsPermission
-
Set the user file creation mask (umask)
- setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedJob
-
- setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedLocation
-
- setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedNetworkTopology
-
- setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedSingleRelativeRanking
-
- setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTask
-
- setUnknownAttribute(String, Object) - 类 中的方法org.apache.hadoop.tools.rumen.LoggedTaskAttempt
-
- setup(LocalDirAllocator, TaskTracker.LocalStorage) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
-
- setup(LocalDirAllocator, TaskTracker.LocalStorage) - 类 中的方法org.apache.hadoop.mapred.TaskController
-
Does initialization and setup.
- setup(Mapper<K, V, Text, Text>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionMapper
-
- setup(Reducer<Text, Text, Text, Text>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionReducer
-
- setup(Mapper<K1, V1, K2, V2>.Context) - 类 中的方法org.apache.hadoop.mapreduce.lib.input.DelegatingMapper
-
- setup(Mapper<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Mapper
-
Called once at the beginning of the task.
- setup(Reducer<KEYIN, VALUEIN, KEYOUT, VALUEOUT>.Context) - 类 中的方法org.apache.hadoop.mapreduce.Reducer
-
Called once at the start of the task.
- setup(Mapper<Text, FileStatus, Text, Text>.Context) - 类 中的方法org.apache.hadoop.tools.distcp2.mapred.CopyMapper
-
Implementation of the Mapper::setup() method.
- setupCache(Configuration, String, String) - 类 中的方法org.apache.hadoop.filecache.TaskDistributedCacheManager
-
Retrieve public distributed cache files into the local cache and updates
the task configuration (which has been passed in via the constructor).
- setUpdate(Document, Term) - 类 中的方法org.apache.hadoop.contrib.index.mapred.DocumentAndOp
-
Set the instance to be an update operation.
- setUpgradeState(boolean, int) - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- setupJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.FileOutputCommitter
-
- setupJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
-
For the framework to setup the job output during initialization
- setupJob(JobContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
-
This method implements the new interface by calling the old method.
- setupJob(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
-
Create the temporary directory that is the root of all of the task
work directories.
- setupJob(JobContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputCommitter
-
For the framework to setup the job output during initialization
- setupJobConf(int, int, long, int, long, int) - 类 中的方法org.apache.hadoop.examples.SleepJob
-
- setupProgress() - 类 中的方法org.apache.hadoop.mapred.JobStatus
-
- setupProgress() - 接口 中的方法org.apache.hadoop.mapred.RunningJob
-
Get the progress of the job's setup-tasks, as a float between 0.0
and 1.0.
- setupProgress() - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Get the progress of the job's setup, as a float between 0.0
and 1.0.
- setupSsl(Configuration) - 类 中的静态方法org.apache.hadoop.hdfs.tools.DelegationTokenFetcher
-
Set up SSL resources
- setupTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.FileOutputCommitter
-
- setupTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
-
Sets up output for the task.
- setupTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapred.OutputCommitter
-
This method implements the new interface by calling the old method.
- setupTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
-
No task setup required.
- setupTask(TaskAttemptContext) - 类 中的方法org.apache.hadoop.mapreduce.OutputCommitter
-
Sets up output for the task.
- setURL(URL) - 类 中的方法org.apache.hadoop.hdfs.ByteRangeInputStream.URLOpener
-
- setUseNewMapper(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set whether the framework should use the new api for the mapper.
- setUseNewReducer(boolean) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set whether the framework should use the new api for the reducer.
- setUser(String) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the reported username for this job.
- setValue(long) - 类 中的方法org.apache.hadoop.mapreduce.Counter
-
Set this counter by the given value
- setValue(Object) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesWritable
-
Set the typed bytes from a given Java object.
- setVerbose(boolean) - 类 中的方法org.apache.hadoop.streaming.JarBuilder
-
- setVerifyChecksum(boolean) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
Set whether to verify checksum.
- setVerifyChecksum(boolean) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Set the verify checksum flag.
- setVerifyChecksum(boolean) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Set the verify checksum flag.
- setVerifyChecksum(boolean) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- setVirtualMemoryUsage(long) - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Set the virtual memory usage.
- setVisibleLength(Block, long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- setVisibleLength(Block, long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
update the specified blocks visible meta data.
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Set the current working directory for the given file system.
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Set the current working directory for the given file system.
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.ftp.FTPFileSystem
-
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
Set the working directory to the given directory.
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.s3.S3FileSystem
-
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.fs.s3native.NativeS3FileSystem
-
Set the working directory to the given directory.
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.hdfs.DistributedFileSystem
-
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.hdfs.HftpFileSystem
-
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.hdfs.web.WebHdfsFileSystem
-
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.mapred.JobConf
-
Set the current working directory for the default file system.
- setWorkingDirectory(Path) - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Set the current working directory for the default file system.
- setWorkingDirectory(Job, Path) - 类 中的静态方法org.apache.hadoop.tools.distcp2.mapred.CopyOutputFormat
-
Setter for the working directory for DistCp (where files will be copied
before they are moved to the final commit-directory.)
- setWorkingDirectory(File) - 类 中的方法org.apache.hadoop.util.Shell
-
set the working directory
- setWriter(IFile.Writer<K, V>) - 类 中的方法org.apache.hadoop.mapred.Task.CombineOutputCollector
-
- setWriteSkipRecs(boolean) - 类 中的方法org.apache.hadoop.mapred.Task
-
Set whether to write skip records.
- setXceiverCount(int) - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Sets number of active connections
- Shard - org.apache.hadoop.contrib.index.mapred中的类
-
This class represents the metadata of a shard.
- Shard() - 类 的构造器org.apache.hadoop.contrib.index.mapred.Shard
-
Constructor.
- Shard(long, String, long) - 类 的构造器org.apache.hadoop.contrib.index.mapred.Shard
-
Construct a shard from a versio number, a directory and a generation
number.
- Shard(Shard) - 类 的构造器org.apache.hadoop.contrib.index.mapred.Shard
-
Construct using a shard object.
- ShardWriter - org.apache.hadoop.contrib.index.lucene中的类
-
The initial version of an index is stored in the perm dir.
- ShardWriter(FileSystem, Shard, String, IndexUpdateConfiguration) - 类 的构造器org.apache.hadoop.contrib.index.lucene.ShardWriter
-
Constructor
- Shell - org.apache.hadoop.util中的类
-
A base class for running a Unix command.
- Shell() - 类 的构造器org.apache.hadoop.util.Shell
-
- Shell(long) - 类 的构造器org.apache.hadoop.util.Shell
-
- Shell.ExitCodeException - org.apache.hadoop.util中的异常错误
-
This is an IOException with exit code added.
- Shell.ExitCodeException(int, String) - 异常错误 的构造器org.apache.hadoop.util.Shell.ExitCodeException
-
- Shell.ShellCommandExecutor - org.apache.hadoop.util中的类
-
A simple shell command executor.
- Shell.ShellCommandExecutor(String[]) - 类 的构造器org.apache.hadoop.util.Shell.ShellCommandExecutor
-
- Shell.ShellCommandExecutor(String[], File) - 类 的构造器org.apache.hadoop.util.Shell.ShellCommandExecutor
-
- Shell.ShellCommandExecutor(String[], File, Map<String, String>) - 类 的构造器org.apache.hadoop.util.Shell.ShellCommandExecutor
-
- Shell.ShellCommandExecutor(String[], File, Map<String, String>, long) - 类 的构造器org.apache.hadoop.util.Shell.ShellCommandExecutor
-
Create a new instance of the ShellCommandExecutor to execute a command.
- ShellBasedUnixGroupsMapping - org.apache.hadoop.security中的类
-
A simple shell-based implementation of GroupMappingServiceProvider
that exec's the groups
shell command to fetch the group
memberships of a given user.
- ShellBasedUnixGroupsMapping() - 类 的构造器org.apache.hadoop.security.ShellBasedUnixGroupsMapping
-
- ShellBasedUnixGroupsNetgroupMapping - org.apache.hadoop.security中的类
-
A simple shell-based implementation of GroupMappingServiceProvider
that exec's the groups
shell command to fetch the group
memberships of a given user.
- ShellBasedUnixGroupsNetgroupMapping() - 类 的构造器org.apache.hadoop.security.ShellBasedUnixGroupsNetgroupMapping
-
- shippedCanonFiles_ - 类 中的变量org.apache.hadoop.streaming.StreamJob
-
- shouldAtomicCommit() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Should the data be committed atomically?
- shouldAvoidStaleDataNodesForWrite() - 接口 中的方法org.apache.hadoop.hdfs.server.namenode.FSClusterStats
-
Indicate whether or not the cluster is now avoiding to use stale DataNodes
for writing.
- shouldAvoidStaleDataNodesForWrite() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- shouldBlock() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Should DistCp be running in blocking mode
- shouldCopy(Path, DistCpOptions) - 类 中的方法org.apache.hadoop.tools.distcp2.SimpleCopyListing
-
- shouldDeleteMissing() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Should target files missing in source should be deleted?
- shouldDie() - 类 中的方法org.apache.hadoop.mapred.JvmTask
-
- shouldIgnoreFailures() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Should failures be logged and ignored during copy?
- shouldOverwrite() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Should files be overwritten always?
- shouldPreserve(DistCpOptions.FileAttribute) - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Checks if the input attibute should be preserved or not
- shouldPreserveInput() - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter.SegmentDescriptor
-
- shouldReset() - 类 中的方法org.apache.hadoop.mapred.MapTaskCompletionEventsUpdate
-
- shouldRetry(Exception, int) - 类 中的方法org.apache.hadoop.io.retry.RetryPolicies.MultipleLinearRandomRetry
-
- shouldRetry(Exception, int) - 接口 中的方法org.apache.hadoop.io.retry.RetryPolicy
-
Determines whether the framework should retry a
method for the given exception, and the number
of retries that have been made for that operation
so far.
- shouldSkipCRC() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Should CRC/checksum check be skipped while checking files are identical
- shouldSyncFolder() - 类 中的方法org.apache.hadoop.tools.distcp2.DistCpOptions
-
Should the data be sync'ed between source and target paths?
- shouldTruncateLogs(JVMInfo) - 类 中的方法org.apache.hadoop.mapred.TaskLogsTruncater
-
Check the log file sizes generated by the attempts that ran in a
particular JVM
- shuffleError(TaskAttemptID, String, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
A reduce-task failed to shuffle the map-outputs.
- shuffleError(TaskAttemptID, String, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
-
Report that a reduce-task couldn't shuffle map-outputs.
- ShuffleExceptionTracker - org.apache.hadoop.mapred中的类
-
This class is used to track shuffle exceptions.
- shutdown() - 类 中的方法org.apache.hadoop.fs.DU
-
Shut down the refreshing thread.
- shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
Shut down this instance of the datanode.
- shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- shutdown() - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
Shutdown the FSDataset
- shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.metrics.DataNodeInstrumentation
-
- shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
shutdown FSNamesystem
- shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.metrics.NameNodeInstrumentation
-
- shutdown() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
-
Shut down this instance of the datanode.
- shutdown() - 类 中的方法org.apache.hadoop.ipc.metrics.RpcInstrumentation
-
Shutdown the instrumentation for the process
- shutdown() - 类 中的方法org.apache.hadoop.mapred.JobHistoryServer
-
Shutsdown the history server if already initialized
- shutdown() - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
- shutdown() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
- shutdown() - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
- shutdown() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystem
-
Shutdown the metrics system completely (usually during server shutdown.)
- sign(String) - 类 中的方法org.apache.hadoop.security.authentication.util.Signer
-
Returns a signed string.
- signalTask(String, int, ProcessTree.Signal) - 类 中的方法org.apache.hadoop.mapred.DefaultTaskController
-
- signalTask(String, int, ProcessTree.Signal) - 类 中的方法org.apache.hadoop.mapred.TaskController
-
Send a signal to a task pid as the user.
- SIGNATURE_SECRET - 类 中的静态变量org.apache.hadoop.security.authentication.server.AuthenticationFilter
-
Constant for the property that specifies the secret to use for signing the HTTP Cookies.
- Signer - org.apache.hadoop.security.authentication.util中的类
-
Signs strings and verifies signed strings using a SHA digest.
- Signer(byte[]) - 类 的构造器org.apache.hadoop.security.authentication.util.Signer
-
Creates a Signer instance using the specified secret.
- SignerException - org.apache.hadoop.security.authentication.util中的异常错误
-
Exception thrown by
Signer
when a string signature is invalid.
- SignerException(String) - 异常错误 的构造器org.apache.hadoop.security.authentication.util.SignerException
-
Creates an exception instance.
- SimpleCharStream - org.apache.hadoop.record.compiler.generated中的类
-
An implementation of interface CharStream, where the stream is assumed to
contain only ASCII characters (without unicode processing).
- SimpleCharStream(Reader, int, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCharStream(Reader, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCharStream(Reader) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCharStream(InputStream, String, int, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCharStream(InputStream, int, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCharStream(InputStream, String, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCharStream(InputStream, int, int) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCharStream(InputStream, String) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCharStream(InputStream) - 类 的构造器org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- SimpleCopyListing - org.apache.hadoop.tools.distcp2中的类
-
The SimpleCopyListing is responsible for making the exhaustive list of
all files/directories under its specified list of input-paths.
- SimpleCopyListing(Configuration, Credentials) - 类 的构造器org.apache.hadoop.tools.distcp2.SimpleCopyListing
-
Protected constructor, to initialize configuration.
- simpleHostname(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Given a full hostname, return the word upto the first dot.
- size() - 类 中的方法org.apache.hadoop.conf.Configuration
-
Return the number of keys in the configuration.
- size() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.CorruptReplicasMap
-
- size() - 接口 中的方法org.apache.hadoop.hdfs.util.GSet
-
- size() - 类 中的方法org.apache.hadoop.hdfs.util.GSetByHashMap
-
- size() - 类 中的方法org.apache.hadoop.hdfs.util.LightWeightGSet
-
- size() - 类 中的方法org.apache.hadoop.io.file.tfile.ByteArray
-
- size() - 接口 中的方法org.apache.hadoop.io.file.tfile.RawComparable
-
Get the size of the byte range in the byte array.
- size() - 类 中的静态方法org.apache.hadoop.io.file.tfile.Utils.Version
-
Get the size of the serialized Version object.
- size() - 类 中的方法org.apache.hadoop.io.MapWritable
- size() - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- size() - 类 中的方法org.apache.hadoop.mapred.Counters.Group
-
Returns the number of counters in this group.
- size() - 类 中的方法org.apache.hadoop.mapred.Counters
-
Returns the total number of counters, by summing the number of counters
in each group.
- size() - 类 中的方法org.apache.hadoop.mapred.join.TupleWritable
-
The number of children in this Tuple.
- size() - 类 中的方法org.apache.hadoop.mapreduce.CounterGroup
-
Returns the number of counters in this group.
- size() - 类 中的方法org.apache.hadoop.metrics.util.MetricsRegistry
-
已过时。
- size() - 类 中的方法org.apache.hadoop.tools.rumen.ResourceUsageMetrics
-
Returns the size of the serialized data
- size() - 类 中的方法org.apache.hadoop.util.PriorityQueue
-
Returns the number of elements currently stored in the PriorityQueue.
- SIZE_OF_INTEGER - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
-
- SIZE_OF_INTEGER - 类 中的静态变量org.apache.hadoop.util.DataChecksum
-
- SIZE_UNKNOWN - 类 中的静态变量org.apache.hadoop.fs.LocalDirAllocator
-
Used when size of file to be allocated is unknown.
- skip(long) - 类 中的方法org.apache.hadoop.fs.BufferedFSInputStream
-
- skip(long) - 类 中的方法org.apache.hadoop.fs.FSInputChecker
-
Skips over and discards n
bytes of data from the
input stream.
- skip(long) - 接口 中的方法org.apache.hadoop.hdfs.BlockReader
-
- skip(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.DFSInputStream
-
- skip(long) - 类 中的方法org.apache.hadoop.hdfs.DFSClient.RemoteBlockReader
-
- skip(long) - 类 中的方法org.apache.hadoop.io.compress.DecompressorStream
-
- skip(DataInput) - 类 中的静态方法org.apache.hadoop.io.Text
-
Skips over one Text in the input.
- skip(DataInput) - 类 中的静态方法org.apache.hadoop.io.UTF8
-
已过时。
Skips over one UTF8 in the input.
- skip(K) - 接口 中的方法org.apache.hadoop.mapred.join.ComposableRecordReader
-
Skip key-value pairs with keys less than or equal to the key provided.
- skip(K) - 类 中的方法org.apache.hadoop.mapred.join.CompositeRecordReader
-
Pass skip key to child RRs.
- skip(K) - 类 中的方法org.apache.hadoop.mapred.join.WrappedRecordReader
-
Skip key-value pairs with keys less than or equal to the key provided.
- skip(RecordInput, String, TypeID) - 类 中的静态方法org.apache.hadoop.record.meta.Utils
-
read/skip bytes from stream based on a type
- skip(long) - 类 中的方法org.apache.hadoop.security.SaslInputStream
-
Skips n
bytes of input from the bytes that can be read from
this input stream without blocking.
- SkipBadRecords - org.apache.hadoop.mapred中的类
-
Utility class for skip bad records functionality.
- SkipBadRecords() - 类 的构造器org.apache.hadoop.mapred.SkipBadRecords
-
- skipCompressedByteArray(DataInput) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
- skipFully(InputStream, long) - 类 中的静态方法org.apache.hadoop.io.IOUtils
-
Similar to readFully().
- skipFully(DataInput, int) - 类 中的静态方法org.apache.hadoop.io.WritableUtils
-
Skip len number of bytes in input streamin
- skipToNextMarker(long, int) - 类 中的方法org.apache.hadoop.io.compress.bzip2.CBZip2InputStream
-
This method tries to find the marker (passed to it as the first parameter)
in the stream.
- skipType() - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesInput
-
Skips a type byte.
- SleepJob - org.apache.hadoop.examples中的类
-
Dummy class for testing MR framefork.
- SleepJob() - 类 的构造器org.apache.hadoop.examples.SleepJob
-
- SleepJob.EmptySplit - org.apache.hadoop.examples中的类
-
- SleepJob.EmptySplit() - 类 的构造器org.apache.hadoop.examples.SleepJob.EmptySplit
-
- SleepJob.SleepInputFormat - org.apache.hadoop.examples中的类
-
- SleepJob.SleepInputFormat() - 类 的构造器org.apache.hadoop.examples.SleepJob.SleepInputFormat
-
- SMALL_BUFFER_SIZE - 接口 中的静态变量org.apache.hadoop.hdfs.protocol.FSConstants
-
- SMALL_THRESH - 类 中的静态变量org.apache.hadoop.io.compress.bzip2.CBZip2OutputStream
-
This constant is accessible by subclasses for historical purposes.
- SnappyCodec - org.apache.hadoop.io.compress中的类
-
This class creates snappy compressors/decompressors.
- SnappyCodec() - 类 的构造器org.apache.hadoop.io.compress.SnappyCodec
-
- SnappyCompressor - org.apache.hadoop.io.compress.snappy中的类
-
A
Compressor
based on the snappy compression algorithm.
- SnappyCompressor(int) - 类 的构造器org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Creates a new compressor.
- SnappyCompressor() - 类 的构造器org.apache.hadoop.io.compress.snappy.SnappyCompressor
-
Creates a new compressor with the default buffer size.
- SnappyDecompressor - org.apache.hadoop.io.compress.snappy中的类
-
- SnappyDecompressor(int) - 类 的构造器org.apache.hadoop.io.compress.snappy.SnappyDecompressor
-
Creates a new compressor.
- SnappyDecompressor() - 类 的构造器org.apache.hadoop.io.compress.snappy.SnappyDecompressor
-
Creates a new decompressor with the default buffer size.
- snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutable
-
Get a snapshot/snapshot of the metric
- snapshot(MetricsRecordBuilder) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutable
-
Get a sampe/snapshot of metric if changed
- snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableCounterInt
-
- snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableCounterLong
-
- snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeInt
-
- snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableGaugeLong
-
- snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricMutableStat
-
- snapshot(MetricsRecordBuilder, boolean) - 类 中的方法org.apache.hadoop.metrics2.lib.MetricsRegistry
-
Sample all the mutable metrics and put the snapshot in the builder
- SocketInputStream - org.apache.hadoop.net中的类
-
This implements an input stream that can have a timeout while reading.
- SocketInputStream(ReadableByteChannel, long) - 类 的构造器org.apache.hadoop.net.SocketInputStream
-
Create a new input stream with the given timeout.
- SocketInputStream(Socket, long) - 类 的构造器org.apache.hadoop.net.SocketInputStream
-
Same as SocketInputStream(socket.getChannel(), timeout):
Create a new input stream with the given timeout.
- SocketInputStream(Socket) - 类 的构造器org.apache.hadoop.net.SocketInputStream
-
Same as SocketInputStream(socket.getChannel(), socket.getSoTimeout())
:
Create a new input stream with the given timeout.
- SocketOutputStream - org.apache.hadoop.net中的类
-
This implements an output stream that can have a timeout while writing.
- SocketOutputStream(WritableByteChannel, long) - 类 的构造器org.apache.hadoop.net.SocketOutputStream
-
Create a new ouput stream with the given timeout.
- SocketOutputStream(Socket, long) - 类 的构造器org.apache.hadoop.net.SocketOutputStream
-
Same as SocketOutputStream(socket.getChannel(), timeout):
Create a new ouput stream with the given timeout.
- SocksSocketFactory - org.apache.hadoop.net中的类
-
Specialized SocketFactory to create sockets with a SOCKS proxy
- SocksSocketFactory() - 类 的构造器org.apache.hadoop.net.SocksSocketFactory
-
Default empty constructor (for use with the reflection API).
- SocksSocketFactory(Proxy) - 类 的构造器org.apache.hadoop.net.SocksSocketFactory
-
Constructor with a supplied Proxy
- solution(List<List<ColumnName>>) - 接口 中的方法org.apache.hadoop.examples.dancing.DancingLinks.SolutionAcceptor
-
A callback to return a solution to the application.
- solve(int[], DancingLinks.SolutionAcceptor<ColumnName>) - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
-
Given a prefix, find solutions under it.
- solve(DancingLinks.SolutionAcceptor<ColumnName>) - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
-
Solve a complete problem
- solve(int[]) - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino
-
Find all of the solutions that start with the given prefix.
- solve() - 类 中的方法org.apache.hadoop.examples.dancing.Pentomino
-
Find all of the solutions to the puzzle.
- solve() - 类 中的方法org.apache.hadoop.examples.dancing.Sudoku
-
- Sort<K,V> - org.apache.hadoop.examples中的类
-
This is the trivial map/reduce program that does absolutely nothing
other than use the framework to fragment and sort the input values.
- Sort() - 类 的构造器org.apache.hadoop.examples.Sort
-
- sort(Path[], Path, boolean) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Perform a file sort from a set of input files into an output file.
- sort(Path, Path) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
The backwards compatible interface to sort.
- sort(IndexedSortable, int, int) - 类 中的方法org.apache.hadoop.util.HeapSort
-
Sort the given range of items using heap sort.
- sort(IndexedSortable, int, int, Progressable) - 类 中的方法org.apache.hadoop.util.HeapSort
-
- sort(IndexedSortable, int, int) - 接口 中的方法org.apache.hadoop.util.IndexedSorter
-
Sort the items accessed through the given IndexedSortable over the given
range of logical indices.
- sort(IndexedSortable, int, int, Progressable) - 接口 中的方法org.apache.hadoop.util.IndexedSorter
-
- sort(IndexedSortable, int, int) - 类 中的方法org.apache.hadoop.util.QuickSort
-
Sort the given range of items using quick sort.
- sort(IndexedSortable, int, int, Progressable) - 类 中的方法org.apache.hadoop.util.QuickSort
-
- sortAndIterate(Path[], Path, boolean) - 类 中的方法org.apache.hadoop.io.SequenceFile.Sorter
-
Perform a file sort from a set of input files and return an iterator.
- SortedMapWritable - org.apache.hadoop.io中的类
-
A Writable SortedMap.
- SortedMapWritable() - 类 的构造器org.apache.hadoop.io.SortedMapWritable
-
default constructor.
- SortedMapWritable(SortedMapWritable) - 类 的构造器org.apache.hadoop.io.SortedMapWritable
-
Copy constructor.
- sortListing(FileSystem, Configuration, Path) - 类 中的静态方法org.apache.hadoop.tools.distcp2.util.DistCpUtils
-
Sort sequence file containing FileStatus and Text as key and value respecitvely
- sortNodeList(ArrayList<DatanodeDescriptor>, String, String) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- SOURCE_TAGS_FIELD - 类 中的静态变量org.apache.hadoop.contrib.utils.join.DataJoinReducerBase
-
- specialConstructor - 异常错误 中的变量org.apache.hadoop.record.compiler.generated.ParseException
-
This variable determines which constructor was used to create
this object and thereby affects the semantics of the
"getMessage" method (see below).
- specialToken - 类 中的变量org.apache.hadoop.record.compiler.generated.Token
-
This field is used to access special tokens that occur prior to this
token, but after the immediately preceding regular (non-special) token.
- specToString(String, String, int, List<Integer>, List<Integer>) - 类 中的静态方法org.apache.hadoop.mapreduce.lib.fieldsel.FieldSelectionHelper
-
- spilledRecordsCounter - 类 中的变量org.apache.hadoop.mapred.Task
-
- split(int) - 类 中的方法org.apache.hadoop.examples.dancing.DancingLinks
-
Generate a list of row choices to cover the first moves.
- split - 类 中的变量org.apache.hadoop.mapred.lib.CombineFileRecordReader
-
- split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.BigDecimalSplitter
-
- split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.BooleanSplitter
-
- split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.DateSplitter
-
- split(Configuration, ResultSet, String) - 接口 中的方法org.apache.hadoop.mapreduce.lib.db.DBSplitter
-
Given a ResultSet containing one record (and already advanced to that record)
with two columns (a low value, and a high value, both of the same type), determine
a set of splits that span the given values.
- split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.FloatSplitter
-
- split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.IntegerSplitter
-
- split(Configuration, ResultSet, String) - 类 中的方法org.apache.hadoop.mapreduce.lib.db.TextSplitter
-
This method needs to determine the splits between two user-provided strings.
- split - 类 中的变量org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader
-
- split(String) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Split a string using the default separator
- split(String, char, char) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Split a string using the given separator
- SPLIT_MINSIZE_PERNODE - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
- SPLIT_MINSIZE_PERRACK - 类 中的静态变量org.apache.hadoop.mapreduce.lib.input.CombineFileInputFormat
-
- SplitCompressionInputStream - org.apache.hadoop.io.compress中的类
-
An InputStream covering a range of compressed data.
- SplitCompressionInputStream(InputStream, long, long) - 类 的构造器org.apache.hadoop.io.compress.SplitCompressionInputStream
-
- splitKerberosName(String) - 类 中的静态方法org.apache.hadoop.security.SaslRpcServer
-
Splitting fully qualified Kerberos name into parts
- splitKeyVal(byte[], int, int, Text, Text, int, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamKeyValUtil
-
split a UTF-8 byte array into key and value
assuming that the delimilator is at splitpos.
- splitKeyVal(byte[], int, int, Text, Text, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamKeyValUtil
-
split a UTF-8 byte array into key and value
assuming that the delimilator is at splitpos.
- splitKeyVal(byte[], Text, Text, int, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamKeyValUtil
-
split a UTF-8 byte array into key and value
assuming that the delimilator is at splitpos.
- splitKeyVal(byte[], Text, Text, int) - 类 中的静态方法org.apache.hadoop.streaming.StreamKeyValUtil
-
split a UTF-8 byte array into key and value
assuming that the delimilator is at splitpos.
- splitKeyVal(byte[], int, int, Text, Text, int, int) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
-
- splitKeyVal(byte[], int, int, Text, Text, int) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
-
- splitKeyVal(byte[], Text, Text, int, int) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
-
- splitKeyVal(byte[], Text, Text, int) - 类 中的静态方法org.apache.hadoop.streaming.UTF8ByteArrayUtils
-
- SplitMetaInfoReader - org.apache.hadoop.mapreduce.split中的类
-
A (internal) utility that reads the split meta info and creates
split meta info objects
- SplitMetaInfoReader() - 类 的构造器org.apache.hadoop.mapreduce.split.SplitMetaInfoReader
-
- splitNodesWithRack(Collection<DatanodeDescriptor>, Map<String, List<DatanodeDescriptor>>, List<DatanodeDescriptor>, List<DatanodeDescriptor>) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.BlockPlacementPolicy
-
Split data nodes into two sets, one set includes nodes on rack with
more than one replica, the other set contains the remaining nodes.
- SplittableCompressionCodec - org.apache.hadoop.io.compress中的接口
-
This interface is meant to be implemented by those compression codecs
which are capable to compress / decompress a stream starting at any
arbitrary position.
- SplittableCompressionCodec.READ_MODE - org.apache.hadoop.io.compress中的枚举
-
During decompression, data can be read off from the decompressor in two
modes, namely continuous and blocked.
- SPNEGO_FILTER - 类 中的静态变量org.apache.hadoop.http.HttpServer
-
- stallReplicationWork() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
- StandardSocketFactory - org.apache.hadoop.net中的类
-
Specialized SocketFactory to create sockets with a SOCKS proxy
- StandardSocketFactory() - 类 的构造器org.apache.hadoop.net.StandardSocketFactory
-
Default empty constructor (for use with the reflection API).
- start() - 类 中的方法org.apache.hadoop.fs.DU
-
Start the disk usage checking thread.
- start() - 类 中的方法org.apache.hadoop.hdfs.security.token.delegation.DelegationTokenRenewer
-
- start() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter
-
- start() - 类 中的方法org.apache.hadoop.http.HttpServer
-
Start the server.
- start() - 类 中的方法org.apache.hadoop.ipc.Server
-
Starts the service.
- start() - 类 中的方法org.apache.hadoop.mapred.JobHistoryServer
-
- start() - 类 中的方法org.apache.hadoop.mapreduce.server.tasktracker.userlogs.UserLogManager
-
Starts managing the logs
- start() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
- start() - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
- start() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystemMXBean
-
Start the metrics system
- start(Object) - 接口 中的方法org.apache.hadoop.util.ServicePlugin
-
This method is invoked when the service instance has been started.
- startBlockRecovery(Block) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.DataNode
-
- startBlockRecovery(long) - 类 中的方法org.apache.hadoop.hdfs.server.datanode.FSDataset
-
- startBlockRecovery(long) - 接口 中的方法org.apache.hadoop.hdfs.server.datanode.FSDatasetInterface
-
- startBlockRecovery(Block) - 接口 中的方法org.apache.hadoop.hdfs.server.protocol.InterDatanodeProtocol
-
Begin recovery on a block - this interrupts writers and returns the
necessary metadata for recovery to begin.
- startCleanupThread() - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
Start the background thread
- startCommunicationThread() - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- startCycle(int) - 类 中的方法org.apache.hadoop.util.QueueProcessingStatistics
-
- startDecommission() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Start decommissioning a node.
- startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.ChecksumFileSystem
-
- startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.FileSystem
-
Returns a local File that the user can write output to.
- startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.FilterFileSystem
-
Returns a local File that the user can write output to.
- startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.HarFileSystem
-
not implemented.
- startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.kfs.KosmosFileSystem
-
- startLocalOutput(Path, Path) - 类 中的方法org.apache.hadoop.fs.RawLocalFileSystem
-
- startMap(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- startMap(TreeMap, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
-
- startMap(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- startMap(TreeMap, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
-
- startMap(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Check the mark for start of the serialized map.
- startMap(TreeMap, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
-
Mark the start of a map to be serialized.
- startMap(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- startMap(TreeMap, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
-
- startMap(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- startMap(TreeMap, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
- startMonitoring() - 类 中的方法org.apache.hadoop.metrics.file.FileContext
-
已过时。
Starts or restarts monitoring, by opening in append-mode, the
file specified by the fileName
attribute,
if specified.
- startMonitoring() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
-
已过时。
Starts or restarts monitoring, the emitting of metrics records as they are
updated.
- startMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Starts or restarts monitoring, the emitting of metrics records.
- startMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
-
已过时。
- startMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.NullContext
-
已过时。
Do-nothing version of startMonitoring
- startNextPhase() - 类 中的方法org.apache.hadoop.util.Progress
-
Called during execution to move to the next phase at this level in the
tree.
- startNotifier() - 类 中的静态方法org.apache.hadoop.mapred.JobEndNotifier
-
- startPos - 类 中的变量org.apache.hadoop.hdfs.ByteRangeInputStream
-
- startRecord(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- startRecord(Record, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
-
- startRecord(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- startRecord(Record, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
-
- startRecord(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Check the mark for start of the serialized record.
- startRecord(Record, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
-
Mark the start of a record to be serialized.
- startRecord(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- startRecord(Record, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
-
- startRecord(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- startRecord(Record, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
- startThreads() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
should be called before this object is used
- startTracker(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
-
Start the JobTracker with given configuration.
- startTracker(JobConf, String) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
-
- startTracker(JobConf, String, boolean) - 类 中的静态方法org.apache.hadoop.mapred.JobTracker
-
- startUpgrade() - 接口 中的方法org.apache.hadoop.hdfs.server.common.Upgradeable
-
Prepare for the upgrade.
- startUpgrade() - 类 中的方法org.apache.hadoop.hdfs.server.common.UpgradeManager
-
- startUpgrade() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.UpgradeObjectNamenode
-
- startupShutdownMessage(Class<?>, String[], Log) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Print a log message for starting up and shutting down
- startVector(String) - 类 中的方法org.apache.hadoop.record.BinaryRecordInput
-
- startVector(ArrayList, String) - 类 中的方法org.apache.hadoop.record.BinaryRecordOutput
-
- startVector(String) - 类 中的方法org.apache.hadoop.record.CsvRecordInput
-
- startVector(ArrayList, String) - 类 中的方法org.apache.hadoop.record.CsvRecordOutput
-
- startVector(String) - 接口 中的方法org.apache.hadoop.record.RecordInput
-
Check the mark for start of the serialized vector.
- startVector(ArrayList, String) - 接口 中的方法org.apache.hadoop.record.RecordOutput
-
Mark the start of a vector to be serialized.
- startVector(String) - 类 中的方法org.apache.hadoop.record.XmlRecordInput
-
- startVector(ArrayList, String) - 类 中的方法org.apache.hadoop.record.XmlRecordOutput
-
- startVector(String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordInput
-
- startVector(ArrayList, String) - 类 中的方法org.apache.hadoop.typedbytes.TypedBytesRecordOutput
-
- stat2Paths(FileStatus[]) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
convert an array of FileStatus to an array of Path
- stat2Paths(FileStatus[], Path) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
convert an array of FileStatus to an array of Path.
- state - 枚举 中的变量org.apache.hadoop.security.SaslRpcServer.SaslStatus
-
- state - 类 中的变量org.apache.hadoop.tools.rumen.TaskAttemptInfo
-
- stateChangeLog - 类 中的静态变量org.apache.hadoop.hdfs.server.namenode.NameNode
-
- statement - 类 中的变量org.apache.hadoop.mapreduce.lib.db.DBRecordReader
-
- staticFlag - 类 中的静态变量org.apache.hadoop.record.compiler.generated.SimpleCharStream
-
- StaticUserWebFilter - org.apache.hadoop.http.lib中的类
-
Provides a servlet filter that pretends to authenticate a fake user (Dr.Who)
so that the web UI is usable for a secure cluster without authentication.
- StaticUserWebFilter() - 类 的构造器org.apache.hadoop.http.lib.StaticUserWebFilter
-
- StaticUserWebFilter.StaticUserFilter - org.apache.hadoop.http.lib中的类
-
- StaticUserWebFilter.StaticUserFilter() - 类 的构造器org.apache.hadoop.http.lib.StaticUserWebFilter.StaticUserFilter
-
- statistics - 类 中的变量org.apache.hadoop.fs.FileSystem
-
The statistics for this file system.
- status - 类 中的变量org.apache.hadoop.hdfs.server.common.UpgradeObject
-
- StatusReporter - org.apache.hadoop.mapreduce中的类
-
- StatusReporter() - 类 的构造器org.apache.hadoop.mapreduce.StatusReporter
-
- statusUpdate(TaskUmbilicalProtocol) - 类 中的方法org.apache.hadoop.mapred.Task
-
- statusUpdate(TaskAttemptID, TaskStatus, JvmContext) - 类 中的方法org.apache.hadoop.mapred.TaskTracker
-
Called periodically to report Task progress, from 0.0 to 1.0.
- statusUpdate(TaskAttemptID, TaskStatus, JvmContext) - 接口 中的方法org.apache.hadoop.mapred.TaskUmbilicalProtocol
-
Report child's progress to parent.
- stddev() - 类 中的方法org.apache.hadoop.metrics2.util.SampleStat
-
- stop() - 类 中的方法org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter
-
- stop() - 类 中的方法org.apache.hadoop.hdfs.server.namenode.NameNode
-
Stop all NameNode threads and wait for all to finish.
- stop() - 类 中的方法org.apache.hadoop.http.HttpServer
-
stop the server
- stop() - 类 中的方法org.apache.hadoop.ipc.Client
-
Stop all threads related to this client.
- stop() - 类 中的方法org.apache.hadoop.ipc.Server
-
Stops the service.
- stop() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
set the thread state to STOPPING so that the
thread will stop when it wakes up.
- stop() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
set the thread state to STOPPING so that the
thread will stop when it wakes up.
- stop() - 类 中的方法org.apache.hadoop.metrics2.impl.MetricsSystemImpl
-
- stop() - 枚举 中的方法org.apache.hadoop.metrics2.lib.DefaultMetricsSystem
-
- stop() - 接口 中的方法org.apache.hadoop.metrics2.MetricsSystemMXBean
-
Stop the metrics system
- stop() - 接口 中的方法org.apache.hadoop.util.ServicePlugin
-
This method is invoked when the service instance is about to be shut down.
- stopCleanupThread() - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager
-
Stop the background thread
- stopCommunicationThread() - 类 中的方法org.apache.hadoop.mapred.Task.TaskReporter
-
- stopDecommission() - 类 中的方法org.apache.hadoop.hdfs.protocol.DatanodeInfo
-
Stop decommissioning a node.
- stopDecommission(DatanodeDescriptor) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.FSNamesystem
-
Stop decommissioning the specified datanodes.
- stopMonitoring() - 类 中的方法org.apache.hadoop.metrics.file.FileContext
-
已过时。
Stops monitoring, closing the file.
- stopMonitoring() - 接口 中的方法org.apache.hadoop.metrics.MetricsContext
-
已过时。
Stops monitoring.
- stopMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.AbstractMetricsContext
-
已过时。
Stops monitoring.
- stopMonitoring() - 类 中的方法org.apache.hadoop.metrics.spi.CompositeContext
-
已过时。
- stopNotifier() - 类 中的静态方法org.apache.hadoop.mapred.JobEndNotifier
-
- stopProxy(VersionedProtocol) - 类 中的静态方法org.apache.hadoop.ipc.RPC
-
Stop this proxy and release its invoker's resource
- stopRunning() - 类 中的方法org.apache.hadoop.filecache.TrackerDistributedCacheManager.CleanupThread
-
- stopThreads() - 类 中的方法org.apache.hadoop.security.token.delegation.AbstractDelegationTokenSecretManager
-
- stopTracker() - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
- Storage - org.apache.hadoop.hdfs.server.common中的类
-
Storage information file.
- Storage(HdfsConstants.NodeType) - 类 的构造器org.apache.hadoop.hdfs.server.common.Storage
-
Create empty storage info of the specified type
- Storage(HdfsConstants.NodeType, int, long) - 类 的构造器org.apache.hadoop.hdfs.server.common.Storage
-
- Storage(HdfsConstants.NodeType, StorageInfo) - 类 的构造器org.apache.hadoop.hdfs.server.common.Storage
-
- Storage.StorageDirectory - org.apache.hadoop.hdfs.server.common中的类
-
One of the storage directories.
- Storage.StorageDirectory(File) - 类 的构造器org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
- Storage.StorageDirectory(File, Storage.StorageDirType) - 类 的构造器org.apache.hadoop.hdfs.server.common.Storage.StorageDirectory
-
- Storage.StorageDirType - org.apache.hadoop.hdfs.server.common中的接口
-
An interface to denote storage directory type
Implementations can define a type for storage directory by implementing
this interface.
- Storage.StorageState - org.apache.hadoop.hdfs.server.common中的枚举
-
- STORAGE_DIR_CURRENT - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
-
- STORAGE_FILE_VERSION - 类 中的静态变量org.apache.hadoop.hdfs.server.common.Storage
-
- storageDirs - 类 中的变量org.apache.hadoop.hdfs.server.common.Storage
-
- storageID - 类 中的变量org.apache.hadoop.hdfs.protocol.DatanodeID
-
- StorageInfo - org.apache.hadoop.hdfs.server.common中的类
-
Common class for storage information.
- StorageInfo() - 类 的构造器org.apache.hadoop.hdfs.server.common.StorageInfo
-
- StorageInfo(int, int, long) - 类 的构造器org.apache.hadoop.hdfs.server.common.StorageInfo
-
- StorageInfo(StorageInfo) - 类 的构造器org.apache.hadoop.hdfs.server.common.StorageInfo
-
- storageInfo - 类 中的变量org.apache.hadoop.hdfs.server.protocol.DatanodeRegistration
-
- store(Configuration, K, String) - 类 中的静态方法org.apache.hadoop.io.DefaultStringifier
-
Stores the item in the configuration with the given keyName.
- storeArray(Configuration, K[], String) - 类 中的静态方法org.apache.hadoop.io.DefaultStringifier
-
Stores the array of items in the configuration with the given keyName.
- storeBlock(Block, File) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
-
- storeINode(Path, INode) - 接口 中的方法org.apache.hadoop.fs.s3.FileSystemStore
-
- StreamBackedIterator<X extends Writable> - org.apache.hadoop.mapred.join中的类
-
This class provides an implementation of ResetableIterator.
- StreamBackedIterator() - 类 的构造器org.apache.hadoop.mapred.join.StreamBackedIterator
-
- StreamBaseRecordReader - org.apache.hadoop.streaming中的类
-
Shared functionality for hadoopStreaming formats.
- StreamBaseRecordReader(FSDataInputStream, FileSplit, Reporter, JobConf, FileSystem) - 类 的构造器org.apache.hadoop.streaming.StreamBaseRecordReader
-
- streamBlockInAscii(InetSocketAddress, long, Token<BlockTokenIdentifier>, long, long, long, long, JspWriter, Configuration) - 类 中的方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
- StreamFile - org.apache.hadoop.hdfs.server.namenode中的类
-
- StreamFile() - 类 的构造器org.apache.hadoop.hdfs.server.namenode.StreamFile
-
- StreamInputFormat - org.apache.hadoop.streaming中的类
-
An input format that selects a RecordReader based on a JobConf property.
- StreamInputFormat() - 类 的构造器org.apache.hadoop.streaming.StreamInputFormat
-
- StreamJob - org.apache.hadoop.streaming中的类
-
All the client-side work happens here.
- StreamJob(String[], boolean) - 类 的构造器org.apache.hadoop.streaming.StreamJob
-
- StreamJob() - 类 的构造器org.apache.hadoop.streaming.StreamJob
-
- StreamKeyValUtil - org.apache.hadoop.streaming中的类
-
- StreamKeyValUtil() - 类 的构造器org.apache.hadoop.streaming.StreamKeyValUtil
-
- StreamUtil - org.apache.hadoop.streaming中的类
-
Utilities not available elsewhere in Hadoop.
- StreamUtil() - 类 的构造器org.apache.hadoop.streaming.StreamUtil
-
- StreamXmlRecordReader - org.apache.hadoop.streaming中的类
-
A way to interpret XML fragments as Mapper input records.
- StreamXmlRecordReader(FSDataInputStream, FileSplit, Reporter, JobConf, FileSystem) - 类 的构造器org.apache.hadoop.streaming.StreamXmlRecordReader
-
- STRING - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
-
- string2Bytes(String) - 类 中的静态方法org.apache.hadoop.hdfs.DFSUtil
-
Converts a string to a byte array using UTF8 encoding.
- string2ChunkSizeToView(String, int) - 类 中的静态方法org.apache.hadoop.hdfs.server.namenode.JspHelper
-
Convert a String to chunk-size-to-view.
- string2long(String) - 枚举 中的静态方法org.apache.hadoop.util.StringUtils.TraditionalBinaryPrefix
-
Convert a string to long.
- STRING_VALUE_MAX - 类 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
-
- STRING_VALUE_MIN - 类 中的静态变量org.apache.hadoop.mapred.lib.aggregate.ValueAggregatorBaseDescriptor
-
- Stringifier<T> - org.apache.hadoop.io中的接口
-
Stringifier interface offers two methods to convert an object
to a string representation and restore the object given its
string representation.
- stringifyException(Throwable) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
Make a string representation of the exception.
- stringifySolution(int, int, List<List<Pentomino.ColumnName>>) - 类 中的静态方法org.apache.hadoop.examples.dancing.Pentomino
-
Convert a solution to the puzzle returned by the model into a string
that represents the placement of the pieces onto the board.
- stringifyToken(Token<DelegationTokenIdentifier>) - 类 中的静态方法org.apache.hadoop.hdfs.DFSClient
-
A test method for printing out tokens
- stringToPath(String[]) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
- stringToURI(String[]) - 类 中的静态方法org.apache.hadoop.util.StringUtils
-
- StringTypeID - 类 中的静态变量org.apache.hadoop.record.meta.TypeID
-
- StringUtils - org.apache.hadoop.util中的类
-
General string utils
- StringUtils() - 类 的构造器org.apache.hadoop.util.StringUtils
-
- StringUtils.TraditionalBinaryPrefix - org.apache.hadoop.util中的枚举
-
The traditional binary prefixes, kilo, mega, ..., exa,
which can be represented by a 64-bit integer.
- StringValueMax - org.apache.hadoop.mapred.lib.aggregate中的类
-
This class implements a value aggregator that maintain the biggest of
a sequence of strings.
- StringValueMax() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.StringValueMax
-
the default constructor
- StringValueMin - org.apache.hadoop.mapred.lib.aggregate中的类
-
This class implements a value aggregator that maintain the smallest of
a sequence of strings.
- StringValueMin() - 类 的构造器org.apache.hadoop.mapred.lib.aggregate.StringValueMin
-
the default constructor
- STRUCT - 类 中的静态变量org.apache.hadoop.record.meta.TypeID.RIOType
-
- StructTypeID - org.apache.hadoop.record.meta中的类
-
Represents typeID for a struct
- StructTypeID(RecordTypeInfo) - 类 的构造器org.apache.hadoop.record.meta.StructTypeID
-
Create a StructTypeID based on the RecordTypeInfo of some record
- SUBDIR - 类 中的静态变量org.apache.hadoop.mapred.TaskTracker
-
- subMap(WritableComparable, WritableComparable) - 类 中的方法org.apache.hadoop.io.SortedMapWritable
- submit() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.Job
-
Submit this job to mapred.
- submit() - 类 中的方法org.apache.hadoop.mapreduce.Job
-
Submit the job to the cluster and return immediately.
- submit() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob
-
Submit this job to mapred.
- submitAndMonitorJob() - 类 中的方法org.apache.hadoop.streaming.StreamJob
-
- submitJob(String) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Submit a job to the MR system.
- submitJob(JobConf) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Submit a job to the MR system.
- submitJob(JobID, String, Credentials) - 类 中的方法org.apache.hadoop.mapred.JobTracker
-
JobTracker.submitJob() kicks off a new job.
- submitJob(JobID, String, Credentials) - 类 中的方法org.apache.hadoop.mapred.LocalJobRunner
-
- submitJob(JobConf) - 类 中的静态方法org.apache.hadoop.mapred.pipes.Submitter
-
- submitJobInternal(JobConf) - 类 中的方法org.apache.hadoop.mapred.JobClient
-
Internal method for submitting jobs to the system.
- submitReadahead(String, FileDescriptor, long, long) - 类 中的方法org.apache.hadoop.io.ReadaheadPool
-
Submit a request to readahead on the given file descriptor.
- Submitter - org.apache.hadoop.mapred.pipes中的类
-
The main entry point and job submitter.
- Submitter() - 类 的构造器org.apache.hadoop.mapred.pipes.Submitter
-
- Submitter(Configuration) - 类 的构造器org.apache.hadoop.mapred.pipes.Submitter
-
- SUBSTITUTE_TOKEN - 类 中的静态变量org.apache.hadoop.mapreduce.lib.db.DataDrivenDBInputFormat
-
If users are providing their own query, the following string is expected to
appear in the WHERE clause, which will be substituted with a pair of conditions
on the input to allow input splits to parallelise the import.
- SUCCEEDED - 类 中的静态变量org.apache.hadoop.mapred.JobStatus
-
- SUCCEEDED_FILE_NAME - 类 中的静态变量org.apache.hadoop.mapred.FileOutputCommitter
-
- SUCCEEDED_FILE_NAME - 类 中的静态变量org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter
-
- SUCCESS - 类 中的静态变量org.apache.hadoop.hdfs.server.balancer.Balancer
-
- SUCCESS - 类 中的静态变量org.apache.hadoop.mapred.jobcontrol.Job
-
- success() - 类 中的方法org.apache.hadoop.mapred.ShuffleExceptionTracker
-
Mark the request as success.
- SUCCESS - 类 中的静态变量org.apache.hadoop.tools.distcp2.DistCpConstants
-
Constants for DistCp return code to shell / consumer of ToolRunner's run
- Sudoku - org.apache.hadoop.examples.dancing中的类
-
This class uses the dancing links algorithm from Knuth to solve sudoku
puzzles.
- Sudoku(InputStream) - 类 的构造器org.apache.hadoop.examples.dancing.Sudoku
-
Set up a puzzle board to the given size.
- Sudoku.ColumnName - org.apache.hadoop.examples.dancing中的接口
-
This interface is a marker class for the columns created for the
Sudoku solver.
- suffix(String) - 类 中的方法org.apache.hadoop.fs.Path
-
Adds a suffix to the final name in the path.
- sum(Counters, Counters) - 类 中的静态方法org.apache.hadoop.mapred.Counters
-
Convenience method for computing the sum of two sets of counters.
- SUPPORT_SPARSE_METRICS_DEFAULT - 类 中的静态变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
-
- SUPPORT_SPARSE_METRICS_PROPERTY - 类 中的静态变量org.apache.hadoop.metrics2.sink.ganglia.AbstractGangliaSink
-
- supportIsolationRunner(JobConf) - 类 中的方法org.apache.hadoop.mapred.Task
-
- supports(LayoutVersion.Feature, int) - 类 中的静态方法org.apache.hadoop.hdfs.protocol.LayoutVersion
-
Returns true if a given feature is supported in the given layout version
- suspend() - 类 中的方法org.apache.hadoop.mapred.jobcontrol.JobControl
-
suspend the running thread
- suspend() - 类 中的方法org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl
-
suspend the running thread
- swap(Node[], int, int) - 类 中的静态方法org.apache.hadoop.net.NetworkTopology
-
- swap(int, int) - 接口 中的方法org.apache.hadoop.util.IndexedSortable
-
Swap items at the given addresses.
- SWITCH_TO_SIMPLE_AUTH - 类 中的静态变量org.apache.hadoop.security.SaslRpcServer
-
- SwitchTo(int) - 类 中的方法org.apache.hadoop.record.compiler.generated.RccTokenManager
-
- SYMBOL - 枚举 中的变量org.apache.hadoop.fs.permission.FsAction
-
Symbolic representation
- symbol - 枚举 中的变量org.apache.hadoop.util.StringUtils.TraditionalBinaryPrefix
-
- symLink(String, String) - 类 中的静态方法org.apache.hadoop.fs.FileUtil
-
Create a soft link between a src and destination
only on a local disk.
- sync() - 类 中的方法org.apache.hadoop.fs.FSDataOutputStream
-
Synchronize all buffer with the underlying devices.
- sync() - 接口 中的方法org.apache.hadoop.fs.Syncable
-
Synchronize all buffer with the underlying devices.
- sync(long) - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Seek to the next sync mark past a given position.
- sync() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
-
create a sync point
- SYNC_FILE_RANGE_WAIT_AFTER - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- SYNC_FILE_RANGE_WAIT_BEFORE - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- SYNC_FILE_RANGE_WRITE - 类 中的静态变量org.apache.hadoop.io.nativeio.NativeIO
-
- SYNC_INTERVAL - 类 中的静态变量org.apache.hadoop.io.SequenceFile
-
The number of bytes between sync points.
- Syncable - org.apache.hadoop.fs中的接口
-
This interface declare the sync() operation.
- syncFileRangeIfPossible(FileDescriptor, long, long, int) - 类 中的静态方法org.apache.hadoop.io.nativeio.NativeIO
-
Call sync_file_range on the given file descriptor.
- syncFs() - 类 中的方法org.apache.hadoop.io.SequenceFile.Writer
-
flush all currently written data to the file system
- syncLogs(String, TaskAttemptID, boolean, boolean) - 类 中的静态方法org.apache.hadoop.mapred.TaskLog
-
- syncSeen() - 类 中的方法org.apache.hadoop.io.SequenceFile.Reader
-
Returns true iff the previous call to next passed a sync mark.